KR102171319B1 - Appratus for writing motion-script, appratus for self-learning montion and method for using the same - Google Patents

Appratus for writing motion-script, appratus for self-learning montion and method for using the same Download PDF

Info

Publication number
KR102171319B1
KR102171319B1 KR1020160139932A KR20160139932A KR102171319B1 KR 102171319 B1 KR102171319 B1 KR 102171319B1 KR 1020160139932 A KR1020160139932 A KR 1020160139932A KR 20160139932 A KR20160139932 A KR 20160139932A KR 102171319 B1 KR102171319 B1 KR 102171319B1
Authority
KR
South Korea
Prior art keywords
motion
information
script
learning
user
Prior art date
Application number
KR1020160139932A
Other languages
Korean (ko)
Other versions
KR20170140756A (en
Inventor
김도형
장민수
김재홍
윤영우
조재일
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US15/450,337 priority Critical patent/US10748444B2/en
Publication of KR20170140756A publication Critical patent/KR20170140756A/en
Priority to US16/918,659 priority patent/US11113988B2/en
Application granted granted Critical
Publication of KR102171319B1 publication Critical patent/KR102171319B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0015Dancing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

동작 교본 저작 장치, 동작 자가 학습 장치 및 방법이 개시된다. 본 발명의 일실시예에 따른 동작 자가 학습 방법은 동작 교본 저작 장치 및 동작 자가 학습 장치를 이용하는 동작 자가 학습 방법에 있어서, 상기 동작 교본 저작 장치가 제1 사용자의 전문가 동작에 기반하여 모션 스크립트를 생성하는 단계; 상기 동작 자가 학습 장치가 상기 모션 스크립트에 기반하여 상기 전문가 동작을 학습하는 제2 사용자의 동작을 분석하는 단계 및 상기 동작 자가 학습 장치가 상기 제2 사용자의 동작을 분석한 결과를 출력하는 단계를 포함한다.A motion textbook authoring apparatus, a motion self-learning apparatus, and a method are disclosed. In the motion self-learning method according to an embodiment of the present invention, in the motion self-learning method using a motion textbook authoring device and motion self-learning device, the motion textbook authoring device generates a motion script based on the expert motion of a first user. Step to do; Analyzing, by the motion self-learning device, a second user's motion learning the expert motion based on the motion script, and outputting, by the motion self-learning device, a result of analyzing the motion of the second user. do.

Figure R1020160139932
Figure R1020160139932

Description

동작 교본 저작 장치, 동작 자가 학습 장치 및 방법 {APPRATUS FOR WRITING MOTION-SCRIPT, APPRATUS FOR SELF-LEARNING MONTION AND METHOD FOR USING THE SAME}Motion textbook writing device, motion self-learning device and method {APPRATUS FOR WRITING MOTION-SCRIPT, APPRATUS FOR SELF-LEARNING MONTION AND METHOD FOR USING THE SAME}

본 발명은 동작 학습 시스템 프레임 워크에 관한 것으로, 보다 상세하게는 동작 인식 기반 서비스 및 동작 자가 학습 기술에 관한 것이다.The present invention relates to a motion learning system framework, and more particularly, to a motion recognition-based service and motion self-learning technology.

요가, 태권도 및 탁구 등의 스포츠 동작 또는 승무원, 호텔리어 등의 전문직 종사자들에게 요구되는 모범 자세를 배우고자 하는 수요는 항상 존재해 왔다.There has always been a demand to learn the exemplary postures required for sports movements such as yoga, taekwondo and table tennis, or for professionals such as flight attendants and hoteliers.

특정 동작을 학습할 수 있는 가장 좋은 방법 중의 하나는 전문가와의 일대일 수업을 통해 전문가의 동작을 반복적으로 따라하고, 즉각적인 피드백을 받아 자신의 자세를 지속적으로 교정하는 것이다.One of the best ways to learn specific movements is to repeatedly imitate the movements of the experts through one-on-one lessons with experts, and continuously correct one's posture by receiving immediate feedback.

하지만 장소와 시간, 경제적 비용 등의 제약으로 인해 일반 개인이 전문시설을 방문하여 전문 강사에게 교습을 받기란 쉽지 않은 일이다. 따라서, 전문가를 만나서 직접 교습을 받지 않고도 효과적으로 특정 동작을 학습할 수 있는 자가 학습 방법에 대한 요구사항이 점점 증가하고 있으며 이와 관련된 기반 산업도 발전하고 있는 추세이다.However, it is difficult for a general individual to visit a specialized facility and receive instruction from a professional instructor due to restrictions such as location, time, and economic cost. Therefore, requirements for a self-learning method that can effectively learn specific movements without meeting an expert and receiving direct instruction are increasing, and the related base industry is also developing.

현재 학습자가 요가, 체조 및 댄스 등의 동작을 스스로 학습하는 가장 일반적인 방법은 영상물을 모방하는 방법이다. 학습자가 교습 비디오를 구입하거나 인터넷에서 적당한 동영상을 다운로드 받아서 화면의 강사가 취하는 동작을 보고 그대로 따라 하는 방식이다. 이러한 영상물을 단순히 모방하는 기존의 학습 방법은 학습자 본인이 취하고 있는 동작의 정확도, 오류 수정 및 개선 및 학습 성취도 등에 대한 정확한 피드백이 전혀 없기 때문에 효과적인 자가 학습 방법이라고 보기 어렵다. 또한, 학습 현황에 대한 정보 없이 오로지 학습자의 의지력에만 의존하기 때문에 학습자의 학습 지속력 또한 현저히 떨어진다. Currently, the most common method for learners to self-learn movements such as yoga, gymnastics, and dance is by imitating video. This is a method in which the learner purchases a teaching video or downloads an appropriate video from the Internet, sees and follows the instructor's actions on the screen. Existing learning methods that simply imitate these videos are difficult to be seen as an effective self-learning method because there is no accurate feedback on the accuracy of the learner's actions, error correction and improvement, and learning achievement. In addition, since it relies solely on the willpower of the learner without information on the current status of learning, the learner's ability to sustain learning is also significantly lowered.

최근 몇 년간 IT 기술의 급속한 발전과 함께 동작 인식용 센서와 동작 인식 기술을 기반으로 하는 다양한 콘텐츠 서비스가 제공되고 있다.With the rapid development of IT technology in recent years, a variety of content services based on motion recognition sensors and motion recognition technologies have been provided.

마이크로소프트의 Xbox와 소니의 PlayStation과 같이 사용자의 동작에 반응하는 참여형 게임 플랫폼이 등장하면서 전 세계적으로 성공을 거두고 있다. 이러한 종류의 게임 플랫폼들은 주로 저가의 3차원 카메라를 통해서 입력되는 깊이 영상을 분석하여 사용자의 바디파트 위치와 지정된 자세 및 동작을 인식하는 기술로 구현된다.Participatory game platforms that respond to user actions such as Microsoft's Xbox and Sony's PlayStation are gaining worldwide success. These kinds of game platforms are mainly implemented with a technology that recognizes the position of a user's body part and a designated posture and motion by analyzing a depth image input through a low-cost 3D camera.

단순한 형태의 동작 인식 기술을 기반으로 하는 참여형 게임 콘텐츠가 성공을 거둔 데 이어 골프와 야구 등의 비교적 복잡한 동작으로 이루어진 스포츠 영역에서도 정확한 운동 자세에 대한 코칭을 목적으로 동작 인식 기술이 적용되고 있다. 최근에는 동작분석을 통해 학습자에게 피드백을 제공하는 기술과 함께 학습자가 직접 탑승할 수 있는 하드웨어 기구를 포함하는 스포츠 시뮬레이터 플랫폼 등이 개발되고 있다. 전문 강사로부터 교습을 받기가 쉽지 않은 승마나 요트 등과 같은 스포츠의 경우에 실제 환경을 모사한 스포츠 시뮬레이터 플랫폼은 좋은 대안이 될 수 있다. Following the success of participatory game contents based on simple motion recognition technology, motion recognition technology is being applied for the purpose of coaching on accurate exercise posture even in sports areas consisting of relatively complex motions such as golf and baseball. In recent years, a sports simulator platform including a hardware device through which the learner can ride directly along with a technology that provides feedback to the learner through motion analysis has been developed. In the case of sports such as horseback riding or yachting, where it is not easy to receive instruction from a professional instructor, a sports simulator platform that simulates the real environment can be a good alternative.

위 언급한 참여형 게임 플랫폼, 스포츠 동작 및 자세 분석 시스템, 기구를 포함하는 스포츠 시뮬레이터 플랫폼 등은 사용자의 동작을 분석하는 기술을 기반으로 서비스를 제공하기는 하지만, 이들 모두는 개인 학습자들의 자가 학습을 지원하기 위한 시스템이 아니다. Although the above-mentioned participatory game platform, sports motion and posture analysis system, and sports simulator platform including equipment provide services based on the technology that analyzes the user's motion, all of them support the self-learning of individual learners. It is not a system for doing.

동작 기반 게임 플랫폼은 주로 엔터테인먼트나 피트니스를 목적으로 개발되며 사용자의 자세에 대한 진단 서비스를 제공하지 않는다.Motion-based game platforms are mainly developed for entertainment or fitness purposes, and do not provide diagnostic services for the user's posture.

스포츠 자세 분석 시스템은 플레이어의 자세에 대한 상세한 분석 및 이를 기반으로 하는 진단 서비스를 제공한다. 하지만, 이들 진단 서비스는 전문적으로 스포츠 시뮬레이터를 판매하는 몇몇 특정 사업자에 의해서 해당 스포츠에 특화되어 개발되며, 스크린 골프 및 스크린 야구장과 같은 관련 시설을 갖추고 있는 스포츠 전용 사업장에 구축된다. 이러한 코칭 시스템은 자가 학습이 목표가 아니라 스포츠 시뮬레이터의 전문성 확보, 흥미 및 몰입감 증진, 전문 지도자의 보조적 분석 도구 역할을 수행하는 것을 목적으로 한다. The sports posture analysis system provides a detailed analysis of a player's posture and a diagnosis service based on the analysis. However, these diagnostic services are specialized and developed for the sport by some specific operators that specialize in selling sports simulators, and are built in a sports-only business site equipped with related facilities such as screen golf and screen ballpark. This coaching system is not aimed at self-learning, but aims to secure expertise in sports simulators, increase interest and immersion, and serve as an auxiliary analysis tool for professional leaders.

앞서 설명한 자가 학습에 대한 요구사항이 "시공간에 대한 제약 없이 다양한 분야에서의 표본 동작에 대한 보편적 학습 방법의 제공"이라는 점에서 기존의 코칭 시스템은 이러한 요구사항을 전혀 충족하지 못하고 있다.In the point that the above-described requirements for self-learning are "providing a universal learning method for sample movements in various fields without constraints on time and space", the existing coaching system does not meet these requirements at all.

한편, 한국공개특허 제 10-2010-0132322 호“모션캡쳐와 3차원 그래픽을 이용한 동작 학습 시스템 및 그 방법”는 모션캡쳐와 3차원 그래픽 기술을 적용한 가상 캐릭터를 사용하여 동시에 렌더링되는 하나 이상의 3차원 그래픽 동작 영상 정보와 하나 이상의 3차원 그래픽 스텝 영상 정보를 하나 이상의 디스플레이 장치에 동시에 출력함으로써, 3차원 공간에서 얻어지는 사람의 동작 정보를 다양한 시점의 영상 정보를 통하여 정확하게 관찰하고 이해할 수 있는 동작 학습 시스템을 개시하고 있다.Meanwhile, Korean Patent Laid-Open Publication No. 10-2010-0132322 “A motion learning system and method using motion capture and three-dimensional graphics” describes one or more three-dimensional renderings simultaneously using a virtual character to which motion capture and three-dimensional graphic technology are applied. By simultaneously outputting graphic motion image information and one or more three-dimensional graphic step image information to one or more display devices, a motion learning system that can accurately observe and understand human motion information obtained in a three-dimensional space through image information from various viewpoints. It is starting.

본 발명은 학습자가 동작 및 자세를 스스로 학습하는 방법에 있어서 시공간에 대한 제약 없이 다양한 분야에서의 표본 동작에 대한 보편적 학습 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a universal learning method for sample movements in various fields without constraints on time and space in a method for learners to learn movements and postures by themselves.

또한, 본 발명은 특정 분야의 동작 전문가가 자신의 퍼포먼스로 동작 교본(motion script: 모션 스크립트)을 직접 저작, 편집, 출판하고 다수의 동작 학습자가 출판된 동작 교본으로 올바른 동작을 자가 학습할 수 있도록 지원하는 일반화된 시스템 프레임워크를 제공하는 것을 목적으로 한다.In addition, the present invention allows motion experts in a specific field to directly author, edit, and publish motion scripts as their performances, and allow a number of motion learners to self-learn correct motions with the published motion texts. It aims to provide a generalized system framework that supports.

또한, 본 발명은 동작기반 콘텐츠 제작자가 대용량의 동작 교본 데이터베이스로부터 손쉽게 동작 데이터를 확보하여 콘텐츠 제작 비용을 획기적으로 절감된 동작 기반 서비스 및 교습 콘텐츠의 제작을 지원하는 것을 목적으로 한다.In addition, an object of the present invention is to support the production of motion-based services and teaching content, which dramatically reduces the cost of content production by allowing motion-based content creators to easily secure motion data from a large-capacity motion textbook database.

또한, 본 발명은 자가 학습자가 동작 교본 스토어 서버로부터 콘텐츠 제작자에 의해 개발된 다양한 동작기반 콘텐츠 및 서비스를 제공받아 동작 자가 학습 수요층을 확장시킬 수 있도록 콘텐츠 만족도를 향상시키는 것을 목적으로 한다.In addition, an object of the present invention is to improve content satisfaction so that self-learners can expand the demand level for self-learning by receiving various motion-based content and services developed by content creators from a motion textbook store server.

또한, 본 발명은 교습 비디오를 단순히 모방하는 기존의 자가 학습 방법의 한계를 극복하고 동작 자가 학습과 관련된 콘텐츠 서비스의 생태계 조성에 기여하는 것을 목적으로 한다.In addition, an object of the present invention is to overcome the limitations of the existing self-learning method that simply imitates the teaching video and contribute to the creation of an ecosystem of content services related to self-learning movements.

상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 동작 교본 저작 장치는 사용자의 동작에 상응하는 속성 정보를 생성하는 저작부; 상기 사용자의 동작으로부터 센서 데이터를 획득하는 센서부; 상기 속성 정보와 상기 센서 데이터에 기반하여 모션 스크립트를 생성하는 모션 스크립트 생성부 및 상기 모션 스크립트를 배포하는 편집 출판부를 포함한다.An operation textbook authoring apparatus according to an embodiment of the present invention for achieving the above object comprises: an authoring unit for generating attribute information corresponding to a user's operation; A sensor unit obtaining sensor data from the user's motion; And a motion script generating unit generating a motion script based on the attribute information and the sensor data, and an editing publishing unit distributing the motion script.

이 때, 상기 저작부는 상기 모션 스크립트에 대한 파일 속성 및 상기 모션 스크립트가 검색되기 위한 태그 정보 중 적어도 하나를 포함하는 모션 스크립트 헤더 정보를 생성하는 헤더 정보 설정부; 상기 사용자의 동작과 상기 속성 정보를 맵핑하는 동작 속성 맵핑부 및 동작 학습에 이용되는 부가 정보의 제공 여부를 설정하는 부가 정보 설정부를 포함할 수 있다.In this case, the authoring unit comprises: a header information setting unit for generating motion script header information including at least one of a file property for the motion script and tag information for searching for the motion script; A motion attribute mapping unit for mapping the user's motion and the attribute information, and an additional information setting unit for setting whether to provide additional information used for motion learning.

이 때, 상기 속성 정보는 상기 사용자의 키 포즈에 상응하는 키 포즈 설정 정보; 상기 사용자의 키 모션에 상응하는 키 모션 설정 정보; 상기 키 모션의 속도 및 강도에 상응하는 동작 설정 정보 및 상기 키 포즈 및 상기 키 모션에 기반한 상기 사용자의 키 바디 파트에 상응하는 키 바디 파트 설정 정보 중 적어도 하나를 포함할 수 있다.In this case, the attribute information may include key pose setting information corresponding to the user's key pose; Key motion setting information corresponding to the user's key motion; It may include at least one of operation setting information corresponding to the speed and strength of the key motion, and key body part setting information corresponding to the key body part of the user based on the key pose and the key motion.

이 때, 상기 모션 스크립트 생성부는 상기 동작 획득 장치의 종류 및 특성을 파악하고, 상기 파악된 동작 획득 장치의 종류 및 특성에 기반하여 상기 획득한 전문가 센서 데이터로부터 동작 기술자 정보를 생성하는 동작 기술자 생성부; 및 상기 속성 정보에 기반하여 상기 획득한 전문가 센서 데이터로부터 동작 속성 정보를 생성하는 동작 속성 생성부를 더 포함할 수 있다.In this case, the motion script generation unit is a motion descriptor generation unit that determines the type and characteristic of the motion acquisition device and generates motion descriptor information from the acquired expert sensor data based on the identified type and characteristic of the motion acquisition device. ; And a motion property generator generating motion property information from the acquired expert sensor data based on the property information.

이 때, 상기 모션 스크립트 생성부는 상기 모션 스크립트 헤더 정보, 상기 동작 속성 정보, 상기 동작 기술자 정보 및 상기 부가 정보 중 적어도 하나를 포함하는 상기 모션 스크립트를 생성할 수 있다.In this case, the motion script generator may generate the motion script including at least one of the motion script header information, the motion attribute information, the motion descriptor information, and the additional information.

이 때, 상기 편집 출판부는 상기 생성된 모션 스크립트에 대하여 교본 영상 편집, 동작 세부 교정, 속성 세부 교정 및 부가 정보 편집 중 적어도 하나를 수행하여 편집된 최종 모션 스크립트를 상기 동작 교본 스토어 서버에 배포할 수 있다.In this case, the editing and publishing unit may perform at least one of textbook image editing, detailed operation correction, detailed attribute correction, and additional information editing on the generated motion script to distribute the edited final motion script to the operation textbook store server. have.

또한, 상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 동작 자가 학습 장치는 모션 스크립트의 전문가 동작을 출력하여 사용자에게 상기 전문가 동작을 학습시키는 학습부; 동작 획득 장치를 이용하여 상기 사용자의 동작으로부터 센서 데이터를 획득하는 센서부; 상기 모셥 스크립트와 센서 데이터 기반하여 상기 사용자의 동작을 평가한 최종 동작 평가 정보를 생성하는 동작 평가부 및 상기 최종 동작 평가 정보와 상기 사용자의 동작을 교정하기 위한 교정 정보를 출력하는 출력부를 포함한다.In addition, a motion self-learning apparatus according to an embodiment of the present invention for achieving the above object includes: a learning unit for learning the expert motion to a user by outputting an expert motion of a motion script; A sensor unit that acquires sensor data from the user's motion using a motion acquisition device; And a motion evaluation unit that generates final motion evaluation information that evaluates the user's motion based on the Moseng script and sensor data, and an output unit that outputs the final motion evaluation information and calibration information for correcting the user's motion.

이 때, 상기 학습부는 상기 모션 스크립트에서 상기 사용자가 동작 학습을 위하여 선택한 속성들을 이용하여 학습 속성 정보를 생성하는 전문가 모션 스크립트 설정부; 상기 사용자가 설정한 학습 환경에 기반하여 학습 환경 정보를 생성하는 학습 환경 설정부 및 상기 사용자의 동작을 학습자 모션 스크립트로 생성하는 학습자 모션 스크립트 설정부를 포함할 수 있다.In this case, the learning unit includes an expert motion script setting unit for generating learning attribute information using attributes selected by the user for motion learning in the motion script; A learning environment setting unit for generating learning environment information based on the learning environment set by the user, and a learner motion script setting unit for generating the user's motion as a learner motion script.

이 때, 상기 동작 평가부는 상기 모션 스크립트와 상기 센서 데이터에 기반하여 상기 사용자의 자세 정확성 정보 및 동적 표현력 정보를 생성하는 동작 분석부 및 상기 자세 정확성 정보 및 상기 동적 표현력 정보에 기반하여 최종 동작 평가 정보를 생성하는 동작 평가 산출부를 포함할 수 있다.In this case, the motion evaluation unit is a motion analysis unit that generates posture accuracy information and dynamic expressive power information of the user based on the motion script and the sensor data, and final motion evaluation information based on the posture accuracy information and the dynamic expressive power information. It may include an operation evaluation calculation unit that generates.

이 때, 상기 동작 분석부는 상기 모션 스크립트에 사용된 동작 획득 장치와 동일한 종류의 동작 획득 장치로부터 획득한 센서 데이터를 이용하여 동작 기술자 정보 및 동작 속성 정보를 분석할 수 있다.In this case, the motion analysis unit may analyze motion descriptor information and motion attribute information by using sensor data obtained from a motion acquisition device of the same type as the motion acquisition device used in the motion script.

이 때, 상기 동작 분석부는 상기 모션 스크립트와 상기 센서 데이터에 기반한 상기 동작 기술자 정보 및 상기 동작 속성 정보를 분석한 결과 마다 상기 사용자의 동작들의 유사도를 분석한 자세 정확성 값들을 포함하는 자세 정확성 정보를 생성할 수 있다.In this case, the motion analysis unit generates posture accuracy information including posture accuracy values obtained by analyzing the similarity of the user's motions for each result of analyzing the motion descriptor information and motion attribute information based on the motion script and the sensor data. can do.

이 때, 상기 동작 분석부는 상기 모션 스크립트와 상기 센서 데이터에 기반한 상기 동작 기술자 정보 및 상기 동작 속성 정보를 분석한 결과 마다 상기 사용자의 동작의 빠르기, 강도 및 동작 구간 일치 여부 중 적어도 하나의 유사도를 분석한 동적 표현력 값들을 포함하는 동적 표현력 정보를 생성할 수 있다.In this case, the motion analysis unit analyzes the similarity of at least one of the speed, intensity, and motion interval of the user's motion for each result of analyzing the motion descriptor information and motion attribute information based on the motion script and the sensor data. It is possible to generate dynamic expressiveness information including one dynamic expressiveness value.

이 때, 상기 동작 평가 산출부는 상기 동작 획득 장치의 개수, 종류 및 특성 중 적어도 하나에 기반하여 상기 자세 정확성 값들 각각과 상기 동적 표현력 값들 각각에 대한 가중치를 결정할 수 있다.In this case, the motion evaluation calculator may determine a weight for each of the posture accuracy values and each of the dynamic expressive power values based on at least one of the number, type, and characteristic of the motion acquisition device.

이 때, 상기 동작 평가 산출부는 상기 사용자의 동작들 각각에 대하여 상기 가중치가 결정된 자세 정확성 값들과 상기 동적 표현력 값들을 서로 합산하기 위한 합산 비중을 결정할 수 있다.In this case, the motion evaluation calculator may determine a sum weight for summing the weighted posture accuracy values and the dynamic expressive power values for each of the user's motions.

이 때, 상기 동작 평가 산출부는 상기 사용자의 동작들마다 각각 결정된 합산 비중에 기반하여 상기 자세 정확성 값들과 상기 동적 표현력 값들을 합산하여 산출된 최종 동작 평가 값들을 포함하는 최종 동작 평가 정보를 생성할 수 있다.In this case, the motion evaluation calculator may generate final motion evaluation information including final motion evaluation values calculated by summing the posture accuracy values and the dynamic expressive power values based on the sum weight determined for each of the user's motions. have.

이 때, 상기 동작 평가 산출부는 상기 사용자의 학습 능력 설정 값에 비례하여 상기 동적 표현력 값들의 합산 비중을 높게 설정하고, 상기 자세 정확성 값을 낮게 설정할 수 있다.In this case, the motion evaluation calculator may set a high sum of the dynamic expression power values in proportion to the user's learning ability setting value, and set the posture accuracy value to be low.

이 때, 상기 출력부는 상기 최종 평가 결과 정보와 상기 교정 정보에 기반하여 상기 학습자 모션 스크립트를 편집하여 상기 동작 교본 스토어 서버에 배포할 수 있다.In this case, the output unit may edit the learner's motion script based on the final evaluation result information and the correction information and distribute it to the motion textbook store server.

이 때, 상기 출력부는 상기 최종 동작 평가 정보에 기반하여 평가 요소 별 점수 및 상기 동작 학습자의 신체 부위 별 동작 정확도를 평가한 학습 평가 정보를 더 출력할 수 있다.In this case, the output unit may further output learning evaluation information obtained by evaluating a score for each evaluation element and a motion accuracy for each body part of the motion learner based on the final motion evaluation information.

이 때, 상기 출력부는 상기 사용자가 학습한 전문가 동작의 상기 평가 요소 별 점수 추이를 포함하는 상세 평가 정보를 더 출력할 수 있다.In this case, the output unit may further output detailed evaluation information including a score trend for each evaluation element of the expert action learned by the user.

또한, 상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 동작 자가 학습 방법은 동작 교본 저작 장치 및 동작 자가 학습 장치를 이용하는 동작 자가 학습 방법에 있어서, 상기 동작 교본 저작 장치가 제1 사용자의 전문가 동작에 기반하여 모션 스크립트를 생성하는 단계; 상기 동작 자가 학습 장치가 상기 모션 스크립트에 기반하여 상기 전문가 동작을 학습하는 제2 사용자의 동작을 분석하는 단계 및 상기 동작 자가 학습 장치가 상기 제2 사용자의 동작을 분석한 결과를 출력하는 단계를 포함한다.In addition, in the motion self-learning method according to an embodiment of the present invention for achieving the above object, in the motion self-learning method using the motion textbook authoring device and the motion self-learning device, the motion textbook authoring device Generating a motion script based on an expert motion; Analyzing, by the motion self-learning device, a second user's motion learning the expert motion based on the motion script, and outputting, by the motion self-learning device, a result of analyzing the motion of the second user. do.

본 발명은 학습자가 동작 및 자세를 스스로 학습하는 방법에 있어서 시공간에 대한 제약 없이 다양한 분야에서의 표본 동작에 대한 보편적 학습 방법을 제공할 수 있다.The present invention can provide a universal learning method for sample movements in various fields without constraints on time and space in a method for a learner to learn movements and postures on their own.

또한, 본 발명은 특정 분야의 동작 전문가가 자신의 퍼포먼스로 동작 교본(motion script: 모션 스크립트)을 직접 저작, 편집, 출판하고 다수의 동작 학습자가 출판된 동작 교본으로 올바른 동작을 자가 학습할 수 있도록 지원하는 일반화된 시스템 프레임워크를 제공할 수 있다.In addition, the present invention allows motion experts in a specific field to directly author, edit, and publish motion scripts as their performances, and allow a number of motion learners to self-learn correct motions with the published motion texts. A generalized system framework that supports can be provided.

또한, 본 발명은 동작기반 콘텐츠 제작자가 대용량의 동작 교본 데이터베이스로부터 손쉽게 동작 데이터를 확보하여 콘텐츠 제작 비용을 획기적으로 절감된 동작 기반 서비스 및 교습 콘텐츠의 제작을 지원할 수 있다.In addition, according to the present invention, motion-based content creators can easily secure motion data from a large-capacity motion textbook database, thereby supporting the production of motion-based services and teaching content, which significantly reduces content production costs.

또한, 본 발명은 자가 학습자가 동작 교본 스토어 서버로부터 콘텐츠 제작자에 의해 개발된 다양한 동작기반 콘텐츠 및 서비스를 제공받아 동작 자가 학습 수요층을 확장시킬 수 있도록 콘텐츠 만족도를 향상시킬 수 있다.In addition, the present invention can improve content satisfaction so that self-learners can expand the demand level for self-learning by receiving various motion-based content and services developed by content creators from a motion textbook store server.

또한, 본 발명은 교습 비디오를 단순히 모방하는 기존의 자가 학습 방법의 한계를 극복하고 동작 자가 학습과 관련된 콘텐츠 서비스의 생태계 조성에 기여할 수 있다.In addition, the present invention overcomes the limitations of the existing self-learning method that simply imitates the teaching video, and contributes to the creation of an ecosystem of content services related to self-learning movement.

도 1은 본 발명의 일실시예에 따른 동작 자가 학습 시스템을 나타낸 도면이다.
도 2는 본 발명의 일실시예에 따른 동작 교본 저작 장치를 나타낸 블록도이다.
도 3은 도 2에 도시된 동작 교본 저작 장치의 일 예를 세부적으로 나타낸 도면이다.
도 4는 본 발명의 일실시예에 따른 모션 스크립트를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 동작 자가 학습 장치를 나타낸 도면이다.
도 6은 도 5에 도시된 동작 자가 학습 장치의 일 예를 세부적으로 나타낸 도면이다.
도 7은 도 6에 도시된 동작 평가부에서 이루어지는 동작 평가 과정의 일 예를 세부적으로 나타낸 도면이다.
도 8 및 도 9는 본 발명의 일실시예에 따른 최종 동작 평가 결과의 출력 화면을 나타낸 도면이다.
도 10은 본 발명의 일실시예에 따른 동작 자가 학습 방법을 나타낸 동작흐름도이다.
도 11은 도 10에 도시된 동작 교본 저작 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 12는 도 10에 도시된 동작 자가 학습 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 13은 도 12에 도시된 동작 평가 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 14는 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.
1 is a diagram showing an operation self-learning system according to an embodiment of the present invention.
2 is a block diagram showing an operation textbook authoring apparatus according to an embodiment of the present invention.
3 is a diagram showing in detail an example of the operation textbook authoring apparatus shown in FIG. 2.
4 is a diagram showing a motion script according to an embodiment of the present invention.
5 is a diagram showing an operation self-learning device according to an embodiment of the present invention.
6 is a diagram showing in detail an example of the motion self-learning device shown in FIG. 5.
7 is a diagram showing in detail an example of a motion evaluation process performed by the motion evaluation unit illustrated in FIG. 6.
8 and 9 are diagrams showing an output screen of a final motion evaluation result according to an embodiment of the present invention.
10 is an operation flow diagram showing a method for self-learning motion according to an embodiment of the present invention.
11 is an operation flow diagram showing in detail an example of the operation textbook authoring step shown in FIG.
12 is an operation flow diagram showing in detail an example of the operation self-learning step shown in FIG. 10.
13 is an operation flow diagram showing in detail an example of the operation evaluation step shown in FIG. 12.
14 is a block diagram showing a computer system according to an embodiment of the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will be described in detail with reference to the accompanying drawings as follows. Here, repeated descriptions, well-known functions that may unnecessarily obscure the subject matter of the present invention, and detailed descriptions of configurations are omitted. Embodiments of the present invention are provided to more completely explain the present invention to those with average knowledge in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clearer explanation.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 동작 자가 학습 시스템을 나타낸 도면이다.1 is a diagram showing an operation self-learning system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 동작 자가 학습 시스템은 동작 교본 저작 장치(100)가 동작 전문가의 동작에 기반하여 모션 스크립트를 생성할 수 있다.Referring to FIG. 1, in the motion self-learning system according to an embodiment of the present invention, the motion textbook authoring apparatus 100 may generate a motion script based on the motion of a motion expert.

동작 교본 저작 장치(100)는 3D 카메라, 스마트 폰, 그리고 각종 위치/속도/각도를 측정할 수 있는 동작 모션 획득 장치를 이용하여 전문가 퍼포먼스를 캡처할 수 있다.The motion textbook authoring apparatus 100 may capture an expert performance using a 3D camera, a smart phone, and a motion motion acquisition device capable of measuring various positions/speeds/angles.

이 때, 동작 교본 저작 장치(100)는 동작 모션 획득 장치의 영상 및 센서 데이터를 입력 받아서 전문가의 동작을 기술(description)하고 동작 속성을 할당하여 동작 교본에 해당하는 모션 스크립트를 생성할 수 있다.In this case, the motion textbook authoring apparatus 100 may generate a motion script corresponding to the motion textbook by receiving the image and sensor data of the motion motion acquisition device, describing the motion of the expert and assigning motion properties.

이 때, 동작 교본 저작 장치(100)는 모션 스크립트를 동작 교본 스토어 서버(10)에 업로드 할 수 있다.At this time, the motion textbook authoring apparatus 100 may upload the motion script to the motion textbook store server 10.

동작 학습자는 자신이 학습하고자 하는 모션 스크립트를 특정 동작 전문가로부터 직접 제공 받거나 모션 스크립트를 판매하는 동작 교본 스토어 서버(10)로부터 다운로드 받아서 동작 자가 학습 장치(200)를 이용하여 모범 동작을 학습할 수 있다.The motion learner can learn exemplary motions by using the motion self-learning device 200 by receiving a motion script that they want to learn directly from a specific motion expert or downloading it from the motion textbook store server 10 that sells motion scripts. .

동작 자가 학습 장치(200)는 전문가가 저작한 모션 스크립트의 표본 동작과 학습자의 현재 동작을 비교 분석하여 학습자에게 적절한 진단 및 학습 방법을 제공하고 학습자 스스로가 자세를 지속적으로 교정할 수 있도록 지원할 수 있다.The motion self-learning device 200 may compare and analyze a sample motion of a motion script written by an expert with a learner's current motion to provide an appropriate diagnosis and learning method to the learner, and support the learner to continuously correct the posture. .

또한, 동작 학습자는 자신이 학습하는 과정에서 취한 학습 동작으로 모션 스크립트를 생산할 수 있으며, 이를 스토어 사이트에 출판 할 수도 있다.In addition, motion learners can produce motion scripts from learning actions taken in the course of their learning, and publish them on the store site.

이 때, 동작 학습자가 저작한 모션 스크립트는 전문가의 모범 동작과는 수준 차이가 있을 수 있으나, 학습자보다 수준이 더 낮은 또 다른 학습자에게는 유용한 동작 교본이 될 수 있으며 콘텐츠 제작자들에게는 관심 동작에 대한 선택의 다양성을 제공할 수 있다.At this time, the motion script written by the motion learner may have a level difference from the model motion of the expert, but it can be a useful motion textbook for another learner with a lower level than the learner, and the content creators choose the motion of interest. Can provide a variety of.

또한, 불특정 다수의 전문가(또는 학습자)가 출판한 다양한 모션 스크립트는 동작 교본 스토어 서버(10)에 축적 될 수 있다. 수많은 사람들이 퍼포먼스한 다양한 분야에서의 동작을 기술한 모션 스크립트 집합은 휴먼 동작을 기반으로 하는 콘텐츠 제작에 있어서 훌륭한 데이터가 될 수 있다.In addition, various motion scripts published by an unspecified number of experts (or learners) may be accumulated in the motion textbook store server 10. A set of motion scripts describing motions in various fields performed by a large number of people can be excellent data for creating content based on human motions.

종래에는 콘텐츠 제작자가 휴먼의 동작 데이터를 확보하기 위해서는 직접 제작을 하거나 모션 데이터를 전문으로 다루는 제작자에게 의뢰하는 방법이 있다.Conventionally, in order for content creators to secure human motion data, there is a method of direct production or requesting a producer who specializes in motion data.

그러나, 종래에는 필요 시에 단발적으로 모션 데이터를 제작하기 때문에 제작 비용이 크고 제작 시간이 많이 소요되는 단점이 있었으나, 본 발명에서 제안하는 시스템 프레임워크 상에서의 콘텐츠 제작자는 동작 교본 스토어 서버(10)의 스토어 사이트를 통해 손쉽게 동작 데이터를 확보할 수 있는 장점이 있다However, in the related art, since motion data is produced spontaneously when necessary, there is a disadvantage in that production cost is high and production time is required. However, the content creator on the system framework proposed in the present invention is the operation textbook store server 10 It has the advantage of easily securing motion data through the store site of

도 2는 본 발명의 일실시예에 따른 동작 교본 저작 장치를 나타낸 블록도이다. 도 3은 도 2에 도시된 동작 교본 저작 장치의 일 예를 세부적으로 나타낸 도면이다.2 is a block diagram showing an operation textbook authoring apparatus according to an embodiment of the present invention. 3 is a diagram showing in detail an example of the operation textbook authoring apparatus shown in FIG. 2.

도 2 및 도 3을 참조하면, 본 발명의 일실시예에 따른 동작 교본 저작 장치(100)는 저작부(110), 센서부(120), 모션 스크립트 생성부(130) 및 편집 출판부(140)를 포함한다.2 and 3, the operation textbook authoring apparatus 100 according to an embodiment of the present invention includes an authoring unit 110, a sensor unit 120, a motion script generation unit 130, and an editing publishing unit 140. Includes.

저작부(110)는 사용자의 동작에 상응하는 모션 스크립트에 대한 속성 정보를 생성할 수 있다.The authoring unit 110 may generate attribute information for a motion script corresponding to a user's motion.

즉, 저작부(110)는 동작 전문가가 생성하고자 하는 모션 스크립트에 대한 전반적인 속성을 생성하고 설정하는 저작 유저 인터페이스(UI)에 상응할 수 있다.That is, the authoring unit 110 may correspond to an authoring user interface (UI) for generating and setting overall properties of a motion script that a motion expert wants to generate.

이 때, 저작부(110)는 헤더 정보 설정부(111), 동작 속성 맵핑부(112) 및 부가 정보 설정부(113)을 포함할 수 있다.In this case, the authoring unit 110 may include a header information setting unit 111, an operation attribute mapping unit 112, and an additional information setting unit 113.

이 때, 헤더 정보 설정부(111)는 상기 모션 스크립트에 대한 파일 속성 및 상기 모션 스크립트가 검색되기 위한 태그 정보 중 적어도 하나를 포함하는 모션 스크립트 헤더 정보를 생성할 수 있다.In this case, the header information setting unit 111 may generate motion script header information including at least one of a file property for the motion script and tag information for searching for the motion script.

즉, 헤더 정보 설정부(111)는 저작자, 저작시간, 센서종류, 동작설명 및 동작 카테고리 등의 모션 스크립트 파일의 속성을 기술할 수 있다.That is, the header information setting unit 111 may describe properties of a motion script file such as author, authoring time, sensor type, operation description, and operation category.

동작 속성 맵핑부(112)는 동작 전문가의 동작에 대하여 속성 정보를 부여할 수 있다.The motion attribute mapping unit 112 may assign attribute information to the motion of the motion expert.

즉, 동작 속성 맵핑부(112)는 동작 자체의 속성에 대한 정보를 부여할 수 있다.That is, the motion attribute mapping unit 112 may give information on the attribute of the motion itself.

이 때, 동작 속성 맵핑부(112)는 키 포즈, 키 모션, 키 바디 파트 중요도 등 학습자가 특정 동작을 학습할 때 주안점을 두고 학습하여야 할 사항에 대한 정보를 전문가가 동작을 캡처하기 전에 명시적으로 부여할 수 있다.At this time, the motion attribute mapping unit 112 explicitly provides information on matters to be learned, such as key poses, key motions, and importance of key body parts, that the learner should focus on when learning a specific motion, before the expert captures the motion. Can be given by.

속성 정보는 동작 전문가의 동작 중 중요한 자세들인 키 포즈에 상응하는 키 포즈 설정 정보; 동작 전문가의 동작 중 중요한 동작 구간들인 키 모션에 상응하는 키 모션 설정 정보; 중요한 동작 구간들에서 중요한 동작들의 빠르기 및 강도를 설정하는 키 모션의 속도 및 강도에 상응하는 동작 설정 정보 및 상기 중요한 자세들 및 상기 중요한 동작들 마다 상기 동작 전문가의 신체 부위 별로 중요도를 설정하는 사용자의 키 바디 파트에 상응하는 신체 중요도 설정 정보 중 적어도 하나를 포함할 수 있다.The attribute information includes key pose setting information corresponding to key poses, which are important postures among movements of a motion expert; Key motion setting information corresponding to key motions, which are important motion sections among motion experts' motions; Key motion setting information corresponding to the speed and intensity of the key motion for setting the speed and intensity of important motions in important motion sections, and the user who sets the importance for each body part of the motion expert for the important postures and the important motions It may include at least one of body importance setting information corresponding to the key body part.

부가 정보 설정부(113)는 학습자의 동작 학습에 도움을 줄 수 있는 부가 정보의 제공 여부를 설정할 수 있다.The additional information setting unit 113 may set whether to provide additional information that may help a learner learn movement.

즉, 부가 정보 설정부(113)는 배경 음악 등의 오디오 시퀀스 및 전문가의 설명 음성 등, 학습에 도움을 줄 수 있는 부가 정보를 제공 할 것인지에 대한 여부를 설정할 수 있다.That is, the additional information setting unit 113 may set whether to provide additional information that may help learning, such as an audio sequence such as background music and an expert's explanation voice.

센서부(120)는 저작용 동작 획득 장치를 이용하여 동작 전문가의 동작으로부터 전문가 센서 데이터를 획득할 수 있다.The sensor unit 120 may acquire expert sensor data from the motion of the motion expert using the low-action motion acquisition device.

저작용 동작 획득 장치는 상기 전문가 센서 데이터를 획득할 수 있는 카메라, 스마트폰, 동작 센서, 위치 센서, 가속도 센서, 관성 센서, 멀티 센서 및 키넥트 기기 중 적어도 하나를 포함할 수 있다.The low-action motion acquisition device may include at least one of a camera, a smartphone, a motion sensor, a position sensor, an acceleration sensor, an inertial sensor, a multi-sensor, and a Kinect device capable of obtaining the expert sensor data.

모션 스크립트 생성부(130)는 설정된 속성 정보와 상기 획득한 센서 데이터에 기반하여 모션 스크립트를 생성할 수 있다.The motion script generation unit 130 may generate a motion script based on set attribute information and the acquired sensor data.

즉, 모션 스크립트 생성부(130)는 저작용 동작 획득 장치(저가형 3D 카메라, 스마트폰, 각종 센서류 등)에 의해 획득된 전문가의 퍼포먼스에 대한 센서 데이터 시퀀스와 저작부(110)에서 설정되고 부여된 모션 스크립트의 헤더 및 속성 정보들로부터 모션 스크립트를 생성할 수 있다.That is, the motion script generation unit 130 is a sensor data sequence for the performance of the expert acquired by the operation operation acquisition device (low-priced 3D camera, smartphone, various sensors, etc.) and set and given by the authoring unit 110. A motion script can be generated from the header and property information of the motion script.

모션 스크립트 생성부(130)는 동작 기술자 생성부(131) 및 동작 속성 생성부(132)를 더 포함할 수 있다.The motion script generator 130 may further include a motion descriptor generator 131 and a motion attribute generator 132.

동작 기술자 생성부(131)는 동작 획득 장치의 종류 및 특성을 파악하고, 상기 파악된 동작 획득 장치의 종류 및 특성에 기반하여 상기 획득한 전문가 센서 데이터로부터 동작 기술자 정보를 생성할 수 있다.The motion descriptor generator 131 may determine the type and characteristic of the motion acquisition device, and generate motion descriptor information from the acquired expert sensor data based on the identified type and characteristic of the motion acquisition device.

즉, 동작 기술자 생성부(131)는 전문가의 퍼포먼스 동작을 캡쳐한 전문가 센서 데이터를 입력 받아 모범 동작을 기술할 수 있다.That is, the motion descriptor generation unit 131 may receive expert sensor data capturing the expert's performance motion and describe the exemplary motion.

이 때, 동작 기술자 생성부(131)는 현재 시스템에 연결된 저작용 동작 획득 장치의 종류 및 특성을 파악하고, 장치로부터 추출 가능한 전문가 센서 데이터를 획득할 수 있다.In this case, the motion descriptor generation unit 131 may grasp the type and characteristic of the low-action motion acquisition device currently connected to the system, and obtain expert sensor data extractable from the device.

예를 들어, 키넥트와 같은 3D 카메라가 연결된 경우라면 깊이 영상 시퀀스, 2D 영상 시퀀스, 오디오 시퀀스의 입력이 가능하며, 이에 상응하는 전문가 센서 데이터는 동작 기술자의 구성 요소로 저장될 수 있다.For example, when a 3D camera such as Kinect is connected, it is possible to input a depth image sequence, a 2D image sequence, and an audio sequence, and expert sensor data corresponding thereto may be stored as a component of an operation engineer.

또한, 동작 기술자 생성부(132)는 깊이 영상 시퀀스로부터 바디 파트의 위치를 추출함으로써 추가적인 동작 기술자의 구성 요소를 생성할 수 있다.In addition, the motion descriptor generator 132 may generate an additional motion descriptor component by extracting the position of the body part from the depth image sequence.

동작 속성 생성부(132)는 속성 정보에 기반하여 상기 획득한 전문가 센서 데이터로부터 동작 속성 정보를 생성할 수 있다.The motion attribute generator 132 may generate motion attribute information from the acquired expert sensor data based on the attribute information.

즉, 동작 속성 생성부(132)는 저작부(110)에서 전문가가 부여한 동작 속성을 저장함과 동시에 전문가의 동작으로부터 자동으로 속성을 추출할 수 있다.That is, the motion attribute generator 132 may store the motion attribute assigned by the expert in the authoring unit 110 and automatically extract the attribute from the expert's motion.

앞서 언급한 저작 UI에서 생성 가능한 동작 속성이 전문가의 경험을 통한 지식 기반 속성들인 반면, 동작 속성 생성부(132)가 생성한 속성은 동작의 통계적 분석에 기반한 속성들에 상응할 수 있다,While the motion properties that can be generated in the above-mentioned authoring UI are knowledge-based properties through expert experience, the properties generated by the motion property generator 132 may correspond to properties based on statistical analysis of motion.

예를 들어, 동작 속성 생성부(132)는 전신, 상반신, 하반신, 양팔, 양다리에 대한 위치변이, 속도, 가속도, 각속도 등을 추출할 수 있다.For example, the motion attribute generator 132 may extract a positional shift, velocity, acceleration, angular velocity, and the like for the whole body, upper body, lower body, arms, and both legs.

이 때, 동작 속성 생성부(132)는 추출된 수치화 정보를 기반으로 해당 동작의 전체 또는 단위 동작에 대한 크기, 빠르기, 복잡도, 파워, 유연도 등의 동작 속성 정보를 생산할 수 있다.In this case, the motion attribute generator 132 may generate motion attribute information such as size, speed, complexity, power, and flexibility for the entire or unit motion of the corresponding motion based on the extracted numerical information.

동작 속성 정보는 포즈와 같은 정적 자세와는 다르게 연속된 동작에 대한 동적 품질과 관련된 특징으로서 자가 학습 시에 동작의 섬세한 표현 방법에 대한 교정 정보 제공의 기준이 될 수 있다.Unlike a static posture such as a pose, the motion attribute information is a characteristic related to the dynamic quality of a continuous motion, and may serve as a standard for providing correction information for a delicate expression method of motion during self-learning.

이 때, 모션 스크립트 생성부(130)는 상기 모션 스크립트 헤더 정보, 상기 동작 속성 정보, 상기 동작 기술자 정보 및 상기 부가 정보 중 적어도 하나를 포함하는 모션 스크립트를 생성할 수 있다.In this case, the motion script generation unit 130 may generate a motion script including at least one of the motion script header information, the motion attribute information, the motion descriptor information, and the additional information.

편집 출판부(140)는 생성된 모션 스크립트를 동작 교본 스토어 서버(10)에 배포할 수 있다.The editing publishing unit 140 may distribute the generated motion script to the operation textbook store server 10.

즉, 편집 출판부(140)는 생성된 모션 스크립트를 편집하고 이를 동작교본 스토어 서버(10)에 업로드 할 수 있는 유저 인터페이스로 구성될 수 있다.That is, the editing publishing unit 140 may be configured as a user interface capable of editing the generated motion script and uploading the generated motion script to the operation text store server 10.

이 때, 편지 출판부(140)는 교본 영상편집, 동작 및 속성 세부 교정, 부가 정보 편집, 스토어사이트출판 UI를 포함할 수 있다.In this case, the letter publishing unit 140 may include a textbook image editing, detailed operation and attribute correction, additional information editing, and a store site publishing UI.

이 때, 편집 출판부(140)는 생성된 모션 스크립트에 대하여 교본 영상 편집, 동작 세부 교정, 속성 세부 교정 및 부가 정보 편집 중 적어도 하나를 수행하여 편집된 최종 모션 스크립트를 상기 동작 교본 스토어 서버에 배포할 수 있다.In this case, the editing publishing unit 140 distributes the edited final motion script to the motion text store server by performing at least one of textbook image editing, detailed motion correction, detailed attribute correction, and additional information editing on the generated motion script. I can.

도 4는 본 발명의 일실시예에 따른 모션 스크립트를 나타낸 도면이다.4 is a diagram showing a motion script according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일실시예에 따른 모션 스크립트는 모션 스크립트 헤더, 동작 속성, 동작 기술자 및 부가 정보를 포함한다.Referring to FIG. 4, a motion script according to an embodiment of the present invention includes a motion script header, a motion attribute, a motion descriptor, and additional information.

모션 스크립트 헤더는 모션 스크립트 파일의 전반적인 모션 스크립트 헤더 정보를 포함할 수 있다.The motion script header may include overall motion script header information of the motion script file.

모션 스크립트 헤더 정보는 저작자, 저작시간, 저작에 사용된 센서 종류, 동작에 대한 간단한 설명 및 동작 키워드, 동작이 속하는 카테고리, 동작의 길이 등의 정보를 포함할 수 있다.The motion script header information may include information such as author, authoring time, sensor type used for authoring, a simple description of an action and action keyword, a category to which an action belongs, and length of an action.

이 때, 모션 스크립트 헤더 정보는 학습자가 필요로 하는 모션 스크립트를 효과적으로 검색하기 위한 태그 정보로 활용될 수도 있다.In this case, the motion script header information may be used as tag information for effectively searching for a motion script required by a learner.

동작 속성은 모션 스크립트 파일이 아닌 동작 자체의 속성에 대한 동작 속성 정보를 포함할 수 있다.The motion property may include motion property information about the property of the motion itself, not the motion script file.

동작 속성에는 학습자가 특정 동작을 학습할 때 어떤 부분에 주안점을 두고 학습하여야 하는지에 대한 정보들이 부여된다.In the motion attribute, information on which part the learner focuses on when learning a specific motion is given is given.

예를 들어, 일련의 동작 중에서 가장 중요한 자세가 어디인지를 나타내는 키 포즈 설정, 가장 중요한 동작 구간을 나타내는 키 모션 설정, 특정 포즈를 취함에 있어 각 바디파트의 중요도 설정, 중요 동작의 빠르기 및 강도 설정 등의 동작 속성 정보가 동작 속성에 포함될 수 있다. 이러한 동작 속성은 도 2 및 3에서 설명한 동작 교본 저작 장치(100)에서 전문가가 명시적으로 생성할 수도 있고, 동작 교본 저작 장치(100)에 의해서 자동으로 생성될 수도 있다.For example, setting a key pose indicating where the most important posture is among a series of movements, setting a key motion indicating the most important movement section, setting the importance of each body part in taking a specific pose, setting the speed and intensity of important movements Motion property information such as, etc. may be included in the motion property. These motion properties may be explicitly generated by an expert in the motion textbook authoring apparatus 100 described in FIGS. 2 and 3, or may be automatically generated by the motion textbook authoring apparatus 100.

동작 기술자는 전문가가 취하는 일련의 동작에서 추출한 영상 시퀀스 및 센서 데이터 자체에 상응하는 동작 기술자 정보를 저장하는 부분이다. 모션 스크립트를 다운로드 받은 동작 학습자가 학습을 할 때 동작 기술자 정보가 학습자의 동작에 대한 모범 동작이 될 수 있다.The motion descriptor is a part that stores motion descriptor information corresponding to an image sequence extracted from a series of motions taken by an expert and sensor data itself. When a motion learner who has downloaded a motion script learns, motion descriptor information can be an exemplary motion for the learner's motion.

즉, 동작 기술자 정보는 동작 자가 학습 장치(200)를 통해서 동작 학습자의 동작에 대한 피드백 및 교정 정보를 제공하는 기준 동작이 될 수 있다.That is, the motion descriptor information may be a reference motion for providing feedback and correction information on the motion learner's motion through the motion self-learning device 200.

예를 들어, 전문가가 모션 스크립트를 생성하기 위해 사용한 센서의 종류가 무엇이며, 그 센서가 제공할 수 있는 정보가 어떤 것이냐에 따라 구성되는 동작 기술자 정보의 요소도 다르다.For example, the elements of motion descriptor information are different depending on what kind of sensor the expert used to create a motion script and what information the sensor can provide.

스마트 폰으로 모션 스크립트를 저작한 경우에는 2D 영상 시퀀스 또는 손 동작에 대한 속도/가속도 정보 등이 저장 될 수 있다. 키넥트와 같은 저가형 3D 카메라를 통해서 저작한 경우에는 스마트 폰 보다는 더 다양하고 구체적인 정보가 획득될 수 있으며, 구체적인 정보는 각 관절의 위치 정보로 구성되는 골격 데이터, 3D 깊이 영상 시퀀스, 2D 영상 시퀀스 등에 상응할 수 있다.When a motion script is authored with a smart phone, speed/acceleration information about a 2D video sequence or hand motion can be stored. In the case of authoring through a low-cost 3D camera such as Kinect, more diverse and specific information can be obtained than a smartphone, and the specific information is skeleton data composed of position information of each joint, 3D depth image sequence, 2D image sequence, etc. May correspond.

전문가가 더욱 더 정교하고 구체적인 동작 정보를 제공하고 싶다면 위치, 가속도, IMU(관성) 센서 등을 원하는 바디파트에 부착하여 사용할 수 있다.If an expert wants to provide more precise and detailed motion information, position, acceleration, and IMU (inertial) sensors can be attached to the desired body part and used.

이 때, 획득되는 전문가 센서 데이터들로 동작 기술자 정보가 생성 될 수 있다. 이와 같이 전문가는 동작을 감지할 수 있는 다양한 센서들을 서로 결합한 저작용 동작 획득 장치를 이용하여 동작을 기술할 수 있으며, 동작 기술자 정보를 구성하는 데이터의 종류가 다양할 수록 모션 스크립트의 품질은 높아진다.At this time, operation technician information may be generated from acquired expert sensor data. In this way, an expert can describe a motion using a low-action motion acquisition device that combines various sensors capable of detecting motion, and the quality of a motion script increases as the types of data constituting motion descriptor information increase.

부가 정보는 학습자가 자가 학습을 잘 할 수 있도록 도움을 주는 정보들이다. 저작자는 학습 집중력을 높일 수 있는 배경 음악 등의 오디오 시퀀스, 동작을 구체적으로 지도하는 전문가의 설명 내레이션, 2D 비디오와 함께 재생될 수 있는 동작 설명 자막 등을 추가적으로 제공할 수 있다.Additional information is information that helps learners to self-learn well. The author may additionally provide an audio sequence such as background music that can increase learning concentration, an explanation narration of an expert who specifically guides the operation, and a motion description subtitle that can be played along with the 2D video.

도 5는 본 발명의 일실시예에 따른 동작 자가 학습 장치를 나타낸 도면이다. 도 6은 도 5에 도시된 동작 자가 학습 장치의 일 예를 세부적으로 나타낸 도면이다.5 is a diagram showing an operation self-learning device according to an embodiment of the present invention. 6 is a diagram showing in detail an example of the motion self-learning device shown in FIG. 5.

도 5 및 도 6을 참조하면, 본 발명의 일실시예에 따른 동작 자가 학습 장치(200)는 학습부(210), 센서부(220), 동작 평가부(230) 및 출력부(240)을 포함한다.5 and 6, the motion self-learning device 200 according to an embodiment of the present invention includes a learning unit 210, a sensor unit 220, a motion evaluation unit 230, and an output unit 240. Include.

학습부(210)는 모션 스크립트의 전문가 동작을 출력하여 사용자에게 상기 전문가 동작을 학습시킬 수 있다.The learning unit 210 may output an expert motion of a motion script to allow the user to learn the expert motion.

이 때, 학습부(210)는 학습자가 취득한 모션 스크립트를 직접 입력 받거나 동작 교본 스토어 서버(10)로부터 모션 스크립트를 다운로드 받을 수 있다.In this case, the learning unit 210 may directly receive the motion script acquired by the learner or download the motion script from the motion textbook store server 10.

이 때, 학습부(210)는 디스플레이 장치 등을 이용하거나 동작 자가 학습 장치(200)가 디스플레이 장치 등과 연결되어 모션 스크립트의 전문가 동작을 출력할 수 있다.In this case, the learning unit 210 may use a display device or the like or the operation self-learning device 200 may be connected to a display device or the like to output an expert motion of a motion script.

이 때, 동작 학습자는 디스플레이 장치로부터 출력되는 전문가 동작을 따라 하는 것으로 전문가 동작을 학습할 수 있다.In this case, the motion learner may learn the expert motion by following the expert motion output from the display device.

이 때, 학습부(210)는 학습을 수행하기 이전에 동작 학습자가 학습하고자 하는 동작에 따라 동작 학습자가 모션 스크립트를 설정할 수 있다.In this case, the learning unit 210 may set the motion script according to the motion that the motion learner wants to learn before performing the learning.

이 때, 학습부(210)는 전문가 모션 스크립트 설정부(211), 학습 환경 설정부(212) 및 학습자 모션 스크립트 설정부(213)을 포함할 수 있다.In this case, the learning unit 210 may include an expert motion script setting unit 211, a learning environment setting unit 212, and a learner motion script setting unit 213.

전문가 모션 스크립트 설정부(211)는 상기 모션 스크립트에 포함된 동작 속성 정보에서 상기 동작 학습자가 학습하고자 하는 동작에 대한 필요한 속성들을 선택하여 학습 속성 정보를 설정할 수 있다.The expert motion script setting unit 211 may set learning attribute information by selecting required attributes for a motion that the motion learner wants to learn from motion attribute information included in the motion script.

학습 환경 설정부(212)는 동작 학습자가 상기 학습하고자 하는 동작에 대한 학습 환경 정보를 설정할 수 있다.The learning environment setting unit 212 may set learning environment information for the motion that the motion learner wants to learn.

학습자 모션 스크립트 설정부(213)는 동작 학습자의 동작을 학습자 모션 스크립트로 생성하기 위하여 학습자 모션 스크립트의 헤더 및 속성을 설정할 수 있다.The learner motion script setting unit 213 may set a header and properties of a learner motion script in order to generate a motion learner's motion as a learner motion script.

센서부(220)는 학습용 동작 획득 장치를 이용하여 상기 동작 학습자의 동작으로부터 학습자 센서 데이터를 획득할 수 있다.The sensor unit 220 may acquire learner sensor data from the motion learner's motion using the learning motion acquisition device.

학습용 동작 획득 장치는 상기 동작 학습자의 동작으로부터 상기 학습자 센서 데이터를 획득하기 위한 카메라, 스마트폰, 동작 센서, 위치 센서, 가속도 센서, 관성 센서, 멀티 센서 및 키넥트 기기 중 적어도 하나를 포함할 수 있다.The learning motion acquisition device may include at least one of a camera, a smartphone, a motion sensor, a position sensor, an acceleration sensor, an inertial sensor, a multi-sensor, and a Kinect device for acquiring the learner sensor data from the motion learner's motion. .

동작 평가부(230)는 설정된 모션 스크립트에 기반하여 상기 획득한 학습자 센서 데이터를 평가하여 최종 동작 평가 정보를 생성할 수 있다.The motion evaluation unit 230 may generate final motion evaluation information by evaluating the acquired learner sensor data based on a set motion script.

즉, 동작 평가부(230)는 학습용 동작 획득 장치(저가형 3D 카메라, 스마트폰, 각종 센서류)에 의해 획득된 동작 학습자의 퍼포먼스와 전문가 모션 스크립트에서 기술된 동작을 비교 및 분석하여 사용자에게 적절한 평가 정보를 제공할 수 있다.That is, the motion evaluation unit 230 compares and analyzes the motion learner's performance acquired by the learning motion acquisition device (low-priced 3D camera, smartphone, various sensors) and the motion described in the expert motion script, and evaluates appropriate evaluation information for the user. Can provide.

이 때, 동작 평가부(230)는 모션 스크립트 내에 있는 전문가의 동작 기술자 및 동작 속성과 현재 학습자의 일련의 동작 시퀀스에서 획득한 동작 기술자 및 동작 속성을 비교/분석하여 그 평가 결과를 제공할 수 있다. 동작 비교 시에는 동일한 장치로부터 획득된 센서 데이터에서 추출된 동작 기술자와 속성끼리 비교하여 결과를 산출할 수 있다. 상이한 장치로부터 획득된 센서 데이터간의 비교도 가능하지만, 동작 기술자 및 동작 속성이 다르므로 평가 결과의 신뢰도가 낮아질 수 있다.At this time, the motion evaluation unit 230 may compare/analyze the motion descriptor and motion attribute of the expert in the motion script with the motion descriptor and motion attribute acquired from a series of motion sequences of the current learner, and provide the evaluation result. . When comparing motions, a result can be calculated by comparing motion descriptors and attributes extracted from sensor data acquired from the same device. Although it is possible to compare sensor data obtained from different devices, the reliability of the evaluation result may be lowered because the operation descriptor and operation attribute are different.

이 때, 동작 평가부(230)는 동작 분석부(231) 및 동작 평가 산출부(232)를 포함할 수 있다.In this case, the motion evaluation unit 230 may include a motion analysis unit 231 and a motion evaluation calculation unit 232.

동작 분석부(231)는 모션 스크립트와 상기 학습용 센서 데이터에 기반하여 획득한 상기 동작 학습자의 자세 정확성 정보 및 동적 표현력 정보를 생성할 수 있다.The motion analysis unit 231 may generate posture accuracy information and dynamic expression power information of the motion learner obtained based on the motion script and the learning sensor data.

즉, 동작 분석부(231)는 모션 스크립트내의 전문가의 동작과 현재 동작을 취하고 있는 학습자의 동작을 서로 비교/분석 할 수 있다.That is, the motion analysis unit 231 may compare/analyze the motion of the expert in the motion script and the motion of the learner who is currently taking the motion.

이 때, 동작 분석부(231)는 동작기술자 간의 비교를 통해 자세의 정확성 값을 산출하고, 동작 속성 간의 비교를 통하여 동적 표현력 분석 결과를 산출할 수 있다.In this case, the motion analysis unit 231 may calculate a posture accuracy value through comparison between motion technicians, and calculate a dynamic expression power analysis result through comparison between motion attributes.

동작 분석부(231)는 먼저 모션 스크립트 생성에 사용된 저작용 동작 획득 장치와 동일한 종류의 학습용 동작 획득 장치를 이용하여 획득한 학습자 센서 데이터로부터 생성된 동작 기술자 정보 및 동작 속성 정보를 비교/분석할 수 있다.The motion analysis unit 231 first compares/analyzes motion descriptor information and motion attribute information generated from learner sensor data acquired using the same type of learning motion acquisition device as the low-action motion acquisition device used to generate the motion script. I can.

이 때, 동작 분석부(231)는 상기 모션 스크립트와 상기 획득한 학습자 센서 데이터의 상기 동작 기술자 정보 및 상기 동작 속성 정보를 분석한 결과 마다 상기 동작 학습자의 자세들의 유사도를 분석한 자세 정확성 값들을 포함하는 자세 정확성 정보를 생성할 수 있다.At this time, the motion analysis unit 231 includes posture accuracy values obtained by analyzing the similarity of postures of the motion learner for each result of analyzing the motion descriptor information and the motion attribute information of the motion script and the acquired learner sensor data. Can generate posture accuracy information.

이 때, 동작 평가 산출부(232)는 상기 자세 정확성 정보 및 상기 동적 표현력 정보에 기반하여 최종 동작 평가 정보를 생성할 수 있다.In this case, the motion evaluation calculation unit 232 may generate final motion evaluation information based on the posture accuracy information and the dynamic expression power information.

이 때, 동작 평가 산출부(232)는 학습용 동작 획득 장치의 개수, 종류 및 특성 중 적어도 하나에 기반하여 상기 자세 정확성 값들 각각과 상기 동적 표현력 값들 각각에 대한 가중치를 결정할 수 있다.In this case, the motion evaluation calculator 232 may determine a weight for each of the posture accuracy values and each of the dynamic expression power values based on at least one of the number, type, and characteristic of the learning motion acquisition device.

이 때, 동작 평가 산출부(232)는 동작 학습자의 동작들 각각에 대하여 상기 가중치가 결정된 자세 정확성 값들과 상기 동적 표현력 값들 사이의 합산 비중을 결정할 수 있다.In this case, the motion evaluation calculator 232 may determine a sum weight between the posture accuracy values for which the weight is determined and the dynamic expressive power values for each motion learner's motion.

이 때, 동작 평가 산출부(232)는 상기 동작 학습자의 동작들마다 각각 결정된 합산 비중에 기반하여 상기 자세 정확성 값들과 상기 동적 표현력 값들을 합산하여 산출된 최종 동작 평가 값들을 포함하는 최종 동작 평가 정보를 생성할 수 있다.At this time, the motion evaluation calculation unit 232 is the final motion evaluation information including final motion evaluation values calculated by summing the posture accuracy values and the dynamic expressive power values based on the sum determined for each motion of the motion learner. Can be created.

이 때, 동작 평가 산출부(232)는 상기 동작 학습자의 학습 능력 설정 값에 비례하여 상기 동적 표현력 값들의 합산 비중을 높게 설정하고, 상기 자세 정확성 값을 낮게 설정할 수 있다.In this case, the motion evaluation calculation unit 232 may set the sum of the dynamic expression power values high in proportion to the learning ability setting value of the motion learner and set the posture accuracy value low.

예를 들어, 동작 평가 산출부(232)는 상기 동작 학습자의 학습 능력 설정 값이 낮게 설정되어 초급자에 상응하는 경우, 상기 자세 정확성 값들에 대한 합산 비중을 높게 설정하고, 상기 동적 표현력 값들에 대한 합산 비중을 높게 설정할 수 있다.For example, when the motion evaluation calculation unit 232 sets the learning ability setting value of the motion learner to be low and corresponds to the beginner, it sets the summation weight of the posture accuracy values high, and sums the dynamic expression power values. The specific gravity can be set high.

또한, 동작 평가 산출부(232)는 상기 동작 학습자의 학습 능력 설정값이 높게 설정되어 숙련자에 상응하는 경우, 상기 동적 표현력 값들에 대한 합산 비중을 높게 설정하고, 상기 자세 정확성 값들에 대한 합산 비중을 낮게 설정할 수 있다.In addition, the motion evaluation calculation unit 232 sets the sum of the dynamic expressive power values high, and the sum weight of the posture accuracy values when the motion learner's learning ability set value is set high and corresponds to the skilled person. Can be set lower.

출력부(240)는 상기 최종 동작 평가 정보와 상기 동작 학습자의 동작을 교정하기 위한 동작 교정 정보를 출력할 수 있다.The output unit 240 may output the final motion evaluation information and motion correction information for correcting the motion learner's motion.

즉, 출력부(240)는 상기 최종 평가 결과 정보를 입력 받아 실시간으로 동작을 교정하고, 학습자의 종합적인 평가 결과와 각 세부항목에 대한 상세 평가를 제공할 수 있다.That is, the output unit 240 may receive the final evaluation result information, correct the operation in real time, and provide a comprehensive evaluation result of the learner and detailed evaluation for each detailed item.

이 때, 출력부(240)는 학습 이력 관리를 통해 학습자가 학습 결과를 바탕으로 본인의 동작으로 지속적으로 교정할 수 있도록 지원할 수 있다.In this case, the output unit 240 may support the learner to continuously correct his/her own motion based on the learning result through the learning history management.

이 때, 출력부(240)는 상기 최종 동작 평가 정보에 기반하여 평가 요소 별 점수 및 상기 동작 학습자의 신체 부위 별 동작 정확도를 평가한 학습 평가 정보를 더 출력할 수 있다.In this case, the output unit 240 may further output learning evaluation information obtained by evaluating a score for each evaluation element and a motion accuracy for each body part of the motion learner based on the final motion evaluation information.

이 때, 출력부(240)는 상기 사용자가 학습한 전문가 동작의 상기 평가 요소 별 점수 추이를 포함하는 상세 평가 정보를 더 출력할 수 있다.In this case, the output unit 240 may further output detailed evaluation information including a score trend for each evaluation element of the expert action learned by the user.

또한, 출력부(240)는 학습자의 모션 스크립트를 출판할 수 있는 UI를 포함할 수 있다.In addition, the output unit 240 may include a UI capable of publishing a learner's motion script.

즉, 출력부(240)는 상기 최종 평가 결과 정보와 상기 교정 정보에 기반하여 상기 학습자 모션 스크립트를 편집하여 상기 동작 교본 스토어 서버에 배포할 수 있다.That is, the output unit 240 may edit the learner's motion script based on the final evaluation result information and the correction information and distribute it to the operation textbook store server.

도 7은 도 6에 도시된 동작 평가부에서 이루어지는 동작 평가 과정의 일 예를 세부적으로 나타낸 도면이다.7 is a diagram showing in detail an example of a motion evaluation process performed by the motion evaluation unit illustrated in FIG. 6.

앞서 언급한 바와 같이 전문가의 동작을 캡쳐할 수 있는 저작용 동작 획득 장치는 카메라와 스마트 폰과 같은 다양한 디바이스와 각종 센서들이 있다. 동작 전문가는 적절한 저작용 동작 획득 장치를 선택해서 자신의 퍼포먼스를 캡처할 수 있고, 이 때 획득된 각종 전문가 센서 데이터는 모션 스크립트 내에 저장된다. 동작 학습자도 동작 전문가와 마찬가지로 다양한 종류의 학습용 동작 획득 장치를 선택하여 동작을 학습할 수 있다. 예를 들어, 학습하고자 하는 모션 스크립트가 3D 카메라와 스마트 폰으로 캡쳐된 전문가 동작을 포함하고 있다면, 학습자는 3D 카메라와 스마트 폰 중 하나를 동작 획득 장치로 선택하여 자신의 동작을 캡쳐할 수 있고, 동시에 두 개의 장치를 모두 사용할 수도 있다. 즉 모션 스크립트를 저작 할 때 사용된 저작용 동작 획득 장치와 동일한 장치 일부 또는 모두를 사용하여 학습자의 동작을 획득하여 자가 학습을 수행할 수 있다.As mentioned above, there are various devices such as cameras and smart phones, as well as various sensors as low-action motion acquisition devices capable of capturing the motions of experts. The motion expert can select an appropriate low-action motion acquisition device to capture their performance, and various expert sensor data obtained at this time are stored in the motion script. Like a motion expert, a motion learner can learn a motion by selecting various kinds of motion acquisition devices for learning. For example, if the motion script to be learned includes expert motions captured with a 3D camera and a smart phone, the learner can capture one's motion by selecting one of the 3D camera and a smartphone as a motion acquisition device, It is also possible to use both devices at the same time. That is, self-learning can be performed by acquiring the learner's actions by using some or all of the same apparatus as the apparatus for acquiring an actionable action used when creating a motion script.

동작 평가 과정에서는 모션 스크립트 내에 있는 전문가의 동작 기술자 및 동작 속성과 현재 학습자의 일련의 동작 시퀀스에서 획득한 동작 기술자 및 동작 속성을 비교/분석하여 그 평가 결과를 제공할 수 있다. 동작 비교 시에는 동일한 장치로부터 획득된 센서 데이터에서 추출된 동작 기술자와 속성끼리 비교하여 결과를 산출할 수 있다. 상이한 장치로부터 획득된 센서 데이터간의 비교도 가능하지만, 동작 기술자 및 동작 속성이 다르므로 평가 결과의 신뢰도가 낮아질 수 있다.In the motion evaluation process, an evaluation result may be provided by comparing/analyzing the motion descriptor and motion attribute of an expert in the motion script with the motion descriptor and motion attribute acquired from a series of motion sequences of the current learner. When comparing motions, a result can be calculated by comparing motion descriptors and attributes extracted from sensor data acquired from the same device. Although it is possible to compare sensor data obtained from different devices, the reliability of the evaluation result may be lowered because the operation descriptor and operation attribute are different.

동작 기술자 및 속성 비교/분석 결과는 크게 자세 정확성과 동적 표현력으로 구분될 수 있다.Motion descriptors and attribute comparison/analysis results can be largely divided into posture accuracy and dynamic expression.

동작은 연속된 자세(포즈)들의 집합으로 구성되며 자세 정확성은 특정 시점(또는 구간)에서의 학습자의 정적 자세가 전문가의 자세와 얼마나 유사한지에 대한 대한 분석 결과에 상응할 수 있다. 반면에 동적 표현력은 자세와는 다르게 학습자의 동작의 크기, 속도, 파워, 유연도 등 연속된 동작의 질이 전문가 동작과 얼마나 유사한지에 대한 분석 결과에 상응할 수 있다. 이는 동작의 품질에 관련된 분석 결과로서 동작의 표현 방법이 적절한지에 대한 평가 정보를 제공한다.The motion is composed of a set of consecutive postures (poses), and posture accuracy may correspond to an analysis result of how similar a learner's static posture at a specific time point (or section) is to that of an expert. On the other hand, dynamic expressiveness, unlike posture, may correspond to the analysis result of how similar the quality of continuous movements such as size, speed, power, and flexibility of learners' movements to expert movements. This is an analysis result related to the quality of the motion and provides evaluation information on whether the motion expression method is appropriate.

본 발명에서는 각 센서 데이터 별로 두 자세/동작간의 유사도를 분석할 수 있는 다양한 기존 기술들을 적용할 수 있다.In the present invention, various conventional techniques that can analyze the similarity between two postures/motions for each sensor data can be applied.

예를 들어, 본 발명의 유사도 분석 방법은 3D 카메라에서 추출한 바디파트 위치 데이터를 이용하여 두 자세/동작간의 유사도를 분석하는 방법, 각 관절의 상대적인 위치 및 각도를 측정하여 전체 자세의 유사도를 산출하는 방법 및 깊이 영상 및 2D 영상의 경우에는 전체 바디의 실루엣 템플릿 매칭 및 형태 비교를 통해 유사도를 측정 하는 방법 등을 이용할 수 있다.For example, the similarity analysis method of the present invention is a method of analyzing the similarity between two postures/motions using body part position data extracted from a 3D camera, and calculating the similarity of the entire posture by measuring the relative position and angle of each joint. In the case of a method and a depth image and a 2D image, a method of measuring similarity through matching and shape comparison of the silhouette template of the entire body may be used.

즉, 본 발명의 유사도 분석 방법은 기존에 존재하는 모든 유사도 분석 방법을 본 발명에 적용이 가능하다.That is, the similarity analysis method of the present invention can apply all existing similarity analysis methods to the present invention.

입력 센서 데이터의 종류별로 동작 기술자 와 동작 속성을 비교/분석한 결과인 자세 정확성 정보와 동적 표현력 정보는 최종 동작 평가 결과로 산출할 수 있다.Posture accuracy information and dynamic expressiveness information, which are the results of comparing/analyzing motion descriptors and motion properties for each type of input sensor data, can be calculated as the final motion evaluation result.

이 때, 최종 동작 평가 결과는 수학식 1과 같이 산출될 수 있다.In this case, the final motion evaluation result may be calculated as in Equation 1.

[수학식 1][Equation 1]

Figure 112016104089913-pat00001
Figure 112016104089913-pat00001

수학식 1에서 n 은 매칭된 센서 데이터의 개수이며 i 는 매칭된 센서 데이터의 인덱스(종류)에 상응할 수 있다. Pi 는 i 번째 센서 데이터에서 추출된 동작기술자간의 비교로 획득된 자세 정확성 분석 결과치를 나타낸다. Wi 는 정확성 분석 결과치에 대한 가중치이다. 동작 획득 장치에서 캡쳐된 센서 데이터가 제공하는 정보가 정밀하고 많을수록 자세 정확성 분석에 있어 더 믿을만한 결과를 산출할 가능성이 크므로 자세 정확성 분석 결과에 대한 가중치를 높게 부여할 수 있다. Ej 는 j 번째 센서 데이터에서 추출된 동작 속성간의 비교로 획득된 동적 표현력 분석 결과치를 나타낸다. Wj 는 동적 표현력 결과치에 대한 가중치이다. 즉, Wj는 동작 획득 장치의 특성에 따라 제공하는 동적 정보에 있어 품질의 차이를 반영하기 위한 가중치이다. In Equation 1, n is the number of matched sensor data and i may correspond to the index (type) of the matched sensor data. Pi represents the posture accuracy analysis result obtained by comparison between motion technicians extracted from the i-th sensor data. Wi is a weight for the accuracy analysis result. The more precise and more information provided by the sensor data captured by the motion acquisition device is, the greater the possibility of producing a more reliable result in the posture accuracy analysis, so a higher weight can be given to the posture accuracy analysis result. Ej represents the dynamic expressiveness analysis result obtained by comparing the motion attributes extracted from the j-th sensor data. Wj is the weight for the dynamic expressiveness result. That is, Wj is a weight for reflecting the difference in quality in dynamic information provided according to the characteristics of the motion acquisition device.

최종적으로 학습자의 동작이 모션 스크립트 내에 기술된 전문가의 동작과 얼마나 유사한지에 대한 최종 동작 평가 결과는 자세 정확성과 동적 표현력의 합으로 표현될 수 있다. 최종 결과 값에서 자세 정확성과 동적 표현력의 비중은 α로 조정할 수 있다. 학습 대상 동작이 표현력 보다는 자세의 정확성이 중요한 동작이라면 α값을 높게 설정하여 최종 결과 값에서의 자세 정확성 분석 결과치의 비중을 높일 수 있다. 반면에 표현력을 중요시하는 춤과 같은 예술 동작에 대해서는 α값을 낮게 설정하여 동적 표현력의 비중을 높일 수 있다. 또 다른 예로 초심자(beginner)일 경우 표현력보다는 정확성이 중요한 경우가 대부분이므로 이러한 경우에는 α값을 높게 설정하고, 전문가 수준의 경지에 거의 도달하여 자세에는 문제가 없는 상급자의 경우에는 표현력의 비중을 더 높게 설정할 수 있다.Finally, the final motion evaluation result of how similar the learner's motion is to the expert's motion described in the motion script can be expressed as the sum of posture accuracy and dynamic expression. In the final result, the weight of posture accuracy and dynamic expression can be adjusted with α. If the movement to be learned is a movement whose posture accuracy is more important than expressiveness, the value of the posture accuracy analysis result in the final result value can be increased by setting the α value higher. On the other hand, for artistic movements, such as dance, where expressive power is important, the proportion of dynamic expression can be increased by setting the α value low. As another example, since accuracy is more important than expressiveness in most cases for beginners, in this case, set the α value higher, and in the case of advanced people who have almost reached the level of expert level and have no problems with posture, the proportion of expressiveness is more. Can be set high.

도 8 및 도 9는 본 발명의 일실시예에 따른 최종 동작 평가 결과의 출력 화면을 나타낸 도면이다.8 and 9 are diagrams showing an output screen of a final motion evaluation result according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일실시예에 따른 최종 동작 평가 결과의 출력 화면은 자세, 타이밍, 파워 표현력, 동선 등의 속성 별로 점수가 평가된 것을 알 수 있다. 이 때, 각 속성별 점수에 대한 총점과 함께 동작 학습을 수행하면서 소요한 칼로리 및 시간을 출력할 수도 있다.Referring to FIG. 8, in the output screen of the final motion evaluation result according to an embodiment of the present invention, it can be seen that scores are evaluated for each attribute such as posture, timing, power expression, and movement. At this time, it is also possible to output the total score for each attribute score, as well as the calories and time consumed while performing motion learning.

속성별 점수는 막대 그래프 및 방사형 그래프뿐만 아니라 다양한 그래프 형태로도 출력할 수 있다.Scores for each attribute can be displayed in various graphs as well as bar graphs and radial graphs.

또한, 신체부위별 자세학습 동작 정확도를 출력하여, 동작 학습자에게 교정 정보를 제공할 수도 있다.In addition, by outputting the accuracy of the posture learning motion for each body part, correction information may be provided to the motion learner.

도 9를 참조하면, 동작 학습이 진행된 시간 동안 동작 속성 별로 점수 추이 그래프를 꺾은선 그래프로 출력할 수도 있다. 또한, 촬영한 데이터 영상을 출력하여 전문가의 모범 동작과 학습자가 취했던 동작을 출력할 수 도 있다.Referring to FIG. 9, a score trend graph for each motion attribute during a motion learning time period may be output as a line graph. In addition, it is also possible to output the captured data image to output the model action of the expert and the action taken by the learner.

도 10은 본 발명의 일실시예에 따른 동작 자가 학습 방법을 나타낸 동작흐름도이다.10 is an operation flow diagram showing a method for self-learning motion according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 일실시예에 따른 동작 자가 학습 방법은 먼저 동작 교본을 저작한다(S310).Referring to FIG. 10, in the method of self-learning motions according to an embodiment of the present invention, first, a motion textbook is written (S310).

즉, 단계(S310)는 동작 교본 저작 장치(100)가 동작 전문가의 동작에 기반하여 모션 스크립트를 생성할 수 있다.That is, in step S310, the motion textbook authoring apparatus 100 may generate a motion script based on the motion of the motion expert.

이 때, 단계(S310)는 먼저 모션 스크립트의 속성 정보를 생성할 수 있다(S311).In this case, in step S310, first, attribute information of the motion script may be generated (S311).

즉, 단계(S311)는 동작 전문가가 생성하고자 하는 모션 스크립트에 대한 전반적인 속성을 설정하여 속성 정보를 생성할 수 있다.That is, in step S311, the motion expert may generate property information by setting the overall properties of the motion script to be generated.

이 때, 단계(S311)는 모션 스크립트에 대한 파일 속성 및 상기 모션 스크립트가 검색되기 위한 태그 정보 중 적어도 하나를 포함하는 모션 스크립트 헤더 정보를 생성할 수 있다.In this case, in step S311, motion script header information including at least one of a file property for a motion script and tag information for searching for the motion script may be generated.

이 때, 단계(S311)는 저작자, 저작시간, 센서종류, 동작설명 및 동작 카테고리 등의 모션 스크립트 파일의 속성을 기술할 수 있다.At this time, step S311 may describe properties of the motion script file such as author, authoring time, sensor type, operation description, and operation category.

또한, 단계(S311)는 동작 전문가의 동작에 대하여 속성 정보를 부여할 수 있다.In addition, in step S311, attribute information may be assigned to the motion of the motion expert.

이 때, 단계(S311)는 동작 자체의 속성에 대한 정보를 부여할 수 있다.In this case, in step S311, information on the properties of the operation itself may be provided.

이 때, 단계(S311)는 키 포즈, 키 모션, 키 바디파트 중요도 등 학습자가 특정 동작을 학습할 때 주안점을 두고 학습하여야 할 사항에 대한 정보를 전문가가 동작을 캡처하기 전에 명시적으로 부여할 수 있다.At this time, in step S311, information on matters to be learned, such as key pose, key motion, key body part importance, etc., that the learner should focus on when learning a specific movement is explicitly given before the expert captures the movement. I can.

속성 정보는 동작 전문가의 동작 중 중요한 자세들인 키 포즈에 상응하는 키 포즈 설정 정보; 동작 전문가의 동작 중 중요한 동작 구간들인 키 모션에 상응하는 키 모션 설정 정보; 중요한 동작 구간들에서 중요한 동작들의 빠르기 및 강도를 설정하는 키 모션의 속도 및 강도에 상응하는 동작 설정 정보 및 상기 중요한 자세들 및 상기 중요한 동작들 마다 상기 동작 전문가의 신체 부위 별로 중요도를 설정하는 사용자의 키 바디 파트에 상응하는 신체 중요도 설정 정보 중 적어도 하나를 포함할 수 있다.The attribute information includes key pose setting information corresponding to key poses, which are important postures among movements of a motion expert; Key motion setting information corresponding to key motions, which are important motion sections among motion experts' motions; Key motion setting information corresponding to the speed and intensity of the key motion for setting the speed and intensity of important motions in important motion sections, and the user who sets the importance for each body part of the motion expert for the important postures and the important motions It may include at least one of body importance setting information corresponding to the key body part.

또한, 단계(S311)는 학습자의 동작 학습에 도움을 줄 수 있는 부가 정보의 제공 여부를 설정할 수 있다.In addition, in step S311, it is possible to set whether to provide additional information that may help the learner to learn movements.

이 때, 단계(S311)는 배경 음악 등의 오디오 시퀀스 및 전문가의 설명 음성 등, 학습에 도움을 줄 수 있는 부가 정보를 제공 할 것인지에 대한 여부를 설정할 수 있다.In this case, in step S311, it is possible to set whether to provide additional information that can help learning, such as an audio sequence such as background music and an expert's explanation voice.

또한, 단계(S310)는 전문가 센서 데이터를 수집할 수 있다(S312).In addition, in step S310, expert sensor data may be collected (S312).

즉, 단계(S312)는 저작용 동작 획득 장치를 이용하여 동작 전문가의 동작으로부터 전문가 센서 데이터를 획득할 수 있다.That is, in step S312, expert sensor data may be obtained from the motion of the motion expert using the low-action motion acquisition device.

저작용 동작 획득 장치는 상기 전문가 센서 데이터를 획득할 수 있는 카메라, 스마트폰, 동작 센서, 위치 센서, 가속도 센서, 관성 센서, 멀티 센서 및 키넥트 기기 중 적어도 하나를 포함할 수 있다.The low-action motion acquisition device may include at least one of a camera, a smartphone, a motion sensor, a position sensor, an acceleration sensor, an inertial sensor, a multi-sensor, and a Kinect device capable of obtaining the expert sensor data.

또한, 단계(S310)는 모션 스크립트를 생성할 수 있다(S313).In addition, in step S310, a motion script may be generated (S313).

즉, 단계(S313)는 설정된 속성 정보와 상기 획득한 센서 데이터에 기반하여 모션 스크립트를 생성할 수 있다.That is, in step S313, a motion script may be generated based on the set attribute information and the acquired sensor data.

이 때, 단계(S313)는 저작용 동작 획득 장치(저가형 3D 카메라, 스마트폰, 각종 센서류 등)에 의해 획득된 전문가의 퍼포먼스에 대한 센서 데이터 시퀀스와 저작부(110)에서 설정되고 부여된 모션 스크립트의 헤더 및 속성 정보들로부터 모션 스크립트를 생성할 수 있다.At this time, step (S313) is a sensor data sequence for the expert's performance acquired by the low-action motion acquisition device (low-priced 3D camera, smartphone, various sensors, etc.) and a motion script set and given by the authoring unit 110 It is possible to generate a motion script from the header and attribute information of.

이 때, 단계(S313)는 동작 획득 장치의 종류 및 특성을 파악하고, 상기 파악된 동작 획득 장치의 종류 및 특성에 기반하여 상기 획득한 전문가 센서 데이터로부터 동작 기술자 정보를 생성할 수 있다.In this case, in step S313, the type and characteristic of the motion acquisition device may be identified, and motion descriptor information may be generated from the acquired expert sensor data based on the identified type and characteristic of the motion acquisition device.

이 때, 단계(S313)는 전문가의 퍼포먼스 동작을 캡쳐한 전문가 센서 데이터를 입력 받아 모범 동작을 기술할 수 있다.In this case, in step S313, an exemplary operation may be described by receiving expert sensor data capturing the expert's performance motion.

이 때, 단계(S313)는 현재 시스템에 연결된 저작용 동작 획득 장치의 종류 및 특성을 파악하고, 장치로부터 추출 가능한 전문가 센서 데이터를 획득할 수 있다.In this case, in step S313, the type and characteristic of the low-action operation acquisition device currently connected to the system may be identified, and expert sensor data extractable from the device may be obtained.

예를 들어, 키넥트와 같은 3D 카메라가 연결된 경우라면 깊이 영상 시퀀스, 2D 영상 시퀀스, 오디오 시퀀스의 입력이 가능하며, 이에 상응하는 전문가 센서 데이터는 동작 기술자의 구성 요소로 저장될 수 있다.For example, when a 3D camera such as Kinect is connected, it is possible to input a depth image sequence, a 2D image sequence, and an audio sequence, and expert sensor data corresponding thereto may be stored as a component of an operation engineer.

이 때, 단계(S313)는 깊이 영상 시퀀스로부터 바디 파트의 위치를 추출함으로써 추가적인 동작 기술자의 구성 요소를 생성할 수 있다.In this case, in step S313, an additional motion descriptor component may be generated by extracting the position of the body part from the depth image sequence.

또한, 단계(S313)는 속성 정보에 기반하여 상기 획득한 전문가 센서 데이터로부터 동작 속성 정보를 생성할 수 있다.Further, in step S313, motion attribute information may be generated from the acquired expert sensor data based on the attribute information.

이 때, 단계(S313)는 저작부(110)에서 전문가가 부여한 동작 속성을 저장함과 동시에 전문가의 동작으로부터 자동으로 속성을 추출할 수 있다.In this case, in step S313, the operation attribute assigned by the expert in the authoring unit 110 may be stored and the attribute may be automatically extracted from the expert's operation.

예를 들어, 이 때, 단계(S313)는 전신, 상반신, 하반신, 양팔, 양다리에 대한 위치변이, 속도, 가속도, 각속도 등을 추출할 수 있다.For example, in this case, the step S313 may extract positional displacement, velocity, acceleration, angular velocity, etc. for the whole body, upper body, lower body, both arms, and both legs.

이 때, 단계(S313)는 추출된 수치화 정보를 기반으로 해당 동작의 전체 또는 단위 동작에 대한 크기, 빠르기, 복잡도, 파워, 유연도 등의 동작 속성 정보를 생산할 수 있다.In this case, in step S313, operation attribute information such as size, speed, complexity, power, and flexibility for the entire or unit operation of the corresponding operation may be produced based on the extracted numerical information.

동작 속성 정보는 포즈와 같은 정적 자세와는 다르게 연속된 동작에 대한 동적 품질과 관련된 특징으로서 자가 학습 시에 동작의 섬세한 표현 방법에 대한 교정 정보 제공의 기준이 될 수 있다.Unlike a static posture such as a pose, the motion attribute information is a characteristic related to the dynamic quality of a continuous motion, and may serve as a standard for providing correction information for a delicate expression method of motion during self-learning.

이 때, 단계(S313)는 상기 모션 스크립트 헤더 정보, 상기 동작 속성 정보, 상기 동작 기술자 정보 및 상기 부가 정보 중 적어도 하나를 포함하는 모션 스크립트를 생성할 수 있다.In this case, in step S313, a motion script including at least one of the motion script header information, the motion attribute information, the motion descriptor information, and the additional information may be generated.

또한, 본 발명의 일실시예에 따른 동작 자가 학습 방법은 동작 교본을 출판할 수 있다(S320).In addition, the motion self-learning method according to an embodiment of the present invention may publish a motion textbook (S320).

즉, 단계(S320)는 동작 교본 저작 장치(100)가 상기 모션 스크립트를 동작 교본 스토어 서버(10)에 배포할 수 있다.That is, in step S320, the motion textbook authoring apparatus 100 may distribute the motion script to the motion textbook store server 10.

이 때, 단계(S320)는 UI를 통해 교본 영상편집, 동작 및 속성 세부 교정, 부가 정보 편집, 스토어사이트출판 기능을 수행할 수 있다In this case, step S320 may perform textbook image editing, detailed operation and attribute correction, additional information editing, and store site publishing functions through the UI.

이 때, 단계(S320)는 생성된 모션 스크립트에 대하여 교본 영상 편집, 동작 세부 교정, 속성 세부 교정 및 부가 정보 편집 중 적어도 하나를 수행하여 편집된 최종 모션 스크립트를 상기 동작 교본 스토어 서버에 배포할 수 있다.In this case, in step S320, the edited final motion script may be distributed to the motion text store server by performing at least one of textbook image editing, detailed motion correction, detailed attribute correction, and additional information editing on the generated motion script. have.

또한, 본 발명의 일실시예에 따른 동작 자가 학습 방법은 동작 교본을 자가 학습할 수 있다(S330).In addition, the motion self-learning method according to an embodiment of the present invention may self-learn a motion textbook (S330).

단계(S330)는 먼저 모션 스크립트를 설정할 수 있다(S331).In step S330, first, a motion script may be set (S331).

즉, 단계(S331)는 동작 학습자가 학습하고자 하는 동작에 따라 동작 교본 스토어 서버(10)로부터 다운로드 한 모션 스크립트를 설정할 수 있다.That is, in step S331, the motion script downloaded from the motion textbook store server 10 may be set according to the motion that the motion learner wants to learn.

이 때, 단계(S331)는 학습자가 취득한 모션 스크립트를 직접 입력 받거나 동작 교본 스토어 서버(10)로부터 모션 스크립트를 다운로드 받을 수 있다.In this case, in step S331, the motion script acquired by the learner may be directly input or downloaded from the motion textbook store server 10.

이 때, 단계(S331)는 상기 모션 스크립트에 포함된 동작 속성 정보에서 상기 동작 학습자가 학습하고자 하는 동작에 대한 필요한 속성들을 선택하여 학습 속성 정보를 설정할 수 있다.In this case, in step S331, the learning attribute information may be set by selecting required attributes for the motion that the motion learner wants to learn from motion attribute information included in the motion script.

이 때, 단계(S331)는 동작 학습자가 상기 학습하고자 하는 동작에 대한 학습 환경 정보를 설정할 수 있다.In this case, in step S331, the motion learner may set learning environment information for the motion to be learned.

이 때, 단계(S331)는 동작 학습자의 동작을 학습자 모션 스크립트로 생성하기 위하여 학습자 모션 스크립트의 헤더 및 속성을 설정할 수 있다.In this case, in step S331, a header and property of the learner motion script may be set in order to generate the motion learner's motion as a learner motion script.

또한, 단계(S330)는 학습자 센서 데이터를 획득할 수 있다(S332).In addition, in step S330, learner sensor data may be obtained (S332).

즉, 단계(S332)는 학습용 동작 획득 장치를 이용하여 상기 동작 학습자의 동작으로부터 학습자 센서 데이터를 획득할 수 있다.That is, in step S332, the learner sensor data may be obtained from the motion learner's motion using the learning motion acquisition device.

학습용 동작 획득 장치는 상기 동작 학습자의 동작으로부터 상기 학습자 센서 데이터를 획득하기 위한 카메라, 스마트폰, 동작 센서, 위치 센서, 가속도 센서, 관성 센서, 멀티 센서 및 키넥트 기기 중 적어도 하나를 포함할 수 있다.The learning motion acquisition device may include at least one of a camera, a smartphone, a motion sensor, a position sensor, an acceleration sensor, an inertial sensor, a multi-sensor, and a Kinect device for acquiring the learner sensor data from the motion learner's motion. .

또한, 단계(S330)는 동작 학습자의 동작을 평가할 수 있다(S333).In addition, in step S330, a motion learner's motion may be evaluated (S333).

단계(S333)는 먼저 동작 기술자 및 동작 속성을 비교할 수 있다(S333a).In step S333, first, the motion descriptor and the motion attribute may be compared (S333a).

즉, 단계(S333a)는 학습용 동작 획득 장치(저가형 3D 카메라, 스마트폰, 각종 센서류)에 의해 획득된 동작 학습자의 퍼포먼스와 전문가 모션 스크립트에서 기술된 동작을 비교 및 분석하여 사용자에게 적절한 평가 정보를 제공할 수 있다.That is, step S333a compares and analyzes the performance of the motion learner acquired by the learning motion acquisition device (low-priced 3D camera, smartphone, various sensors) and the motion described in the expert motion script to provide appropriate evaluation information to the user. can do.

이 때, 단계(S333a)는 모션 스크립트 내에 있는 전문가의 동작 기술자 및 동작 속성과 현재 학습자의 일련의 동작 시퀀스에서 획득한 동작 기술자 및 동작 속성을 비교/분석하여 그 평가 결과를 제공할 수 있다. 동작 비교 시에는 동일한 장치로부터 획득된 센서 데이터에서 추출된 동작 기술자와 속성끼리 비교하여 결과를 산출할 수 있다. 상이한 장치로부터 획득된 센서 데이터간의 비교도 가능하지만, 동작 기술자 및 동작 속성이 다르므로 평가 결과의 신뢰도가 낮아질 수 있다.In this case, in step S333a, an evaluation result may be provided by comparing/analyzing the motion descriptor and motion attribute of the expert in the motion script with the motion descriptor and motion attribute acquired from a series of motion sequences of the current learner. When comparing motions, a result can be calculated by comparing motion descriptors and attributes extracted from sensor data acquired from the same device. Although it is possible to compare sensor data obtained from different devices, the reliability of the evaluation result may be lowered because the operation descriptor and operation attribute are different.

이 때, 단계(S333a)는 모션 스크립트 생성에 사용된 저작용 동작 획득 장치와 동일한 종류의 학습용 동작 획득 장치를 이용하여 획득한 학습자 센서 데이터로부터 생성된 동작 기술자 정보 및 동작 속성 정보를 비교할 수 있다.In this case, in step S333a, motion descriptor information and motion attribute information generated from learner sensor data acquired using the same type of learning motion acquisition device as the low-action motion acquisition device used to generate the motion script may be compared.

또한, 단계(S333)는 자세 정확성 및 동적 표현력을 산출할 수 있다(S333b).In addition, in step S333, posture accuracy and dynamic expression power may be calculated (S333b).

즉, 단계(S333b)는 모션 스크립트와 상기 학습용 센서 데이터에 기반하여 획득한 상기 동작 학습자의 자세 정확성 정보 및 동적 표현력 정보를 생성할 수 있다.That is, in step S333b, the motion learner's posture accuracy information and dynamic expression power information acquired based on the motion script and the learning sensor data may be generated.

이 때, 단계(S333b)는 모션 스크립트내의 전문가의 동작과 현재 동작을 취하고 있는 학습자의 동작을 서로 비교/분석 할 수 있다.At this time, step S333b may compare/analyze the motion of the expert in the motion script and the motion of the learner who is currently taking the motion.

이 때, 단계(S333b)는 동작기술자 간의 비교를 통해 자세의 정확성 값을 산출하고, 동작 속성 간의 비교를 통하여 동적 표현력 분석 결과를 산출할 수 있다.In this case, in step S333b, a posture accuracy value may be calculated through comparison between motion technicians, and a dynamic expressive power analysis result may be calculated through a comparison between motion attributes.

이 때, 단계(S333b)는 먼저 모션 스크립트 생성에 사용된 저작용 동작 획득 장치와 동일한 종류의 학습용 동작 획득 장치를 이용하여 획득한 학습자 센서 데이터로부터 생성된 동작 기술자 정보 및 동작 속성 정보를 비교/분석할 수 있다.At this time, step (S333b) first compares/analyzes motion descriptor information and motion attribute information generated from learner sensor data acquired using the same type of learning motion acquisition device as the low-action motion acquisition device used to generate the motion script. can do.

이 때, 단계(S333b)는 상기 모션 스크립트와 상기 획득한 학습자 센서 데이터의 상기 동작 기술자 정보 및 상기 동작 속성 정보를 분석한 결과 마다 상기 동작 학습자의 자세들의 유사도를 분석한 자세 정확성 값들을 포함하는 자세 정확성 정보를 생성할 수 있다.In this case, step S333b includes posture accuracy values obtained by analyzing the similarity of the postures of the motion learner for each result of analyzing the motion descriptor information and motion attribute information of the motion script and the acquired learner sensor data. Can generate accuracy information.

이 때, 단계(S333b)는 상기 자세 정확성 정보 및 상기 동적 표현력 정보에 기반하여 최종 동작 평가 정보를 생성할 수 있다.In this case, step S333b may generate final motion evaluation information based on the posture accuracy information and the dynamic expressive power information.

이 때, 단계(S333b)는 학습용 동작 획득 장치의 개수, 종류 및 특성 중 적어도 하나에 기반하여 상기 자세 정확성 값들 각각과 상기 동적 표현력 값들 각각에 대한 가중치를 결정할 수 있다.In this case, in step S333b, a weight for each of the posture accuracy values and each of the dynamic expression power values may be determined based on at least one of the number, type, and characteristic of the learning motion acquisition device.

이 때, 단계(S333b)는 동작 학습자의 동작들 각각에 대하여 상기 가중치가 결정된 자세 정확성 값들과 상기 동적 표현력 값들 사이의 합산 비중을 결정할 수 있다.In this case, in step S333b, for each of the motion learner's motions, the weighted weighted posture accuracy values and the summation weight between the dynamic expressive power values may be determined.

또한, 단계(S333)는 최종 동작 평가 정보를 생성할 수 있다(333c).In addition, in step S333, final motion evaluation information may be generated (333c).

즉, 단계(S333c)는 상기 동작 학습자의 동작들마다 각각 결정된 합산 비중에 기반하여 상기 자세 정확성 값들과 상기 동적 표현력 값들을 합산하여 산출된 최종 동작 평가 값들을 포함하는 최종 동작 평가 정보를 생성할 수 있다.That is, in step S333c, the final motion evaluation information including final motion evaluation values calculated by summing the posture accuracy values and the dynamic expressive power values based on the sum determined for each motion of the motion learner may be generated. have.

이 때, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정 값에 비례하여 상기 동적 표현력 값들의 합산 비중을 높게 설정하고, 상기 자세 정확성 값을 낮게 설정할 수 있다.In this case, in step S333c, in proportion to the learning ability setting value of the motion learner, the sum of the dynamic expression power values may be set to be high, and the posture accuracy value may be set to be low.

이 때, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정 값에 비례하여 상기 동적 표현력 값들의 합산 비중을 높게 설정하고, 상기 자세 정확성 값을 낮게 설정할 수 있다.In this case, in step S333c, in proportion to the learning ability setting value of the motion learner, the sum of the dynamic expression power values may be set high, and the posture accuracy value may be set low.

예를 들어, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정 값이 낮게 설정되어 초급자에 상응하는 경우, 상기 자세 정확성 값들에 대한 합산 비중을 높게 설정하고, 상기 동적 표현력 값들에 대한 합산 비중을 높게 설정할 수 있다.For example, in step S333c, when the learning ability setting value of the motion learner is set low and corresponds to a beginner, the summation weight of the posture accuracy values is set high, and the summation weight of the dynamic expression power values is increased. Can be set.

이 때, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정값이 높게 설정되어 숙련자에 상응하는 경우, 상기 동적 표현력 값들에 대한 합산 비중을 높게 설정하고, 상기 자세 정확성 값들에 대한 합산 비중을 낮게 설정할 수 있다.At this time, in step S333c, when the learning ability setting value of the motion learner is set high and corresponds to the skilled person, the summation weight for the dynamic expression power values is set high, and the summation weight for the posture accuracy values is set low. I can.

또한, 본 발명의 일실시예에 따른 동작 자가 학습 방법은 최종 동작 평가 결과를 출력할 수 있다(S340).In addition, the motion self-learning method according to an embodiment of the present invention may output a final motion evaluation result (S340).

즉, 단계(S340)는 상기 최종 동작 평가 정보와 상기 동작 학습자의 동작을 교정하기 위한 동작 교정 정보를 출력할 수 있다.That is, the step S340 may output the final motion evaluation information and motion correction information for correcting the motion learner's motion.

이 때, 단계(S340)는 상기 최종 평가 결과 정보를 제공 받아 실시간으로 동작을 교정하고, 학습자의 종합적인 평가 결과와 각 세부항목에 대한 상세 평가를 제공할 수 있다.At this time, in step S340, the final evaluation result information is received, the motion is corrected in real time, and a comprehensive evaluation result of the learner and detailed evaluation for each detailed item may be provided.

이 때, 단계(S340)는 학습 이력 관리를 통해 학습자가 학습 결과를 바탕으로 본인의 동작으로 지속적으로 교정할 수 있도록 지원할 수 있다.At this time, step S340 may support the learner to continuously correct his or her own movement based on the learning result through the learning history management.

이 때, 단계(S340)는 상기 최종 동작 평가 정보에 기반하여 평가 요소 별 점수 및 상기 동작 학습자의 신체 부위 별 동작 정확도를 평가한 학습 평가 정보를 더 출력할 수 있다.In this case, step S340 may further output learning evaluation information obtained by evaluating a score for each evaluation element and a motion accuracy for each body part of the motion learner based on the final motion evaluation information.

이 때, 단계(S340)는 상기 사용자가 학습한 전문가 동작의 상기 평가 요소 별 점수 추이를 포함하는 상세 평가 정보를 더 출력할 수 있다.In this case, step S340 may further output detailed evaluation information including a score transition for each evaluation element of the expert's motion learned by the user.

이 때, 단계(S340)는 학습자의 모션 스크립트를 출판할 수 있는 UI를 이용하여 상기 최종 평가 결과 정보와 상기 교정 정보에 기반하여 상기 학습자 모션 스크립트를 편집하여 상기 동작 교본 스토어 서버에 배포할 수 있다.In this case, in step S340, the learner's motion script may be edited based on the final evaluation result information and the correction information using a UI capable of publishing the learner's motion script and distributed to the motion textbook store server. .

도 11은 도 10에 도시된 동작 교본 저작 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.11 is an operation flow diagram showing in detail an example of the operation textbook authoring step shown in FIG.

도 11을 참조하면, 단계(S311)는 동작 전문가가 생성하고자 하는 모션 스크립트에 대한 전반적인 속성을 설정하여 속성 정보를 생성할 수 있다.Referring to FIG. 11, in step S311, the motion expert may generate property information by setting an overall property of a motion script to be generated.

이 때, 단계(S311)는 모션 스크립트에 대한 파일 속성 및 상기 모션 스크립트가 검색되기 위한 태그 정보 중 적어도 하나를 포함하는 모션 스크립트 헤더 정보를 생성할 수 있다.In this case, in step S311, motion script header information including at least one of a file property for a motion script and tag information for searching for the motion script may be generated.

이 때, 단계(S311)는 저작자, 저작시간, 센서종류, 동작설명 및 동작 카테고리 등의 모션 스크립트 파일의 속성을 기술할 수 있다.At this time, step S311 may describe properties of the motion script file such as author, authoring time, sensor type, operation description, and operation category.

또한, 단계(S311)는 동작 전문가의 동작에 대하여 속성 정보를 부여할 수 있다.In addition, in step S311, attribute information may be assigned to the motion of the motion expert.

이 때, 단계(S311)는 동작 자체의 속성에 대한 정보를 부여할 수 있다.At this time, in step S311, information on the properties of the operation itself may be provided.

이 때, 단계(S311)는 키 포즈, 키 모션, 키 바디파트 중요도 등 학습자가 특정 동작을 학습할 때 주안점을 두고 학습하여야 할 사항에 대한 정보를 전문가가 동작을 캡처하기 전에 명시적으로 부여할 수 있다.At this time, in step S311, information on matters to be learned, such as key pose, key motion, key body part importance, etc., that the learner should focus on when learning a specific movement is explicitly given before the expert captures the movement. I can.

속성 정보는 동작 전문가의 동작 중 중요한 자세들인 키 포즈에 상응하는 키 포즈 설정 정보; 동작 전문가의 동작 중 중요한 동작 구간들인 키 모션에 상응하는 키 모션 설정 정보; 중요한 동작 구간들에서 중요한 동작들의 빠르기 및 강도를 설정하는 키 모션의 속도 및 강도에 상응하는 동작 설정 정보 및 상기 중요한 자세들 및 상기 중요한 동작들 마다 상기 동작 전문가의 신체 부위 별로 중요도를 설정하는 사용자의 키 바디 파트에 상응하는 신체 중요도 설정 정보 중 적어도 하나를 포함할 수 있다.The attribute information includes key pose setting information corresponding to key poses, which are important postures among movements of a motion expert; Key motion setting information corresponding to key motions, which are important motion sections among motion experts' motions; Key motion setting information corresponding to the speed and intensity of the key motion for setting the speed and intensity of important motions in important motion sections, and the user who sets the importance for each body part of the motion expert for the important postures and the important motions It may include at least one of body importance setting information corresponding to the key body part.

또한, 단계(S311)는 학습자의 동작 학습에 도움을 줄 수 있는 부가 정보의 제공 여부를 설정할 수 있다.In addition, in step S311, it is possible to set whether to provide additional information that may help the learner to learn movements.

이 때, 단계(S311)는 배경 음악 등의 오디오 시퀀스 및 전문가의 설명 음성 등, 학습에 도움을 줄 수 있는 부가 정보를 제공 할 것인지에 대한 여부를 설정할 수 있다.In this case, in step S311, it is possible to set whether to provide additional information that can help learning, such as an audio sequence such as background music and an expert's explanation voice.

또한, 단계(S310)는 전문가 센서 데이터를 수집할 수 있다(S312).In addition, in step S310, expert sensor data may be collected (S312).

즉, 단계(S312)는 저작용 동작 획득 장치를 이용하여 동작 전문가의 동작으로부터 전문가 센서 데이터를 획득할 수 있다.That is, in step S312, expert sensor data may be obtained from the motion of the motion expert using the low-action motion acquisition device.

저작용 동작 획득 장치는 상기 전문가 센서 데이터를 획득할 수 있는 카메라, 스마트폰, 동작 센서, 위치 센서, 가속도 센서, 관성 센서, 멀티 센서 및 키넥트 기기 중 적어도 하나를 포함할 수 있다.The low-action motion acquisition device may include at least one of a camera, a smartphone, a motion sensor, a position sensor, an acceleration sensor, an inertial sensor, a multi-sensor, and a Kinect device capable of obtaining the expert sensor data.

또한, 단계(S310)는 모션 스크립트를 생성할 수 있다(S313).In addition, in step S310, a motion script may be generated (S313).

즉, 단계(S313)는 설정된 속성 정보와 상기 획득한 센서 데이터에 기반하여 모션 스크립트를 생성할 수 있다.That is, in step S313, a motion script may be generated based on the set attribute information and the acquired sensor data.

이 때, 단계(S313)는 저작용 동작 획득 장치(저가형 3D 카메라, 스마트폰, 각종 센서류 등)에 의해 획득된 전문가의 퍼포먼스에 대한 센서 데이터 시퀀스와 저작부(110)에서 설정되고 부여된 모션 스크립트의 헤더 및 속성 정보들로부터 모션 스크립트를 생성할 수 있다.At this time, step (S313) is a sensor data sequence for the expert's performance acquired by the low-action motion acquisition device (low-priced 3D camera, smartphone, various sensors, etc.) and a motion script set and given by the authoring unit 110 It is possible to generate a motion script from the header and attribute information of.

이 때, 단계(S313)는 동작 획득 장치의 종류 및 특성을 파악하고, 상기 파악된 동작 획득 장치의 종류 및 특성에 기반하여 상기 획득한 전문가 센서 데이터로부터 동작 기술자 정보를 생성할 수 있다.In this case, in step S313, the type and characteristic of the motion acquisition device may be identified, and motion descriptor information may be generated from the acquired expert sensor data based on the identified type and characteristic of the motion acquisition device.

이 때, 단계(S313)는 전문가의 퍼포먼스 동작을 캡쳐한 전문가 센서 데이터를 입력 받아 모범 동작을 기술할 수 있다.In this case, in step S313, an exemplary operation may be described by receiving expert sensor data capturing the expert's performance motion.

이 때, 단계(S313)는 현재 시스템에 연결된 저작용 동작 획득 장치의 종류 및 특성을 파악하고, 장치로부터 추출 가능한 전문가 센서 데이터를 획득할 수 있다.In this case, in step S313, the type and characteristic of the low-action operation acquisition device currently connected to the system may be identified, and expert sensor data extractable from the device may be obtained.

예를 들어, 키넥트와 같은 3D 카메라가 연결된 경우라면 깊이 영상 시퀀스, 2D 영상 시퀀스, 오디오 시퀀스의 입력이 가능하며, 이에 상응하는 전문가 센서 데이터는 동작 기술자의 구성 요소로 저장될 수 있다.For example, when a 3D camera such as Kinect is connected, it is possible to input a depth image sequence, a 2D image sequence, and an audio sequence, and expert sensor data corresponding thereto may be stored as a component of an operation engineer.

이 때, 단계(S313)는 깊이 영상 시퀀스로부터 바디 파트의 위치를 추출함으로써 추가적인 동작 기술자의 구성 요소를 생성할 수 있다.In this case, in step S313, an additional motion descriptor component may be generated by extracting the position of the body part from the depth image sequence.

또한, 단계(S313)는 속성 정보에 기반하여 상기 획득한 전문가 센서 데이터로부터 동작 속성 정보를 생성할 수 있다.Further, in step S313, motion attribute information may be generated from the acquired expert sensor data based on the attribute information.

이 때, 단계(S313)는 저작부(110)에서 전문가가 부여한 동작 속성을 저장함과 동시에 전문가의 동작으로부터 자동으로 속성을 추출할 수 있다.In this case, in step S313, the operation attribute assigned by the expert in the authoring unit 110 may be stored and the attribute may be automatically extracted from the expert's operation.

예를 들어, 이 때, 단계(S313)는 전신, 상반신, 하반신, 양팔, 양다리에 대한 위치변이, 속도, 가속도, 각속도 등을 추출할 수 있다.For example, in this case, the step S313 may extract positional displacement, velocity, acceleration, angular velocity, etc. for the whole body, upper body, lower body, both arms, and both legs.

이 때, 단계(S313)는 추출된 수치화 정보를 기반으로 해당 동작의 전체 또는 단위 동작에 대한 크기, 빠르기, 복잡도, 파워, 유연도 등의 동작 속성 정보를 생산할 수 있다.In this case, in step S313, operation attribute information such as size, speed, complexity, power, and flexibility for the entire or unit operation of the corresponding operation may be produced based on the extracted numerical information.

동작 속성 정보는 포즈와 같은 정적 자세와는 다르게 연속된 동작에 대한 동적 품질과 관련된 특징으로서 자가 학습 시에 동작의 섬세한 표현 방법에 대한 교정 정보 제공의 기준이 될 수 있다.Unlike a static posture such as a pose, the motion attribute information is a characteristic related to the dynamic quality of a continuous motion, and may serve as a standard for providing correction information for a delicate expression method of motion during self-learning.

이 때, 단계(S313)는 상기 모션 스크립트 헤더 정보, 상기 동작 속성 정보, 상기 동작 기술자 정보 및 상기 부가 정보 중 적어도 하나를 포함하는 모션 스크립트를 생성할 수 있다.In this case, in step S313, a motion script including at least one of the motion script header information, the motion attribute information, the motion descriptor information, and the additional information may be generated.

도 12는 도 10에 도시된 동작 자가 학습 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.12 is an operation flow diagram showing in detail an example of the operation self-learning step shown in FIG.

도 12를 참조하면, 단계(S331)는 동작 학습자가 학습하고자 하는 동작에 따라 동작 교본 스토어 서버(10)로부터 다운로드 한 모션 스크립트를 설정할 수 있다.Referring to FIG. 12, in step S331, a motion script downloaded from the motion textbook store server 10 may be set according to the motion the motion learner wants to learn.

이 때, 단계(S331)는 학습자가 취득한 모션 스크립트를 직접 입력 받거나 동작 교본 스토어 서버(10)로부터 모션 스크립트를 다운로드 받을 수 있다.In this case, in step S331, the motion script acquired by the learner may be directly input or downloaded from the motion textbook store server 10.

이 때, 단계(S331)는 상기 모션 스크립트에 포함된 동작 속성 정보에서 상기 동작 학습자가 학습하고자 하는 동작에 대한 필요한 속성들을 선택하여 학습 속성 정보를 설정할 수 있다.In this case, in step S331, the learning attribute information may be set by selecting required attributes for the motion that the motion learner wants to learn from motion attribute information included in the motion script.

이 때, 단계(S331)는 동작 학습자가 상기 학습하고자 하는 동작에 대한 학습 환경 정보를 설정할 수 있다.In this case, in step S331, the motion learner may set learning environment information for the motion to be learned.

이 때, 단계(S331)는 동작 학습자의 동작을 학습자 모션 스크립트로 생성하기 위하여 학습자 모션 스크립트의 헤더 및 속성을 설정할 수 있다.In this case, in step S331, a header and property of the learner motion script may be set in order to generate the motion learner's motion as a learner motion script.

또한, 단계(S330)는 학습자 센서 데이터를 획득할 수 있다(S332).In addition, in step S330, learner sensor data may be obtained (S332).

즉, 단계(S332)는 학습용 동작 획득 장치를 이용하여 상기 동작 학습자의 동작으로부터 학습자 센서 데이터를 획득할 수 있다.That is, in step S332, the learner sensor data may be obtained from the motion learner's motion using the learning motion acquisition device.

학습용 동작 획득 장치는 상기 동작 학습자의 동작으로부터 상기 학습자 센서 데이터를 획득하기 위한 카메라, 스마트폰, 동작 센서, 위치 센서, 가속도 센서, 관성 센서, 멀티 센서 및 키넥트 기기 중 적어도 하나를 포함할 수 있다.The learning motion acquisition device may include at least one of a camera, a smartphone, a motion sensor, a position sensor, an acceleration sensor, an inertial sensor, a multi-sensor, and a Kinect device for acquiring the learner sensor data from the motion learner's motion. .

또한, 단계(S330)는 동작 학습자의 동작을 평가할 수 있다(S333).In addition, in step S330, a motion learner's motion may be evaluated (S333).

단계(S333)는 먼저 동작 기술자 및 동작 속성을 비교할 수 있다(S333a).In step S333, first, the motion descriptor and the motion attribute may be compared (S333a).

즉, 단계(S333a)는 학습용 동작 획득 장치(저가형 3D 카메라, 스마트폰, 각종 센서류)에 의해 획득된 동작 학습자의 퍼포먼스와 전문가 모션 스크립트에서 기술된 동작을 비교 및 분석하여 사용자에게 적절한 평가 정보를 제공할 수 있다.That is, step S333a compares and analyzes the performance of the motion learner acquired by the learning motion acquisition device (low-priced 3D camera, smartphone, various sensors) and the motion described in the expert motion script to provide appropriate evaluation information to the user. can do.

이 때, 단계(S333a)는 모션 스크립트 내에 있는 전문가의 동작 기술자 및 동작 속성과 현재 학습자의 일련의 동작 시퀀스에서 획득한 동작 기술자 및 동작 속성을 비교/분석하여 그 평가 결과를 제공할 수 있다. 동작 비교 시에는 동일한 장치로부터 획득된 센서 데이터에서 추출된 동작 기술자와 속성끼리 비교하여 결과를 산출할 수 있다. 상이한 장치로부터 획득된 센서 데이터간의 비교도 가능하지만, 동작 기술자 및 동작 속성이 다르므로 평가 결과의 신뢰도가 낮아질 수 있다.In this case, in step S333a, an evaluation result may be provided by comparing/analyzing the motion descriptor and motion attribute of the expert in the motion script with the motion descriptor and motion attribute acquired from a series of motion sequences of the current learner. When comparing motions, a result can be calculated by comparing motion descriptors and attributes extracted from sensor data acquired from the same device. Although it is possible to compare sensor data obtained from different devices, the reliability of the evaluation result may be lowered because the operation descriptor and operation attribute are different.

이 때, 단계(S333a)는 모션 스크립트 생성에 사용된 저작용 동작 획득 장치와 동일한 종류의 학습용 동작 획득 장치를 이용하여 획득한 학습자 센서 데이터로부터 생성된 동작 기술자 정보 및 동작 속성 정보를 비교할 수 있다.In this case, in step S333a, motion descriptor information and motion attribute information generated from learner sensor data acquired using the same type of learning motion acquisition device as the low-action motion acquisition device used to generate the motion script may be compared.

또한, 단계(S333)는 자세 정확성 및 동적 표현력을 산출할 수 있다(S333b).In addition, in step S333, posture accuracy and dynamic expression power may be calculated (S333b).

즉, 단계(S333b)는 모션 스크립트와 상기 학습용 센서 데이터에 기반하여 획득한 상기 동작 학습자의 자세 정확성 정보 및 동적 표현력 정보를 생성할 수 있다.That is, in step S333b, the motion learner's posture accuracy information and dynamic expression power information acquired based on the motion script and the learning sensor data may be generated.

이 때, 단계(S333b)는 모션 스크립트내의 전문가의 동작과 현재 동작을 취하고 있는 학습자의 동작을 서로 비교/분석 할 수 있다.At this time, step S333b may compare/analyze the motion of the expert in the motion script and the motion of the learner who is currently taking the motion.

이 때, 단계(S333b)는 동작기술자 간의 비교를 통해 자세의 정확성 값을 산출하고, 동작 속성 간의 비교를 통하여 동적 표현력 분석 결과를 산출할 수 있다.In this case, in step S333b, a posture accuracy value may be calculated through comparison between motion technicians, and a dynamic expressive power analysis result may be calculated through a comparison between motion attributes.

이 때, 단계(S333b)는 먼저 모션 스크립트 생성에 사용된 저작용 동작 획득 장치와 동일한 종류의 학습용 동작 획득 장치를 이용하여 획득한 학습자 센서 데이터로부터 생성된 동작 기술자 정보 및 동작 속성 정보를 비교/분석할 수 있다.At this time, step (S333b) first compares/analyzes motion descriptor information and motion attribute information generated from learner sensor data acquired using the same type of learning motion acquisition device as the low-action motion acquisition device used to generate the motion script. can do.

이 때, 단계(S333b)는 상기 모션 스크립트와 상기 획득한 학습자 센서 데이터의 상기 동작 기술자 정보 및 상기 동작 속성 정보를 분석한 결과 마다 상기 동작 학습자의 자세들의 유사도를 분석한 자세 정확성 값들을 포함하는 자세 정확성 정보를 생성할 수 있다.In this case, step S333b includes posture accuracy values obtained by analyzing the similarity of the postures of the motion learner for each result of analyzing the motion descriptor information and motion attribute information of the motion script and the acquired learner sensor data. Can generate accuracy information.

이 때, 단계(S333b)는 상기 자세 정확성 정보 및 상기 동적 표현력 정보에 기반하여 최종 동작 평가 정보를 생성할 수 있다.In this case, step S333b may generate final motion evaluation information based on the posture accuracy information and the dynamic expressive power information.

이 때, 단계(S333b)는 학습용 동작 획득 장치의 개수, 종류 및 특성 중 적어도 하나에 기반하여 상기 자세 정확성 값들 각각과 상기 동적 표현력 값들 각각에 대한 가중치를 결정할 수 있다.In this case, in step S333b, a weight for each of the posture accuracy values and each of the dynamic expression power values may be determined based on at least one of the number, type, and characteristic of the learning motion acquisition device.

이 때, 단계(S333b)는 동작 학습자의 동작들 각각에 대하여 상기 가중치가 결정된 자세 정확성 값들과 상기 동적 표현력 값들 사이의 합산 비중을 결정할 수 있다.In this case, in step S333b, for each of the motion learner's motions, the weighted weighted posture accuracy values and the summation weight between the dynamic expressive power values may be determined.

또한, 단계(S333)는 최종 동작 평가 정보를 생성할 수 있다(333c).In addition, in step S333, final motion evaluation information may be generated (333c).

즉, 단계(S333c)는 상기 동작 학습자의 동작들마다 각각 결정된 합산 비중에 기반하여 상기 자세 정확성 값들과 상기 동적 표현력 값들을 합산하여 산출된 최종 동작 평가 값들을 포함하는 최종 동작 평가 정보를 생성할 수 있다.That is, in step S333c, the final motion evaluation information including final motion evaluation values calculated by summing the posture accuracy values and the dynamic expressive power values based on the sum determined for each motion of the motion learner may be generated. have.

이 때, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정 값에 비례하여 상기 동적 표현력 값들의 합산 비중을 높게 설정하고, 상기 자세 정확성 값을 낮게 설정할 수 있다.In this case, in step S333c, in proportion to the learning ability setting value of the motion learner, the sum of the dynamic expression power values may be set high, and the posture accuracy value may be set low.

이 때, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정 값에 비례하여 상기 동적 표현력 값들의 합산 비중을 높게 설정하고, 상기 자세 정확성 값을 낮게 설정할 수 있다.In this case, in step S333c, in proportion to the learning ability setting value of the motion learner, the sum of the dynamic expression power values may be set high, and the posture accuracy value may be set low.

예를 들어, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정 값이 낮게 설정되어 초급자에 상응하는 경우, 상기 자세 정확성 값들에 대한 합산 비중을 높게 설정하고, 상기 동적 표현력 값들에 대한 합산 비중을 높게 설정할 수 있다.For example, in step S333c, when the learning ability setting value of the motion learner is set low and corresponds to a beginner, the summation weight of the posture accuracy values is set high, and the summation weight of the dynamic expression power values is increased. Can be set.

이 때, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정값이 높게 설정되어 숙련자에 상응하는 경우, 상기 동적 표현력 값들에 대한 합산 비중을 높게 설정하고, 상기 자세 정확성 값들에 대한 합산 비중을 낮게 설정할 수 있다.At this time, in step S333c, when the learning ability setting value of the motion learner is set high and corresponds to the skilled person, the summation weight for the dynamic expression power values is set high, and the summation weight for the posture accuracy values is set low. I can.

도 13은 도 12에 도시된 동작 평가 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.13 is an operation flow diagram showing in detail an example of the operation evaluation step shown in FIG. 12.

도 13을 참조하면, 단계(S333a)는 학습용 동작 획득 장치(저가형 3D 카메라, 스마트폰, 각종 센서류)에 의해 획득된 동작 학습자의 퍼포먼스와 전문가 모션 스크립트에서 기술된 동작을 비교 및 분석하여 사용자에게 적절한 평가 정보를 제공할 수 있다.13, step S333a compares and analyzes the performance of the learner's motion acquired by the learning motion acquisition device (low-priced 3D camera, smartphone, various sensors) and the motion described in the expert motion script, and is appropriate for the user. Evaluation information can be provided.

이 때, 단계(S333a)는 모션 스크립트 내에 있는 전문가의 동작 기술자 및 동작 속성과 현재 학습자의 일련의 동작 시퀀스에서 획득한 동작 기술자 및 동작 속성을 비교/분석하여 그 평가 결과를 제공할 수 있다. 동작 비교 시에는 동일한 장치로부터 획득된 센서 데이터에서 추출된 동작 기술자와 속성끼리 비교하여 결과를 산출할 수 있다. 상이한 장치로부터 획득된 센서 데이터간의 비교도 가능하지만, 동작 기술자 및 동작 속성이 다르므로 평가 결과의 신뢰도가 낮아질 수 있다.In this case, in step S333a, an evaluation result may be provided by comparing/analyzing the motion descriptor and motion attribute of the expert in the motion script with the motion descriptor and motion attribute acquired from a series of motion sequences of the current learner. When comparing motions, a result can be calculated by comparing motion descriptors and attributes extracted from sensor data acquired from the same device. Although it is possible to compare sensor data obtained from different devices, the reliability of the evaluation result may be lowered because the operation descriptor and operation attribute are different.

이 때, 단계(S333a)는 모션 스크립트 생성에 사용된 저작용 동작 획득 장치와 동일한 종류의 학습용 동작 획득 장치를 이용하여 획득한 학습자 센서 데이터로부터 생성된 동작 기술자 정보 및 동작 속성 정보를 비교할 수 있다.In this case, in step S333a, motion descriptor information and motion attribute information generated from learner sensor data acquired using the same type of learning motion acquisition device as the low-action motion acquisition device used to generate the motion script may be compared.

또한, 단계(S333)는 자세 정확성 및 동적 표현력을 산출할 수 있다(S333b).In addition, in step S333, posture accuracy and dynamic expression power may be calculated (S333b).

즉, 단계(S333b)는 모션 스크립트와 상기 학습용 센서 데이터에 기반하여 획득한 상기 동작 학습자의 자세 정확성 정보 및 동적 표현력 정보를 생성할 수 있다.That is, in step S333b, the motion learner's posture accuracy information and dynamic expression power information acquired based on the motion script and the learning sensor data may be generated.

이 때, 단계(S333b)는 모션 스크립트내의 전문가의 동작과 현재 동작을 취하고 있는 학습자의 동작을 서로 비교/분석 할 수 있다.At this time, step S333b may compare/analyze the motion of the expert in the motion script and the motion of the learner who is currently taking the motion.

이 때, 단계(S333b)는 동작기술자 간의 비교를 통해 자세의 정확성 값을 산출하고, 동작 속성 간의 비교를 통하여 동적 표현력 분석 결과를 산출할 수 있다.In this case, in step S333b, a posture accuracy value may be calculated through comparison between motion technicians, and a dynamic expressive power analysis result may be calculated through a comparison between motion attributes.

이 때, 단계(S333b)는 먼저 모션 스크립트 생성에 사용된 저작용 동작 획득 장치와 동일한 종류의 학습용 동작 획득 장치를 이용하여 획득한 학습자 센서 데이터로부터 생성된 동작 기술자 정보 및 동작 속성 정보를 비교/분석할 수 있다.At this time, step (S333b) first compares/analyzes motion descriptor information and motion attribute information generated from learner sensor data acquired using the same type of learning motion acquisition device as the low-action motion acquisition device used to generate the motion script. can do.

이 때, 단계(S333b)는 상기 모션 스크립트와 상기 획득한 학습자 센서 데이터의 상기 동작 기술자 정보 및 상기 동작 속성 정보를 분석한 결과 마다 상기 동작 학습자의 자세들의 유사도를 분석한 자세 정확성 값들을 포함하는 자세 정확성 정보를 생성할 수 있다.In this case, step S333b includes posture accuracy values obtained by analyzing the similarity of the postures of the motion learner for each result of analyzing the motion descriptor information and motion attribute information of the motion script and the acquired learner sensor data. Can generate accuracy information.

이 때, 단계(S333b)는 상기 자세 정확성 정보 및 상기 동적 표현력 정보에 기반하여 최종 동작 평가 정보를 생성할 수 있다.In this case, step S333b may generate final motion evaluation information based on the posture accuracy information and the dynamic expressive power information.

이 때, 단계(S333b)는 학습용 동작 획득 장치의 개수, 종류 및 특성 중 적어도 하나에 기반하여 상기 자세 정확성 값들 각각과 상기 동적 표현력 값들 각각에 대한 가중치를 결정할 수 있다.In this case, in step S333b, a weight for each of the posture accuracy values and each of the dynamic expression power values may be determined based on at least one of the number, type, and characteristic of the learning motion acquisition device.

이 때, 단계(S333b)는 동작 학습자의 동작들 각각에 대하여 상기 가중치가 결정된 자세 정확성 값들과 상기 동적 표현력 값들 사이의 합산 비중을 결정할 수 있다.In this case, in step S333b, for each of the motion learner's motions, the weighted weighted posture accuracy values and the summation weight between the dynamic expressive power values may be determined.

또한, 단계(S333)는 최종 동작 평가 정보를 생성할 수 있다(333c).In addition, in step S333, final motion evaluation information may be generated (333c).

즉, 단계(S333c)는 상기 동작 학습자의 동작들마다 각각 결정된 합산 비중에 기반하여 상기 자세 정확성 값들과 상기 동적 표현력 값들을 합산하여 산출된 최종 동작 평가 값들을 포함하는 최종 동작 평가 정보를 생성할 수 있다.That is, in step S333c, the final motion evaluation information including final motion evaluation values calculated by summing the posture accuracy values and the dynamic expressive power values based on the sum determined for each motion of the motion learner may be generated. have.

이 때, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정 값에 비례하여 상기 동적 표현력 값들의 합산 비중을 높게 설정하고, 상기 자세 정확성 값을 낮게 설정할 수 있다.In this case, in step S333c, in proportion to the learning ability setting value of the motion learner, the sum of the dynamic expression power values may be set high, and the posture accuracy value may be set low.

이 때, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정 값에 비례하여 상기 동적 표현력 값들의 합산 비중을 높게 설정하고, 상기 자세 정확성 값을 낮게 설정할 수 있다.In this case, in step S333c, in proportion to the learning ability setting value of the motion learner, the sum of the dynamic expression power values may be set high, and the posture accuracy value may be set low.

예를 들어, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정 값이 낮게 설정되어 초급자에 상응하는 경우, 상기 자세 정확성 값들에 대한 합산 비중을 높게 설정하고, 상기 동적 표현력 값들에 대한 합산 비중을 높게 설정할 수 있다.For example, in step S333c, when the learning ability setting value of the motion learner is set low and corresponds to a beginner, the summation weight of the posture accuracy values is set high, and the summation weight of the dynamic expression power values is increased. Can be set.

이 때, 단계(S333c)는 상기 동작 학습자의 학습 능력 설정값이 높게 설정되어 숙련자에 상응하는 경우, 상기 동적 표현력 값들에 대한 합산 비중을 높게 설정하고, 상기 자세 정확성 값들에 대한 합산 비중을 낮게 설정할 수 있다.At this time, in step S333c, when the learning ability setting value of the motion learner is set high and corresponds to the skilled person, the summation weight for the dynamic expression power values is set high, and the summation weight for the posture accuracy values is set low. I can.

도 14는 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.14 is a block diagram showing a computer system according to an embodiment of the present invention.

도 14를 참조하면, 본 발명의 실시예는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1100)에서 구현될 수 있다. 도 14에 도시된 바와 같이, 컴퓨터 시스템(1100)은 버스(1120)를 통하여 서로 통신하는 하나 이상의 프로세서(1110), 메모리(1130), 사용자 입력 장치(1140), 사용자 출력 장치(1150) 및 스토리지(1160)를 포함할 수 있다. 또한, 컴퓨터 시스템(1100)은 네트워크(1180)에 연결되는 네트워크 인터페이스(1170)를 더 포함할 수 있다. 프로세서(1110)는 중앙 처리 장치 또는 메모리(1130)나 스토리지(1160)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1130) 및 스토리지(1160)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(1131)이나 RAM(1132)을 포함할 수 있다.Referring to FIG. 14, an embodiment of the present invention may be implemented in a computer system 1100 such as a computer-readable recording medium. As shown in FIG. 14, the computer system 1100 includes one or more processors 1110, memory 1130, user input devices 1140, user output devices 1150, and storage devices that communicate with each other through a bus 1120. (1160) may be included. Also, the computer system 1100 may further include a network interface 1170 connected to the network 1180. The processor 1110 may be a central processing unit or a semiconductor device that executes processing instructions stored in the memory 1130 or the storage 1160. The memory 1130 and the storage 1160 may be various types of volatile or nonvolatile storage media. For example, the memory may include a ROM 1131 or a RAM 1132.

이상에서와 같이 본 발명에 따른 동작 교본 저작 장치, 동작 자가 학습 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the operation textbook authoring apparatus, the operation self-learning apparatus and method according to the present invention are not limited to the configuration and method of the embodiments described above, but various modifications may be made to the embodiments. All or part of each of the embodiments may be selectively combined and configured.

10: 동작 교본 스토어 서버 100: 동작 교본 저작 장치
110: 저작부 111: 헤더 정보 설정부
112: 동작 속성 맵핑부 113: 부가 정보 설정부
120: 센서부 130: 모션 스크립트 생성부
131: 동작기술자 생성부 132: 동작속성 생성부
140: 편집 출판부 200: 동작 자가 학습 장치
210: 학습부 211: 전문가 모션 스크립트 설정부
212: 학습 환경 설정부 213: 학습자 모션 스크립트 설정부
220: 센서부 230: 동작 평가부
231: 동작 분석부 232: 동작 평가 산출부
240: 출력부
1100: 컴퓨터 시스템 1110: 프로세서
1120: 버스 1130: 메모리
1131: 롬 1132: 램
1140: 사용자 입력 장치 1150: 사용자 출력 장치
1160: 스토리지 1170: 네트워크 인터페이스
1180: 네트워크
10: operation manual store server 100: operation manual authoring device
110: authoring unit 111: header information setting unit
112: motion attribute mapping unit 113: additional information setting unit
120: sensor unit 130: motion script generation unit
131: motion descriptor generator 132: motion attribute generator
140: editorial publishing unit 200: motion self-learning device
210: learning unit 211: expert motion script setting unit
212: learning environment setting unit 213: learner motion script setting unit
220: sensor unit 230: operation evaluation unit
231: motion analysis unit 232: motion evaluation calculation unit
240: output
1100: computer system 1110: processor
1120: bus 1130: memory
1131: ROM 1132: RAM
1140: user input device 1150: user output device
1160: storage 1170: network interface
1180: network

Claims (20)

사용자의 동작에 상응하는 속성 정보를 생성하는 저작부;
동작 획득 장치를 이용하여 상기 사용자의 동작으로부터 센서 데이터를 획득하는 센서부;
상기 속성 정보와 상기 센서 데이터에 기반하여 모션 스크립트를 생성하는 모션 스크립트 생성부; 및
상기 모션 스크립트를 배포하는 편집 출판부;
를 포함하고,
상기 저작부는
상기 모션 스크립트에 대한 파일 속성 및 상기 모션 스크립트가 검색되기 위한 태그 정보 중 적어도 하나를 포함하는 모션 스크립트 헤더 정보를 생성하는 헤더 정보 설정부;
상기 사용자의 동작과 상기 속성 정보를 맵핑하는 동작 속성 맵핑부; 및
동작 학습에 이용되는 부가 정보의 제공 여부를 설정하는 부가 정보 설정부;
를 포함하는 것을 특징으로 하는 동작 교본 저작 장치.
An authoring unit that generates attribute information corresponding to a user's motion;
A sensor unit that acquires sensor data from the user's motion using a motion acquisition device;
A motion script generator for generating a motion script based on the attribute information and the sensor data; And
An editing publishing unit that distributes the motion script;
Including,
The authoring department
A header information setting unit for generating motion script header information including at least one of a file property for the motion script and tag information for searching for the motion script;
An operation attribute mapping unit for mapping the user's operation and the attribute information; And
An additional information setting unit that sets whether to provide additional information used for motion learning;
Operation textbook authoring apparatus comprising a.
삭제delete 청구항 1에 있어서,
상기 속성 정보는
상기 사용자의 키 포즈에 상응하는 키 포즈 설정 정보;
상기 사용자의 키 모션에 상응하는 키 모션 설정 정보;
상기 키 모션의 속도 및 강도에 상응하는 동작 설정 정보; 및
상기 키 포즈 및 상기 키 모션에 기반한 상기 사용자의 키 바디 파트에 상응하는 키 바디 파트 설정 정보;
중 적어도 하나를 포함하는 것을 특징으로 하는 동작 교본 저작 장치.
The method according to claim 1,
The above attribute information is
Key pose setting information corresponding to the user's key pose;
Key motion setting information corresponding to the user's key motion;
Motion setting information corresponding to the speed and strength of the key motion; And
Key body part setting information corresponding to the user's key body part based on the key pose and the key motion;
An operation textbook authoring apparatus comprising at least one of.
청구항 3에 있어서,
상기 모션 스크립트 생성부는
상기 동작 획득 장치의 종류 및 특성을 파악하고, 상기 파악된 동작 획득 장치의 종류 및 특성에 기반하여 상기 획득한 전문가 센서 데이터로부터 동작 기술자 정보를 생성하는 동작 기술자 생성부; 및
상기 속성 정보에 기반하여 상기 획득한 전문가 센서 데이터로부터 동작 속성 정보를 생성하는 동작 속성 생성부;
를 더 포함하는 것을 특징으로 하는 동작 교본 저작 장치.
The method of claim 3,
The motion script generation unit
A motion descriptor generator configured to determine the type and characteristic of the motion acquisition device, and generate motion descriptor information from the acquired expert sensor data based on the identified type and characteristic of the motion acquisition device; And
A motion attribute generator for generating motion attribute information from the acquired expert sensor data based on the attribute information;
Operation textbook authoring device, characterized in that it further comprises.
청구항 4에 있어서,
상기 모션 스크립트 생성부는
상기 모션 스크립트 헤더 정보, 상기 동작 속성 정보, 상기 동작 기술자 정보 및 상기 부가 정보 중 적어도 하나를 포함하는 상기 모션 스크립트를 생성하는 것을 특징으로 하는 동작 교본 저작 장치.
The method of claim 4,
The motion script generation unit
And generating the motion script including at least one of the motion script header information, the motion attribute information, the motion descriptor information, and the additional information.
청구항 5에 있어서,
상기 편집 출판부는
상기 생성된 모션 스크립트에 대하여 교본 영상 편집, 동작 세부 교정, 속성 세부 교정 및 부가 정보 편집 중 적어도 하나를 수행하여 편집된 최종 모션 스크립트를 동작 교본 스토어 서버에 배포하는 것을 특징으로 하는 동작 교본 저작 장치.
The method of claim 5,
The editorial publishing department
And distributing the edited final motion script to an operation text store server by performing at least one of textbook image editing, detailed operation correction, detailed attribute correction, and additional information editing on the generated motion script.
모션 스크립트의 전문가 동작을 출력하여 사용자에게 상기 전문가 동작을 학습시키는 학습부;
동작 획득 장치를 이용하여 상기 사용자의 동작으로부터 센서 데이터를 획득하는 센서부;
상기 모션 스크립트와 센서 데이터 기반하여 상기 사용자의 동작을 평가한 최종 동작 평가 정보를 생성하는 동작 평가부; 및
상기 최종 동작 평가 정보와 상기 사용자의 동작을 교정하기 위한 교정 정보를 출력하는 출력부;
를 포함하고,
상기 학습부는
상기 모션 스크립트에서 상기 사용자가 동작 학습을 위하여 선택한 속성들을 이용하여 학습 속성 정보를 설정하는 전문가 모션 스크립트 설정부;
상기 사용자가 설정한 학습 환경에 기반하여 학습 환경 정보를 설정하는 학습 환경 설정부; 및
상기 사용자의 동작을 학습자 모션 스크립트로 생성하는 학습자 모션 스크립트 설정부;
를 포함하는 것을 특징으로 하는 동작 자가 학습 장치.
A learning unit that outputs an expert action of a motion script to learn the expert action to a user;
A sensor unit that acquires sensor data from the user's motion using a motion acquisition device;
A motion evaluation unit generating final motion evaluation information for evaluating the user's motion based on the motion script and sensor data; And
An output unit outputting the final motion evaluation information and correction information for correcting the user's motion;
Including,
The learning unit
An expert motion script setting unit configured to set learning attribute information using attributes selected by the user for motion learning in the motion script;
A learning environment setting unit configured to set learning environment information based on the learning environment set by the user; And
A learner motion script setting unit that generates the user's motion as a learner motion script;
Operation self-learning device comprising a.
삭제delete 청구항 7에 있어서,
상기 동작 평가부는
상기 모션 스크립트와 상기 센서 데이터에 기반하여 상기 사용자의 자세 정확성 정보 및 동적 표현력 정보를 생성하는 동작 분석부; 및
상기 자세 정확성 정보 및 상기 동적 표현력 정보에 기반하여 최종 동작 평가 정보를 생성하는 동작 평가 산출부;
를 포함하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 7,
The motion evaluation unit
A motion analysis unit for generating posture accuracy information and dynamic expression power information of the user based on the motion script and the sensor data; And
A motion evaluation calculator configured to generate final motion evaluation information based on the posture accuracy information and the dynamic expression power information;
Operation self-learning device comprising a.
청구항 9에 있어서,
상기 동작 분석부는
상기 모션 스크립트에 사용된 동작 획득 장치와 동일한 종류의 동작 획득 장치로부터 획득한 센서 데이터를 이용하여 동작 기술자 정보 및 동작 속성 정보를 분석하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 9,
The motion analysis unit
A motion self-learning device, characterized in that the motion descriptor information and motion attribute information are analyzed using sensor data obtained from the motion obtaining device of the same type as the motion obtaining device used in the motion script.
청구항 10에 있어서,
상기 동작 분석부는
상기 모션 스크립트와 상기 센서 데이터에 기반하여 상기 동작 기술자 정보 및 상기 동작 속성 정보를 분석한 결과 마다 상기 사용자의 동작의 유사도를 분석한 자세 정확성 값들을 포함하는 자세 정확성 정보를 생성하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 10,
The motion analysis unit
And generating posture accuracy information including posture accuracy values obtained by analyzing the similarity of the user's motion for each result of analyzing the motion descriptor information and the motion attribute information based on the motion script and the sensor data Self-learning device.
청구항 11에 있어서,
상기 동작 분석부는
상기 모션 스크립트와 상기 센서 데이터에 기반한 상기 동작 기술자 정보 및 상기 동작 속성 정보를 분석한 결과 마다 상기 사용자의 동작의 빠르기, 강도 및 동작 구간 일치 여부 중 적어도 하나의 유사도를 분석한 동적 표현력 값들을 포함하는 동적 표현력 정보를 생성하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 11,
The motion analysis unit
For each result of analyzing the motion descriptor information and motion attribute information based on the motion script and the sensor data, including dynamic expressive power values obtained by analyzing at least one similarity among speed, intensity, and motion section of the user's motion. Motion self-learning device, characterized in that generating dynamic expressive power information.
청구항 12에 있어서,
상기 동작 평가 산출부는
상기 동작 획득 장치의 개수, 종류 및 특성 중 적어도 하나에 기반하여 상기 자세 정확성 값들 각각과 상기 동적 표현력 값들 각각에 대한 가중치를 결정하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 12,
The motion evaluation calculation unit
And determining a weight for each of the posture accuracy values and each of the dynamic expressive power values based on at least one of the number, type, and characteristic of the motion acquisition device.
청구항 13에 있어서,
상기 동작 평가 산출부는
상기 사용자의 동작들 각각에 대하여 상기 가중치가 결정된 자세 정확성 값들과 상기 동적 표현력 값들을 서로 합산하기 위한 합산 비중을 결정하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 13,
The motion evaluation calculation unit
And determining a summation weight for summing the weighted posture accuracy values and the dynamic expressive power values for each of the user's motions.
청구항 14에 있어서,
상기 동작 평가 산출부는
상기 사용자의 동작들마다 각각 결정된 합산 비중에 기반하여 상기 자세 정확성 값들과 상기 동적 표현력 값들을 합산하여 산출된 최종 동작 평가 값들을 포함하는 최종 동작 평가 정보를 생성하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 14,
The motion evaluation calculation unit
And generating final motion evaluation information including final motion evaluation values calculated by summing the posture accuracy values and the dynamic expressive power values based on the sum weight determined for each of the user's motions.
청구항 15에 있어서,
상기 동작 평가 산출부는
상기 사용자의 학습 능력 설정 값에 비례하여 상기 동적 표현력 값들의 합산 비중을 높게 설정하고, 상기 자세 정확성 값을 낮게 설정하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 15,
The motion evaluation calculation unit
The motion self-learning device, characterized in that, in proportion to the user's learning ability setting value, the sum of the dynamic expression power values is set high and the posture accuracy value is set low.
청구항 16에 있어서,
상기 출력부는
상기 최종 동작 평가 정보와 상기 교정 정보에 기반하여 상기 학습자 모션 스크립트를 편집하여 동작 교본 스토어 서버에 배포하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 16,
The output unit
The motion self-learning device, characterized in that the learner motion script is edited and distributed to a motion textbook store server based on the final motion evaluation information and the correction information.
청구항 17에 있어서,
상기 출력부는
상기 최종 동작 평가 정보에 기반하여 평가 요소 별 점수 및 상기 사용자의 신체 부위 별 동작 정확도를 평가한 학습 평가 정보를 더 출력하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 17,
The output unit
And further outputting learning evaluation information obtained by evaluating a score for each evaluation element and a motion accuracy for each body part of the user based on the final motion evaluation information.
청구항 14에 있어서,
상기 출력부는
상기 사용자가 학습한 전문가 동작의 상기 평가 요소 별 점수 추이를 포함하는 상세 평가 정보를 더 출력하는 것을 특징으로 하는 동작 자가 학습 장치.
The method of claim 14,
The output unit
A motion self-learning device, characterized in that further outputting detailed evaluation information including a score transition for each evaluation element of the expert motion learned by the user.
동작 교본 저작 장치 및 동작 자가 학습 장치를 이용하는 동작 자가 학습 방법에 있어서,
상기 동작 교본 저작 장치가 제1 사용자의 전문가 동작에 기반하여 모션 스크립트를 생성하는 단계;
상기 동작 자가 학습 장치가 상기 모션 스크립트에 기반하여 상기 전문가 동작을 학습시킨 제2 사용자의 동작을 분석하는 단계; 및
상기 동작 자가 학습 장치가 상기 제2 사용자의 동작을 분석한 결과를 출력하는 단계;
를 포함하고,
상기 제2 사용자의 동작을 분석하는 단계는
상기 모션 스크립트의 상기 제1 사용자의 전문가 동작을 출력하여 상기 제2 사용자에게 상기 전문가 동작을 학습시키는 단계;
를 포함하고,
상기 학습시키는 단계는
상기 모션 스크립트에서 상기 제2 사용자가 동작 학습을 위하여 선택한 속성들을 이용하여 학습 속성 정보를 설정하고,
상기 제2 사용자가 설정한 학습 환경에 기반하여 학습 환경 정보를 설정하고,
상기 제2 사용자의 동작을 학습자 모션 스크립트로 생성하는 것을 특징으로 하는 동작 자가 학습 방법.
In the motion self-learning method using the motion textbook authoring device and the motion self-learning device,
Generating, by the motion textbook authoring apparatus, a motion script based on an expert motion of a first user;
Analyzing, by the motion self-learning device, a motion of a second user who has learned the expert motion based on the motion script; And
Outputting, by the motion self-learning device, a result of analyzing the motion of the second user;
Including,
Analyzing the motion of the second user
Outputting the expert action of the first user in the motion script to learn the expert action from the second user;
Including,
The learning step
In the motion script, learning attribute information is set using attributes selected by the second user for motion learning,
Set learning environment information based on the learning environment set by the second user,
The motion self-learning method, characterized in that generating the second user's motion as a learner motion script.
KR1020160139932A 2016-06-13 2016-10-26 Appratus for writing motion-script, appratus for self-learning montion and method for using the same KR102171319B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/450,337 US10748444B2 (en) 2016-06-13 2017-03-06 Apparatus for writing motion script, apparatus for self-teaching of motion and method for using the same
US16/918,659 US11113988B2 (en) 2016-06-13 2020-07-01 Apparatus for writing motion script, apparatus for self-teaching of motion and method for using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160073014 2016-06-13
KR20160073014 2016-06-13

Publications (2)

Publication Number Publication Date
KR20170140756A KR20170140756A (en) 2017-12-21
KR102171319B1 true KR102171319B1 (en) 2020-10-28

Family

ID=60936212

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160139932A KR102171319B1 (en) 2016-06-13 2016-10-26 Appratus for writing motion-script, appratus for self-learning montion and method for using the same

Country Status (1)

Country Link
KR (1) KR102171319B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054954A1 (en) * 2018-09-11 2020-03-19 Samsung Electronics Co., Ltd. Method and system for providing real-time virtual feedback
KR102199078B1 (en) * 2019-02-13 2021-01-06 임혜민 Smart -learning device and method based on motion recognition
KR102442783B1 (en) * 2020-04-23 2022-09-13 신한대학교 산학협력단 Apparatus for Learning Service based on Motion and Driving Method Thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120206577A1 (en) 2006-01-21 2012-08-16 Guckenberger Elizabeth T System, method, and computer software code for mimic training

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050079893A (en) * 2004-12-13 2005-08-11 주식회사 엠브이스포츠 System for training of sports posture
KR101087135B1 (en) * 2008-04-03 2011-11-25 한국전자통신연구원 Teaching apparatus and method based on motion content
KR101816172B1 (en) * 2009-12-07 2018-01-08 광주과학기술원 The simulation system for training and the method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120206577A1 (en) 2006-01-21 2012-08-16 Guckenberger Elizabeth T System, method, and computer software code for mimic training

Also Published As

Publication number Publication date
KR20170140756A (en) 2017-12-21

Similar Documents

Publication Publication Date Title
US11113988B2 (en) Apparatus for writing motion script, apparatus for self-teaching of motion and method for using the same
KR101711488B1 (en) Method and System for Motion Based Interactive Service
US10803762B2 (en) Body-motion assessment device, dance assessment device, karaoke device, and game device
Fothergill et al. Instructing people for training gestural interactive systems
JP2852925B2 (en) Physical exercise proficiency education system
Grammatikopoulou et al. An adaptive framework for the creation of exergames for intangible cultural heritage (ICH) education
Ochoa et al. Multimodal learning analytics-Rationale, process, examples, and direction
KR101936692B1 (en) Dance training apparatus and method using automatic generation of dance key motion
Noiumkar et al. Use of optical motion capture in sports science: A case study of golf swing
CN107423398A (en) Exchange method, device, storage medium and computer equipment
CN109637207A (en) A kind of preschool education interactive teaching device and teaching method
Tan et al. Can you copyme? an expression mimicking serious game
KR102171319B1 (en) Appratus for writing motion-script, appratus for self-learning montion and method for using the same
Aristidou et al. Motion Analysis for Folk Dance Evaluation.
CN114022512A (en) Exercise assisting method, apparatus and medium
CN113409651B (en) Live broadcast body building method, system, electronic equipment and storage medium
Tang et al. Research on sports dance movement detection based on pose recognition
Wang A study on utilizing 3D motion-capture analysis to assist in Chinese opera teaching
JP6999543B2 (en) Interactive Skills Frameworks and methods configured to enable analysis of physically performed skills, including application to distribution of training content.
KR100863055B1 (en) Taekwondo learning system based on analysis of Image
CN116433808A (en) Character animation generation method, animation generation model training method and device
Kanawong et al. Human Motion Matching for Assisting Standard Thai Folk Dance Learning.
Fernandez-Cervantes et al. A grammar-based framework for rehabilitation exergames
Baş et al. DancÆR: Efficient and Accurate Dance Choreography Learning by Feedback Through Pose Classification
Casas Ortiz Capturing, modelling, analyzing and providing feedback in martial arts with artificial intelligence to support psychomotor learning activities

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant