KR20240113684A - Human body muscle learning system by metaverse interaction - Google Patents

Human body muscle learning system by metaverse interaction Download PDF

Info

Publication number
KR20240113684A
KR20240113684A KR1020230005766A KR20230005766A KR20240113684A KR 20240113684 A KR20240113684 A KR 20240113684A KR 1020230005766 A KR1020230005766 A KR 1020230005766A KR 20230005766 A KR20230005766 A KR 20230005766A KR 20240113684 A KR20240113684 A KR 20240113684A
Authority
KR
South Korea
Prior art keywords
metaverse
muscle
user
exercise
avatar
Prior art date
Application number
KR1020230005766A
Other languages
Korean (ko)
Inventor
최현희
Original Assignee
동서대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동서대학교 산학협력단 filed Critical 동서대학교 산학협력단
Priority to KR1020230005766A priority Critical patent/KR20240113684A/en
Publication of KR20240113684A publication Critical patent/KR20240113684A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0075Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0087Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
    • A63B2024/0096Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load using performance related parameters for controlling electronic or video games or avatars

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본발명은 메타버스 인터렉션에 의한 인체근육 학습시스템에 관한 것으로, 사용자가 메타버스 시스템에서 해당 근육을 선택하면, 제어부는 해당 근육 이름을 음성 내지 글자로 제시하며, 해당 근육의 사용방법을 같이 제시하는 것으로, 메타버스 시스템은 해당 근육에 맞는 운동방법과 운동에 따른 예측결과를 제시하며 사용자가 메타버스에서 아바타로 동작하게 하는 것이며, 상기 동작은 사용자 아바타와 캐릭터가 함께 하게 하는 것으로,
본발명은 해당근육 이름을 알려주어 쉽게 기억하게 하며, 해당 근육에 따른 운동방법과 예측결과를 메타버스에서 사용자 아바타와 캐릭터가 함께 하게 하여 근육운동이 흥미롭고 사용자의 동기유발이 높아지고 목표달성률이 커지는 현저한 효과가 있다.
The present invention relates to a human muscle learning system through metaverse interaction. When a user selects a muscle in the metaverse system, the control unit presents the name of the muscle in voice or text and also presents the method of using the muscle. In other words, the metaverse system presents exercise methods appropriate for the muscles in question and predicted results according to the exercise, and allows the user to operate as an avatar in the metaverse. The movements are performed together by the user's avatar and the character.
The present invention provides the name of the muscle so that it can be easily remembered, and the user's avatar and character share the exercise method and prediction results according to the muscle in the metaverse, making muscle exercise interesting, increasing the user's motivation, and providing a remarkable effect that increases the goal achievement rate. It works.

Description

메타버스 인터렉션에 의한 인체근육 학습시스템{Human body muscle learning system by metaverse interaction}Human body muscle learning system by metaverse interaction}

본발명은 메타버스 인터렉션에 의한 인체근육 학습시스템에 관한 것으로, 보다 상세하게는 해당근육 이름을 알려주어 쉽게 기억하게 하며, 해당 근육에 따른 운동방법과 예측결과를 메타버스에서 사용자 아바타와 캐릭터가 함께 하게 하여 근육운동이 흥미롭고 사용자의 동기유발이 높아지고 목표달성률이 커지는 메타버스 인터렉션에 의한 인체근육 학습시스템에 관한 것이다.The present invention relates to a human muscle learning system through metaverse interaction. More specifically, it provides the name of the muscle so that it can be easily remembered, and the user avatar and character share the exercise method and predicted result according to the muscle in the metaverse. It is about a human muscle learning system using metaverse interaction that makes muscle exercise interesting, increases user motivation, and increases goal achievement rate.

일반적으로 현대로갈수록 사람들은 책상앞에 오래앉아있거나 여유시간이 적어져 운동하는 시간이 짧아지게 되어 몸이 대체로 약해지게 된다. 그리고 올바른 운동자세를 익히지 않아 오히려 운동이 몸을 나쁘게 하는 원인이 되곤하였다. 그러므로 운동을 올바르고 효율적으로 하는 것이 필요하며, 종래 특허기술의 일례로서 등록번호 10-2461484호에는 컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는 방법에 있어서, 사용자 단말에 대응하는 사용자의 운동 능력 정보를 획득하는 단계; 상기 운동 능력 정보에 기초하여 가상 캐릭터를 생성하는 단계; 및 상기 가상 캐릭터에 기초하여 트레이닝 서비스를 제공하는 단계; 를 포함하고, 상기 운동 능력 정보를 획득하는 단계는, 상기 사용자의 신체에 구비된 복수의 센서 장치 각각이 부착된 신체 부위 정보 및 상기복수의 센서 장치 사이의 거리 정보에 기초하여 상기 사용자의 신체 사이즈 정보를 획득하는 단계; 를 포함하고, 상기 트레이닝 서비스를 제공하는 단계는, 상기 복수의 센서 장치로부터 획득되는 상기 사용자의 움직임 정보에 기초하여 상기 사용자가 수행하는 운동의 종류를 식별하는 단계; 상기 식별된 운동의 종류에 따라 상기 사용자의 동작을 카운팅하여 상기 사용자의 운동량 센싱 정보를 생성하되, 상기 식별된 운동의 종류와 관계 없는 동작은 카운팅하지 않는, 단계; 를 포함하고, 상기 운동의 종류를 식별하는 단계는, 상기 사용자로부터 운동 규칙 설정 신호를 획득하는 단계; 상기 사용자의 움직임 정보에 기초하여 새로운 운동 규칙을 생성하는 단계; 및 상기 생성된 운동 규칙을 다른 사용자들에게 공유하는 단계; 를 더 포함하고, 상기 트레이닝 서비스를 제공하는 단계는, 상기 복수의 센서 장치로부터 획득되는 정보에 기초하여 상기 사용자의 자세 정보를 획득하는 단계; 상기 사용자의 자세 정보에 기초하여 상기 사용자가 이용하는 운동 장치의 강도를 조정하기 위한 장치 제어 정보 및 상기 사용자에 대한 운동 가이드 정보를 생성하는 단계; 및 상기 장치 제어 정보 및 상기 운동 가이드 정보를 상기 운동 장치에 송신하는 단계; 를 포함하는, 메타버스 트레이닝 서비스 제공 방법이 공개되어 있다.In general, in modern times, people sit in front of their desks for a long time or have less free time, so the time to exercise becomes shorter, and the body generally becomes weaker. And because they did not learn the correct exercise posture, exercise often became the cause of their health. Therefore, it is necessary to exercise correctly and efficiently, and as an example of a conventional patent technology, registration number 10-2461484 includes a method performed by one or more processors of a computing device, obtaining information on the user's exercise ability corresponding to the user terminal. steps; generating a virtual character based on the motor ability information; and providing a training service based on the virtual character. The step of acquiring the exercise ability information includes: body size of the user based on body part information to which each of the plurality of sensor devices provided on the user's body is attached and distance information between the plurality of sensor devices Obtaining information; Including, providing the training service includes: identifying a type of exercise performed by the user based on movement information of the user obtained from the plurality of sensor devices; Counting the user's movements according to the identified type of exercise to generate the user's momentum sensing information, but not counting movements unrelated to the identified type of exercise; Includes, wherein identifying the type of exercise includes: acquiring an exercise rule setting signal from the user; generating a new exercise rule based on the user's movement information; and sharing the generated exercise rules with other users. Further comprising: providing the training service, comprising: acquiring posture information of the user based on information obtained from the plurality of sensor devices; Generating device control information for adjusting the intensity of an exercise device used by the user and exercise guide information for the user based on the user's posture information; and transmitting the device control information and the exercise guide information to the exercise device. A method of providing metaverse training services, including, is disclosed.

또한, 공개번호 10-2012-0003588호에는 헬스 서버를 포함하는 메타버스 연동 기능을 구비한 헬스케어 시스템이 공개되어 있다.In addition, Publication No. 10-2012-0003588 discloses a healthcare system equipped with a metaverse interconnection function including a health server.

그리고 등록번호 10-2445543호에는 메타버스 트레이닝 서비스를 제공하기 위한 시스템이 공개되어 있고, 등록번호 10-2406852호에는 웨어러블 기기와 메타버스를 이용한 사용자 건강관리 시스템이 공개되어 있다.And registration number 10-2445543 discloses a system for providing metaverse training services, and registration number 10-2406852 discloses a user health management system using wearable devices and metaverse.

따라서 본발명은 상기와 같은 문제점을 해결하고자 안출된 것으로, 해당근육 이름을 알려주어 쉽게 기억하게 하며, 해당 근육에 따른 운동방법과 예측결과를 메타버스에서 사용자 아바타와 캐릭터가 함께 하게 하여 근육운동이 흥미롭고 사용자의 동기유발이 높아지고 목표달성률이 커지는 메타버스 인터렉션에 의한 인체근육 학습시스템을 제공하고자 하는 것이다.Therefore, the present invention was created to solve the above problems. It provides the name of the muscle so that it can be easily remembered, and the user's avatar and character share the exercise method and predicted result according to the muscle in the metaverse to enable muscle exercise. The goal is to provide a human muscle learning system using metaverse interaction that is interesting and increases user motivation and goal achievement rate.

본발명은 메타버스 인터렉션에 의한 인체근육 학습시스템에 관한 것으로, 사용자가 메타버스 시스템에서 해당 근육을 선택하면, 제어부는 해당 근육 이름을 음성 내지 글자로 제시하며, 해당 근육의 사용방법을 같이 제시하는 것으로, 메타버스 시스템은 해당 근육에 맞는 운동방법과 운동에 따른 예측결과를 제시하며 사용자가 메타버스에서 아바타로 동작하게 하는 것이며, 상기 동작은 사용자 아바타와 캐릭터가 함께 하게 하는 것을 특징으로 한다.The present invention relates to a human muscle learning system through metaverse interaction. When a user selects a muscle in the metaverse system, the control unit presents the name of the muscle in voice or text and also presents the method of using the muscle. In other words, the metaverse system presents exercise methods appropriate for the relevant muscles and predicted results according to the exercise, and allows the user to operate as an avatar in the metaverse. The movement is characterized by having the user's avatar and the character perform together.

따라서 본발명은 해당근육 이름을 알려주어 쉽게 기억하게 하며, 해당 근육에 따른 운동방법과 예측결과를 메타버스에서 사용자 아바타와 캐릭터가 함께 하게 하여 근육운동이 흥미롭고 사용자의 동기유발이 높아지고 목표달성률이 커지는 현저한 효과가 있다.Therefore, the present invention informs the name of the muscle in question so that it can be easily remembered, and the exercise method and prediction results according to the muscle are shared with the user's avatar and character in the metaverse, so that muscle exercise is interesting, increases the user's motivation, and increases the goal achievement rate. It has a remarkable effect.

도 1은 본발명의 메타버스 접속화면
도 2는 본발명의 메타버스 캐릭터 화면
도 3은 본발명의 AI 손 구현 화면
도 4는 본발명의 메타버스에 AI 손 구현된 화면
도 5는 본발명의 AI 몸 구현화면
Figure 1 is a metaverse connection screen of the present invention.
Figure 2 is a metaverse character screen of the present invention
Figure 3 is an AI hand implementation screen of the present invention
Figure 4 is a screen implemented with an AI hand in the metaverse of the present invention.
Figure 5 is a screen of the AI body implementation of the present invention

본발명은 메타버스 인터렉션에 의한 인체근육 학습시스템에 관한 것으로, 사용자가 메타버스 시스템에서 해당 근육을 선택하면, 제어부는 해당 근육 이름을 음성 내지 글자로 제시하며, 해당 근육의 사용방법을 같이 제시하는 것을 특징으로 한다.The present invention relates to a human muscle learning system through metaverse interaction. When a user selects a muscle in the metaverse system, the control unit presents the name of the muscle in voice or text and also presents the method of using the muscle. It is characterized by

또한, 상기 메타버스 시스템은 해당 근육에 맞는 운동방법과 운동에 따라 얻어지는 결과를 같이 제시하며 사용자가 메타버스에서 아바타로 동작하게 하는 것을 특징으로 한다.In addition, the metaverse system presents exercise methods appropriate for the muscles and the results obtained according to the exercise, and allows the user to operate as an avatar in the metaverse.

또한, 상기 동작은 사용자 아바타와 캐릭터가 함께 하게 하는 것을 특징으로 하는 한다.Additionally, the operation is characterized in that the user avatar and the character are together.

본발명을 첨부도면에 의해 상세히 설명하면 다음과 같다.도 1은 본발명의 메타버스 접속화면, 도 2는 본발명의 메타버스 캐릭터 화면, 도 3은 본발명의 AI 손 구현 화면, 도 4는 본발명의 메타버스에 AI 손 구현된 화면, 도 5는 본발명의 AI 몸 구현화면이다.The present invention will be described in detail with the accompanying drawings as follows. Figure 1 is the metaverse connection screen of the present invention, Figure 2 is the metaverse character screen of the present invention, Figure 3 is the AI hand implementation screen of the present invention, and Figure 4 is The screen of the AI hand implemented in the metaverse of the present invention, Figure 5 is the screen of the AI body implemented of the present invention.

본발명 메타버스 인터렉션에 의한 인체근육 학습시스템은 사용자가 메타버스 시스템에서 대퇴근 등 해당 근육을 선택하면, 제어부는 해당 근육 이름을 음성 내지 글자로 제시한다. 그리고 해당 근육의 사용방법, 예를 들어 근육을 이완하거나 신축시키거나 회전시키는 것처럼 같이 제시한다.In the human muscle learning system based on the metaverse interaction of the present invention, when the user selects the corresponding muscle, such as the thigh muscle, in the metaverse system, the control unit presents the name of the corresponding muscle in voice or text. Also, the method of using the muscle, for example, relaxing, stretching, or rotating the muscle, is presented.

또한, 상기 메타버스 시스템은 해당 근육에 맞는 운동방법과 운동, 예를 들어 대퇴근의 경우 축구 등을 제시하며 이에 따라 얻어지는 결과를 같이 제시한다. 곧 대퇴근의 발달, 질적향상 등을 제시한다. 그리고 사용자가 메타버스에서 아바타가 되어 동작하게 한다.In addition, the metaverse system suggests exercise methods and exercises suitable for the relevant muscles, such as soccer for the thigh muscles, and also presents the results obtained accordingly. The development and qualitative improvement of the quadriceps muscles are presented. Then, the user becomes an avatar in the metaverse and operates.

또한, 제어부는 상기 동작은 사용자 아바타와 캐릭터가 함께 하게 한다. 캐릭터는 키와 마우스에 의해 동작된다.Additionally, the control unit causes the user avatar and the character to perform the above actions together. Characters are operated by keys and mouse.

한편, 상기 근육들은 하나의 객체에 해당부위에 조립되게 되는데, 다리근육같은 경우 태퇴근등 여러 근육이 뼈형태에 결합된다. 그리고 캐릭터는 상기 여러 근육을 해체 조립하게 된다. 포톤네트워크에 의해 멀티유저가 접속가능하므로 교사와 학생들이 같이 접속할 경우, 교사가 먼저 시범을 보이고 학생들이 따라한다. 상기 근육들은 각각 색상을 달리하며, 이는 매터리얼이나 텍스트를 해당색상에 맞게 적용하여 구현한다. 그리고 바른위치에 해당근육들이 결합되면, 밝은 램프 매트리얼이 작동하여, 불이 켜진듯 여겨지게 한다. 램프를 켜는 것은 트리거에 의해 메타버스 제어부는 제어한다. 한편, com3시리얼포트를 통해 상기와 같이 정답이 맞아 불이켜지면 com3시리얼포트에 아두이노를 통해 연결된 현실의 엘이디에도 불이 들어오게 할 수 있다. 수업을 효율화를 위해 각 근육들은 박스오브젝터에 넣으면 각각의 특성을 보여, 곧 신축하되 신축정도를 달리하게 하여, 실제 인체근육이 인체 전기신호에 의해 반응하듯 수업을 할 수 있다. 이는 애니메이션 효과로 구현할 수 있으며 유니터의 경우 애니메이터에 해당 애니클립을 넣어 제어시킨다. 각 동작은 네트워크매니저에서 제어하는 버튼을 온클릭동작을 통해 제어한다.Meanwhile, the muscles are assembled into a single object in the corresponding area, and in the case of leg muscles, several muscles such as the fetus fetus are combined into a bone shape. Then, the character disassembles and reassembles the various muscles mentioned above. Multi-user access is possible through the Photon Network, so when a teacher and students connect together, the teacher demonstrates first and the students follow. Each of the muscles has a different color, and this is implemented by applying material or text to match the corresponding color. And when the corresponding muscles are combined in the right position, a bright lamp material operates, making it appear as if a light is turned on. Turning on the lamp is controlled by the metaverse control unit by a trigger. Meanwhile, if the correct answer is turned on as shown above through the com3 serial port, the actual LED connected to the com3 serial port via Arduino can also be turned on. In order to make the class more efficient, each muscle shows its own characteristics when placed in a box object, so it can be stretched and stretched at different degrees, allowing the class to be taught as if actual human muscles reacted to the human body's electrical signals. This can be implemented with animation effects, and in the case of Uniter, it is controlled by inserting the relevant animation clip into the animator. Each operation is controlled through an on-click operation on the button controlled by the network manager.

본발명은 실제 현실세계에서 하는 운동을 메타버스 내에서 보여주고 따라하게 하며 같이 하는데 본발명의 기술적 요지가 있다. 메타버스는 유니트, 언리얼엔진 등을 사용하여 제작한다. 그리고 멀티플레이어가 하나의 프로젝터 신(scene)에서 동시에 접속하여 운동 및 관람을 하기 위해 포톤(photon)에 접속하여 멀티플레이도 가능하게 한다. 이때 하이어아키에 따른 콤포넌트에는 포톤뷰, 포톤리지드바디뷰, 포톤트랜스포머뷰 등을 임포트한다. 그러므로 교사와 학생들이 한 scene에서 운동을 하게 되어 교육효과가 높아진다. The technical gist of the present invention is to show and follow movements performed in the real world within the metaverse. Metaverse is produced using Unit and Unreal Engine. In addition, multiplayer is also possible by connecting to Photon so that multiple players can access and exercise and watch at the same time in one projector scene. At this time, components according to Hierarchy such as Photon View, Photon Rigid Body View, and Photon Transformer View are imported. Therefore, teachers and students can exercise in one scene, increasing educational effectiveness.

곧 원하는 동작을 현실과 메타버스내에서 영상으로 실제 체험하게 되어 교육효과가 높아진다. 메타버스내에서 운동은 캐릭터에 스크립터를 입혀 구현된다. 스크립트는 유니트의 경우 C#언어로 구축한다. 그리고 배경 등은 블렌더, 마야프로그램으로 3D로 제작한 후, 임포트한다. 임포트는 유니티에 적합하게 주로 Fbx파일로 변환하여 임포트한다. 캐릭터의 복잡한 동작은 믹사모등 자동리깅을 제공하는 사이트에 접속하여 캐릭터를 업로드한 후 원하는 달리기, 던지기 등 동작을 구현한 후 유니티내에 임포트한다. 에셋은 직접구축할수도 있지만 무료에셋을 사용하여 제작비용을 절감할 수 있다. 물체 오브젝터와의 인식은 충돌트리거를 사용하여, 캐릭터와 물체오브젝터에 충돌시 콜라이드를 이용한 트리거를 작동하게 하여 주로 자동으로 동작하게 할 수 있다.Soon, you will be able to actually experience the desired movement through video in reality and within the metaverse, increasing the educational effectiveness. Within the metaverse, movement is implemented by applying scripts to characters. Scripts are built in C# language for units. And the backgrounds are created in 3D using Blender and Maya programs and then imported. Import is mainly done by converting to an Fbx file to suit Unity. For the character's complex movements, access a site that provides automatic rigging, such as Mixamo, upload the character, implement the desired movements such as running and throwing, and then import them into Unity. You can build assets yourself, but you can reduce production costs by using free assets. Recognition with an object object can be done automatically by using a collision trigger and activating a trigger using collide when the character collides with the object object.

현실에서의 운동은 미디어파이프 등의 AI모델을 사용하여 AI모듈을 본발명의 현실 인터렉션 메타버스 운동시스템에 설치하면, 현실의 카메라에서 촬상되는 모든 이미지는 영상처리부와 AI모듈을 거쳐 메타버스 화면에 나타내게 된다. 영상처리부에서는 필터링등을 통해 보다 명확한 필요한 화상을 만들며 OPENCV를 사용한다. 메타버스내에는 캐릭터가 같이 운동을 하게 되며, 현실의 아바타가 메타버스에서 캐릭터와 같이 운동하는 것이다. 유저는 캐릭터가 되거나 아바타가 된다. 한편, 제어부는 운동근육이 정해지면, 해당 근육에 도움이 되는 운동을 캐릭터가 하도록 지시된다. 손운동 경우 캐릭터가 손가락을 하나씩 순서대로 접혔다 펴는 동작을 하고 사용자인 유저는 똑같이 따라 하며 메타버스내에서 아바타가 같이 한다. 또한 블록오브젝터를 같이 나르는 것으로, 일정거리까지 떨어떠리지 않고 나르는 거리를 측정한다. 이때 사용자 아바타 손은 손가락 하나만을 사용한다. 다른 방법으로는 블록오브젝터를 일정거리까지 나르는 시간을 측정할 수 있다. 상기 데이터는 온오프라인에 기록되고 다음회차에는 얼마나 발전되었는가를 비교한다. 곧 평형감, 손가락근육 유연성등이 발전되어 좋은 결과를 얻게 된다. 블록오브젝터, 곧 큐브는 무게, 크기를 컴포넌트에서 변화시킬수 있으며 때로는 스크립트에 의해 회전력을 발생시켜 캐릭터와 사용자 아바타가 저항하여 큐브를 떨어뜨리지 않게 한다. 포톤네트워크에 의해 멀티플레이어가 동시에 접속하므로 여러 사용자 아바타가 합동하여 큐브를 나를수 있다. 이때 미리 테란에 바람세기를 조절할 수 있고, 지형을 굴곡지게 설계할 수 있다.For exercise in reality, if an AI module is installed in the reality interaction metaverse exercise system of the present invention using an AI model such as a media pipe, all images captured by a camera in reality are displayed on the metaverse screen through the image processing unit and AI module. It will appear. The image processing unit uses OPENCV to create clearer images through filtering. In the metaverse, characters exercise together, and real-life avatars exercise with characters in the metaverse. Users become characters or avatars. Meanwhile, once the exercise muscle is determined, the control unit instructs the character to perform exercises that are helpful for that muscle. In the case of hand movements, the character folds and unfolds the fingers one by one in order, and the user follows suit, and the avatar in the metaverse does the same. Also, by carrying the block object together, the distance it can be carried without dropping it to a certain distance is measured. At this time, the user avatar hand uses only one finger. Another method is to measure the time it takes to carry a block object to a certain distance. The data is recorded online and offline and compared in the next round to see how much progress has been made. Soon, balance, finger muscle flexibility, etc. will develop and you will get good results. The weight and size of a block object, or cube, can be changed in the component, and sometimes a rotational force is generated by a script so that the character and user avatar resist and do not drop the cube. Because multiplayers connect simultaneously through the Photon Network, multiple user avatars can work together to carry the cube. At this time, the wind strength can be adjusted in advance on Terran, and the terrain can be designed to be curved.

본발명의 현실에서의 운동의 경우 손을 메타버스속 아바타로 만들 경우 예를 들면,In the case of exercise in reality according to the present invention, for example, if the hand is made into an avatar in the metaverse,

PyCharm 프로그램을 사용한다.Use the PyCharm program.

PyCharm 프로그램의 셋팅 탭으로 들어간다.Go to the Settings tab of the PyCharm program.

PyCharm 프로그램의 세팅 탭에서 Project의 python interpreter에서 CVZONE PAKAGE를 설치한다.Install CVZONE PAKAGE from the python interpreter of the Project in the settings tab of the PyCharm program.

CVZONE PAKAGE에는 In CVZONE PAKAGE

CVZONE, OPENCV-PYTHON, NUMPY, PIP, SETUPTOOLS 및 WHEEL이 포함되어 있다.Includes CVZONE, OPENCV-PYTHON, NUMPY, PIP, SETUPTOOLS, and WHEEL.

CVZONE은 COMPUTER VISION ZONE이며, 컴퓨터에서 보여주는 영역이다.CVZONE is COMPUTER VISION ZONE and is the area displayed on the computer.

PyCharm 프로그램 세팅 탭에서 Project의 python interpreter로부터 MEDIAPIPE를 설치한다.Install MEDIAPIPE from the project's python interpreter in the PyCharm program settings tab.

MEDIAPIPE는 객체를 인식하는 것이다.MEDIAPIPE is about recognizing objects.

아래부터는 PyCharm 노트에 글을 써서 설치하는 방법이다.Below are instructions on how to install PyCharm by writing in the PyCharm notebook.

코드code

# pip install cvzone# pip install cvzone

# pip install mediapipe# pip install mediapipe

import cv2import cv2

from cvzone.HandTrackingModule import HandDetectorfrom cvzone.HandTrackingModule import HandDetector

import socketimport socket

# Parameters#Parameters

width, height = 1850, 1025width, height = 1850, 1025

# Webcam#Webcam

cap = cv2.VideoCapture(0)cap = cv2.VideoCapture(0)

cap.set(3, width)cap.set(3, width)

cap.set(4, height)cap.set(4, height)

# Hand Detector#Hand Detector

detector = HandDetector(maxHands=1, detectionCon=0.8)detector = HandDetector(maxHands=1, detectionCon=0.8)

# Communication#Communication

sock = socket.socket(socket.AF_INET, socket.SOCK_DGRAM)sock = socket.socket(socket.AF_INET, socket.SOCK_DGRAM)

serverAddressPort = ('127.0.0.1', 5052)serverAddressPort = ('127.0.0.1', 5052)

while True:whileTrue:

success, img = cap.read() success, img = cap.read()

data = [] data = []

# Hands #Hands

hands, img = detector.findHands(img) hands, img = detector.findHands(img)

# Landmark values - (x,y,z) *21 # Landmark values - (x,y,z) *21

if hands: if hands:

# Get the first hand detected # Get the first hand detected

hand = hands[0] hand = hands[0]

# Get the landmark list # Get the landmark list

lmList = hand['lmList'] lmList = hand['lmList']

#print(lmList) #print(lmList)

for lm in lmList: for lm in lmList:

data.extend([lm[0], height - lm[1], lm[2]]) data.extend([lm[0], height - lm[1], lm[2]])

print(data) print(data)

sock.sendto(str.encode(str(data)), serverAddressPort) sock.sendto(str.encode(str(data)), serverAddressPort)

img = cv2.resize(img, (0, 0), None, 0.5, 0.5) img = cv2.resize(img, (0, 0), None, 0.5, 0.5)

cv2.imshow('Image', img) cv2.imshow('Image', img)

cv2.waitKey(1) cv2.waitKey(1)

cv2.destroyAllWindows()cv2.destroyAllWindows()

PyCharm 노트에 opencv 라이브러리를 가져온다.Import the opencv library into PyCharm notes.

PyCharm 노트에 opencv 라이브러리에서 웹캠을 가져온다.Import the webcam from the opencv library in PyCharm notes.

웹캠이 촬영한 영상을 출력하는 창의 가로세로 크기는 1250, 720으로 지정한다.The width and height sizes of the window that outputs the video captured by the webcam are set to 1250 and 720.

PyCharm 노트에 MEDIAPIPE의 기능중 하나인 HandTrackingModule(손추적모듈)로부터 손탐지기(HandDetector)을 가져온다.In the PyCharm note, the HandDetector is imported from the HandTrackingModule, one of the functions of MEDIAPIPE.

추적모듈이 추적할 손의 개수를 1개로 지정한다.Specifies the number of hands to be tracked by the tracking module as 1.

이에, 웹캠에서 촬영한 영상 데이터가 입력되면, MEDIAPIPE의 HANDTRACKINGMODULE모듈로 HandDetector로 객체인식하여, 웹캠이 촬영한 영상을 출력하는 창에 출력하는 것이다.Accordingly, when video data captured by the webcam is input, the object is recognized by HandDetector using the HANDTRACKINGMODULE module of MEDIAPIPE, and the video captured by the webcam is output to the output window.

상기 출력된 손형상은 21개 스피어와 각 스피어를 연결하는 밴드로 구성되게 하여 유니티로 불러들인다. 한편, 상기 손을 활용하는 경우로 플레이트 오브젝트에 그림을 그릴수 있는 것으로, 유니티의 INDENT DENT 스크립터가 추가된 플레이트는 INDENT ACTOR 스크립트가 추가된 연필형상 오브젝터에 의해 홈이 형성된다. 곧 캐릭터가 잡는 스크립터 추가에 의해 잡은 연필형상의 3D오브젝터가 움직임에 따라 홈이 그려진다. 현실의 손형상의 스피어중 하나에도 잡는 스크립터를 추가한다. 그러므로 손을 움직임에 따라서 글이 나 그림이 메타버스속의 플레이트 오브젝터에 그려지게 되는 것이다.The output hand shape consists of 21 spheres and a band connecting each sphere and is imported into Unity. Meanwhile, when using the above hand, a picture can be drawn on a plate object. The plate to which Unity's INDENT DENT script is added has a groove formed by a pencil-shaped object to which the INDENT ACTOR script has been added. Soon, a groove will be drawn according to the movement of the pencil-shaped 3D object held by the character by adding a script. Add a script to grab one of the real hand-shaped spheres. Therefore, as you move your hand, text or pictures are drawn on the plate object in the metaverse.

현실의 몸의 경우 PyCharm 노트에 opencv 라이브러리를 가져온다.For the real body, import the opencv library into PyCharm notes.

PyCharm 노트에 opencv 라이브러리에서 웹캠을 가져온다.Import the webcam from the opencv library in PyCharm notes.

웹캠이 촬영한 영상을 출력하는 창의 가로세로 크기는 1250, 720으로 지정한다.The width and height sizes of the window that outputs the video captured by the webcam are set to 1250 and 720.

PyCharm 노트에 MEDIAPIPE의 기능중 하나인 PoseModule(몸추적모듈)로부터 몸탐지기(PoseDetector)을 가져온다.In the PyCharm note, the body detector (PoseDetector) is imported from PoseModule (body tracking module), one of the functions of MEDIAPIPE.

추적모듈이 추적할 몸의 개수를 1개로 지정한다.Specifies the number of bodies to be tracked by the tracking module as 1.

이에, 웹캠에서 촬영한 영상 데이터가 입력되면, MEDIAPIPE의 기능중 하나인 PoseModule의 PoseDetector로 몸을 객체인식하여, 웹캠이 촬영한 영상을 출력하는 창에 출력하는 것이다.Accordingly, when video data captured by a webcam is input, the body is recognized as an object using the PoseDetector of PoseModule, one of the functions of MEDIAPIPE, and the video captured by the webcam is output to the output window.

상기 출력된 몸형상은 32개 스피어와 각 스피어를 연결하는 밴드로 구성되게 하여 유니티로 불러들인다.The output body shape consists of 32 spheres and a band connecting each sphere and is imported into Unity.

그리고 본발명은 운동을 지시하는 음성을 출력하게 되는 것으로, 캐릭터나 현실 아바타가 일정운동코스에 도달하면, 주로 충돌값에 의해 밟은 발판을 이용하여 신호를 메타버스내 카메라 오브젝터의 오디오에 전달되어 운동을 어떻게 할 지, 몇회반복할지 등을 음성으로 지시하게 된다.또는 텍스트로 나타나게 한다. And the present invention outputs a voice instructing movement, and when a character or a real avatar reaches a certain exercise course, a signal is transmitted to the audio of the camera object in the metaverse mainly by using the step taken by the collision value. Instructions such as how to do the exercise and how many times to repeat are given by voice. Or, they are displayed as text.

메타버스내에는 거울오브젝터가 있어서, 캐릭터나 아바타가 거울앞에 서서, 자신이 원하는 체형버튼을 클릭하면, 체형에 맞는 운동방법을 제시하게 된다.There is a mirror object in the metaverse, so when a character or avatar stands in front of a mirror and clicks the body type button they want, an exercise method suitable for their body type is presented.

본발명의 시스템은 이미지제공부, 저장부, 제어부로 구성된다.The system of the present invention consists of an image providing unit, a storage unit, and a control unit.

제어부는 선택한 체형에 맞는 운동에 따른 유명한 선수의 사진을 메타버스내에서 보여주어 동기유발을 하게 한다.The control unit motivates users by displaying photos of famous athletes performing exercises suitable for the selected body type within the metaverse.

메타버스는 유니트, 언리얼엔진 등을 사용하여 제작한다. 그리고 멀티플레이어가 한 신(scene)에서 동시에 접속하여 운동 및 관람을 하기 위해 포톤(photon)에 접속하여 멀티플레이도 가능하게 한다. 그러므로 교사와 학생들이 한 scene에서 운동을 하게 되어 교육효과가 높아진다. 상기 메타버스 컨텐츠는 유니티에서 어플리케이션을 통해 앱으로도 제작되므로 사용자는 스마트폰앱을 통해 항상 운동, 연습이 가능해진다.Metaverse is produced using Unit and Unreal Engine. In addition, multiplayer is also possible by connecting to Photon so that multiple players can access and exercise and watch at the same time in one scene. Therefore, teachers and students can exercise in one scene, increasing educational effectiveness. The metaverse content is also produced as an app through Unity, so users can always exercise and practice through the smartphone app.

Claims (3)

사용자가 메타버스 시스템에서 해당 근육을 선택하면, 제어부는 해당 근육 이름을 음성 내지 글자로 제시하며, 해당 근육의 사용방법을 같이 제시하는 것을 특징으로 하는 메타버스 인터렉션에 의한 인체근육 학습시스템When the user selects the muscle in the metaverse system, the control unit presents the name of the muscle in voice or text and also presents the method of using the muscle. A human muscle learning system based on metaverse interaction. 제1항에 있어서, 상기 메타버스 시스템은 해당 근육에 맞는 운동방법과 운동에 따라 얻어지는 결과를 같이 제시하며 사용자가 메타버스에서 아바타로 동작하게 하는 것을 특징으로 하는 메타버스 인터렉션에 의한 인체근육 학습시스템The human muscle learning system based on metaverse interaction according to claim 1, wherein the metaverse system presents exercise methods appropriate for the relevant muscles and results obtained according to the exercises, and allows the user to operate as an avatar in the metaverse. 제2항에 있어서, 상기 동작은 사용자 아바타와 캐릭터가 함께 하게 하는 것을 특징으로 하는 메타버스 인터렉션에 의한 인체근육 학습시스템The human muscle learning system according to claim 2, wherein the movement is performed by a user avatar and a character together.
KR1020230005766A 2023-01-14 2023-01-14 Human body muscle learning system by metaverse interaction KR20240113684A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230005766A KR20240113684A (en) 2023-01-14 2023-01-14 Human body muscle learning system by metaverse interaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230005766A KR20240113684A (en) 2023-01-14 2023-01-14 Human body muscle learning system by metaverse interaction

Publications (1)

Publication Number Publication Date
KR20240113684A true KR20240113684A (en) 2024-07-23

Family

ID=92172333

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230005766A KR20240113684A (en) 2023-01-14 2023-01-14 Human body muscle learning system by metaverse interaction

Country Status (1)

Country Link
KR (1) KR20240113684A (en)

Similar Documents

Publication Publication Date Title
Cen et al. Augmented immersive reality (AIR) for improved learning performance: a quantitative evaluation
Alzubi et al. Improving the working memory during early childhood education through the use of an interactive gesture game-based learning approach
Alabbasi et al. Human motion tracking & evaluation using Kinect V2 sensor
Duan Design of online volleyball remote teaching system based on AR technology
Song et al. An immersive VR system for sports education
Xie et al. Visual feedback for core training with 3d human shape and pose
Qingtao Analysis and research on the combination of virtual reality technology (VR) and college sports training
CN115485737A (en) Information processing apparatus, information processing method, and program
Tian et al. Kung Fu metaverse: A movement guidance training system
Magdin Simple mocap system for home usage
KR20240113684A (en) Human body muscle learning system by metaverse interaction
Wang et al. Construction of a somatosensory interactive system based on computer vision and augmented reality techniques using the kinect device for food and agricultural education
Križnar et al. Use of Computer Vision Based Hand Tracking in Educational Environments
Gunawan et al. Development of educational game for primary school mathematics using microsoft kinect
KR20240113685A (en) Exercise management system by metaverse interaction
Gurieva et al. Augmented reality for personalized learning technique: Climbing gym case study
Araya et al. Creative Coding for Dance Movement Therapy in Children with Autism.
Li et al. Research on virtual skiing system based on harmonious human-computer interaction
Lin et al. Space connection: a new 3D tele-immersion platform for web-based gesture-collaborative games and services
KR20200082710A (en) Puzzle for Portable Device usnig Augmented Reality
Singh et al. Development of Virtual Reality Training module for Maithari of Martial Art Kalari
Li Simulating Virtual Environment and Experience for Training, Exergaming, and Edutainment in eXtended Reality (XR): A Survey
TWI789974B (en) Assistance system and method for guiding exercise postures in live broadcast
Hiramoto et al. Design and Implementation of a Virtual Reality Tennis Serve Practice System for Creative Tennis Serve Practice
Alabbasi et al. Virtual Sports Training System Using Kinect V2 Sensor

Legal Events

Date Code Title Description
E902 Notification of reason for refusal