KR102648471B1 - Hybrid Motion Capture Position Switching Method for Virtual Fire Drill - Google Patents

Hybrid Motion Capture Position Switching Method for Virtual Fire Drill Download PDF

Info

Publication number
KR102648471B1
KR102648471B1 KR1020210067581A KR20210067581A KR102648471B1 KR 102648471 B1 KR102648471 B1 KR 102648471B1 KR 1020210067581 A KR1020210067581 A KR 1020210067581A KR 20210067581 A KR20210067581 A KR 20210067581A KR 102648471 B1 KR102648471 B1 KR 102648471B1
Authority
KR
South Korea
Prior art keywords
human body
movement
motion capture
ankle
tracking
Prior art date
Application number
KR1020210067581A
Other languages
Korean (ko)
Other versions
KR20220159679A (en
Inventor
박진하
김충일
김동현
Original Assignee
주식회사 아이팝
전주대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이팝, 전주대학교 산학협력단 filed Critical 주식회사 아이팝
Priority to KR1020210067581A priority Critical patent/KR102648471B1/en
Publication of KR20220159679A publication Critical patent/KR20220159679A/en
Application granted granted Critical
Publication of KR102648471B1 publication Critical patent/KR102648471B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 하이브리드 모션 캡쳐 시스템에서 실제 인체 크기와 인체 모델 간의 크기 및 비율을 정합하고, 광학식 위치 추적이 실패할 경우 모션센서 방식의 위치 추적으로 전환하여 인체의 위치를 계속 추적할 수 있도록 하는 하이브리드 모션 캡쳐 위치 전환 방법에 관한 것이다.
본 발명에 따른 하이브리드 모션 캡쳐 위치 전환 방법은 광학식 위치측정을 통하여 인체의 머리에 착용된 강체에 부착된 마커를 촬영하여 위치 이동을 파악하고, 센서식 모션캡쳐를 통해 인체에 부착된 복수의 모션센서의 신호를 분석하여 인체의 움직임을 파악하여, 파악되는 인체의 위치 정보와 움직임 정보를 융합하여 가상 공간의 인체 모델을 구현하는 하이브리드 모션캡쳐 방법에 있어서, 상기 마커를 통해 파악되는 강체의 Z축 위치정보를 이용하여 인체 모델의 크기 및 비율을 실제 인체 크기로 보정하는 단계와; 광학식 위치추적을 통해 인체의 위치를 추적할 수 없는 경우, 포지셔닝 전환을 통해 센서식 모션캡쳐를 통해 획득되는 모션센서 데이터를 이용하여 하지 관절 보행을 통해 인체의 위치 이동을 추적하여, 인체 모델의 위치 이동을 구현하는 단계;를 포함하여 이루어져, 인체 추적에 끊임없는 연속성을 부여할 수 있도록 제공된다.
The present invention is a hybrid motion capture system that matches the size and ratio between the actual human body size and the human body model, and when optical position tracking fails, switches to motion sensor-based position tracking to continuously track the position of the human body. This is about how to switch the capture location.
The hybrid motion capture position switching method according to the present invention captures the position movement by photographing a marker attached to a rigid body worn on the human head through optical position measurement, and uses sensor-type motion capture to detect a plurality of motion sensors attached to the human body. In a hybrid motion capture method that analyzes signals to determine the movement of the human body and fuses the identified human body position information and movement information to implement a human body model in virtual space, the Z-axis position of the rigid body identified through the marker correcting the size and ratio of the human body model to the actual human body size using information; If the position of the human body cannot be tracked through optical position tracking, the position of the human body model is tracked through lower limb joint walking using motion sensor data acquired through sensor-type motion capture through positioning conversion. It includes a step of implementing movement, and is provided to provide uninterrupted continuity in tracking the human body.

Description

가상 소방훈련을 위한 하이브리드 모션 캡쳐 위치 전환 방법 {Hybrid Motion Capture Position Switching Method for Virtual Fire Drill}Hybrid Motion Capture Position Switching Method for Virtual Fire Drill}

본 발명은 하이브리드 모션 캡쳐 위치 전환 방법에 관한 것으로, 보다 상세하게는 하이브리드 모션 캡쳐 시스템에서 실제 인체 크기와 인체 모델 간의 크기 및 비율을 정합하고, 광학식 위치 추적이 실패할 경우 모션센서 방식의 위치 추적으로 전환하여 인체의 위치를 계속 추적할 수 있도록 하는 하이브리드 모션 캡쳐 위치 전환 방법에 관한 것이다.The present invention relates to a hybrid motion capture position switching method. More specifically, in a hybrid motion capture system, the size and ratio between the actual human body size and the human body model are matched, and when optical position tracking fails, motion sensor-based position tracking is used. It relates to a hybrid motion capture position switching method that allows continuous tracking of the position of the human body by switching.

복잡하고 다양해지는 재난 환경 속에서 업무를 수행하는 소방 공무원은 보다 강도가 높은 교육 훈련이 절실해지고 있다. 현재 소방 공무원이 모든 위험한 재난상황을 경험할 수 없기 때문에, 다양한 안전사고 사례나 전술 훈련 등을 통해 현장대응 능력을 향상시키고 있는 실정이다.Firefighting officials who perform their duties in an increasingly complex and diverse disaster environment are increasingly in need of more intensive education and training. Since firefighters are currently unable to experience all dangerous disaster situations, they are improving their on-site response capabilities through various safety accident cases and tactical training.

하지만, 이러한 전통적인 훈련 방법은 장소와 시간의 제약을 많이 받기 때문에 효과적인 훈련이 이루어지기 어려운 한계가 있다. 이에 따라 근래 들어 가상현실 기술을 이용한 훈련 기법이 등장하고 있는데, 가상 훈련 기법은 안전하면서 실제상황을 재연하여 교육 훈련생에게 실제 현장과 같은 느낌을 부여할 수 있어 최근 들어 각광받고 있다.However, these traditional training methods are limited by location and time, making it difficult to achieve effective training. Accordingly, training techniques using virtual reality technology have been emerging in recent years. Virtual training techniques have recently been in the spotlight because they are safe and can recreate real situations to give trainees a feeling of being in the real field.

이러한 가상 훈련을 제공하기 위해서 모션 캡쳐 기술이 이용되는데, 모션 캡쳐 기술은 사람이나 동물 또는 기계 등의 사물에 센서를 부착하여 대상물의 움직임 정보를 재현함으로써 컨텐츠 분야부터 산업과 스포츠 분야에서 다양하게 활용되고 있다. 또한, 실내 공간에 설치한 다중 카메라의 위치 측위 방식과 센서식 움직임 재현방식을 융합하여 회전, 이동 운동 등과 관련된 역학신호를 측정하는 하이브리드 모션 캡처 방식도 근래에 이용되고 있다. 이러한 하이브리드 모션 캡쳐 시스템은 광학식 위치 트레킹 시스템과 센서식 모션캡쳐 장비를 융합하여 넓은 공간에서 다중 사용자의 모션 캡쳐가 가능하다. To provide such virtual training, motion capture technology is used. Motion capture technology attaches sensors to objects such as people, animals, or machines to reproduce the movement information of the object, and is used in a variety of fields from the content field to industry and sports fields. there is. In addition, a hybrid motion capture method that measures dynamic signals related to rotation and movement by combining the positioning method of multiple cameras installed in an indoor space and the sensor-type motion reproduction method has been recently used. This hybrid motion capture system combines an optical position tracking system and sensor-type motion capture equipment to enable motion capture of multiple users in a large space.

하지만, HMD(Head Mounted Display)나 광학식 위치 추적 장비 등을 통한 위치 및 자세정보와 모션센서를 이용한 인체 모션 데이터를 융합하는 과정에서 실제 훈련생의 신체 크기와 가상 캐릭터 간의 크기 차이에서 오차가 발생하게 되는데, 이렇게 발생하는 오차로 인하여 가상의 캐릭터가 공중에 떠있거나 걷기 동작을 할 때 발이 미끄러지는 등 움직임에 부자연스런 현상이 발생하는 문제점이 있었다. However, in the process of fusing position and posture information through HMD (Head Mounted Display) or optical position tracking equipment with human body motion data using motion sensors, errors occur in the size difference between the actual trainee's body size and the virtual character. , Due to these errors, there was a problem in that unnatural phenomena occurred in the movement of the virtual character, such as feet slipping when floating in the air or walking.

또한, 훈련생이 광학식 위치 추적 장비의 감지 영역을 벗어나게 되면 모션 캡쳐 장비만으로는 훈련생의 위치를 추적하기 어려워, 가상 공간에서 훈련생이 사라지거나 멈춰있는 상태가 유지되어 훈련이 원활히 이루어지지 어려운 문제점이 있었다. In addition, when a trainee leaves the detection area of the optical position tracking equipment, it is difficult to track the trainee's location using only motion capture equipment, so the trainee disappears or remains stationary in the virtual space, making it difficult for training to proceed smoothly.

대한민국 등록특허공보 제10-1768958호 (2017.08.10. 등록)Republic of Korea Patent Publication No. 10-1768958 (registered on August 10, 2017) 대한민국 등록특허공보 제10-2188480호 (2020.12.02. 등록)Republic of Korea Patent Publication No. 10-2188480 (registered on December 2, 2020)

본 발명은 종래 가상 훈련 시스템에서 발생하는 문제점을 해결하기 위하여 제안된 것으로서, 본 발명의 목적은 하이브리드 모션 캡쳐 과정에서 실제 인체의 크기에 따라 가상 인체 모델의 크기 및 비율을 정합하고, 가상공간 내의 사용자 위치를 추적하는 과정에서 광학식 위치 추적이 실패할 경우 센서방식의 추적 방법으로 전환하여 인체를 계속 추적할 수 있도록 하는 하이브리드 모션 캡쳐 위치 전환 방법을 제공하는 데 있다. The present invention was proposed to solve problems occurring in conventional virtual training systems. The purpose of the present invention is to match the size and ratio of the virtual human body model according to the size of the actual human body in the hybrid motion capture process and to match the size and ratio of the virtual human body model to the user in the virtual space. The goal is to provide a hybrid motion capture position switching method that allows continuous tracking of the human body by switching to a sensor-based tracking method if optical position tracking fails during the position tracking process.

상기 목적을 달성하기 위한 본 발명에 따른 하이브리드 모션 캡쳐 위치 전환 방법은 광학식 위치측정을 통하여 인체의 머리에 착용된 강체에 부착된 마커를 촬영하여 위치 이동을 파악하고, 센서식 모션캡쳐를 통해 인체에 부착된 복수의 모션센서의 신호를 분석하여 인체의 움직임을 파악하여, 파악되는 인체의 위치 정보와 움직임 정보를 융합하여 가상 공간의 인체 모델을 구현하는 하이브리드 모션캡쳐 방법에 있어서, 상기 마커를 통해 파악되는 강체의 Z축 위치정보를 이용하여 인체 모델의 크기 및 비율을 실제 인체 크기로 보정하는 단계와; 광학식 위치추적을 통해 인체의 위치를 추적할 수 없는 경우, 포지셔닝 전환을 통해 센서식 모션캡쳐를 통해 획득되는 모션센서 데이터를 이용하여 하지 관절 보행을 통해 인체의 위치 이동을 추적하여, 인체 모델의 위치 이동을 구현하는 단계;를 포함한다. In order to achieve the above object, the hybrid motion capture position switching method according to the present invention captures the position movement by photographing a marker attached to a rigid body worn on the human head through optical position measurement, and captures the position of the human body through sensor-type motion capture. A hybrid motion capture method that analyzes signals from a plurality of attached motion sensors to determine the movement of the human body and fuses the location information and movement information of the human body to create a human body model in virtual space, identified through the marker. correcting the size and ratio of the human body model to the actual human body size using the Z-axis position information of the rigid body; If the position of the human body cannot be tracked through optical position tracking, the position of the human body model is tracked through lower limb joint walking using motion sensor data acquired through sensor-type motion capture through positioning conversion. Includes a step of implementing movement.

여기서, 상기 가상 공간 상의 인체 모델의 크기 및 비율은 T-Pose 보정을 통해 인체의 발이 바닥에 닿도록 비율을 늘려주어 인체의 키로 보정하는 것이 바람직하다. Here, it is desirable to correct the size and ratio of the human body model in the virtual space according to the height of the human body by increasing the ratio so that the human body's feet touch the floor through T-Pose correction.

또한, 상기 포지셔닝 전환 시, 광학식 위치추적에 따른 인체 모델의 위치가 모션센서 데이터를 이용한 인체 모델의 위치로 전환되는 경우 발생하는 인체 모델의 낙차를 없애기 위해, 최하단의 인체 오브젝트로부터 머리의 위치를 역산하여 인체 모델의 위치를 변위시키게 된다. In addition, in order to eliminate the fall of the human body model that occurs when the position of the human body model according to optical position tracking is changed to the position of the human body model using motion sensor data when switching the positioning, the position of the head is calculated from the lowest human body object. This displaces the position of the human body model.

이때, 상기 모션센서 데이터를 이용한 인체 모델의 위치 변위시, 인체 모델이 순간적으로 떨리는 현상을 방지하도록 위해 위치 변위에 제한을 두는 것이 바람직하다.At this time, when the human body model is displaced using the motion sensor data, it is desirable to place a limit on the positional displacement to prevent the human body model from momentarily shaking.

한편, 상기 하지 관절 보행을 통해 인체의 위치 이동의 추적은, 인체에서 발목(Ankle) 위치를 찾고, 발목 관절의 위치 변위를 통해 역으로 발목을 기준으로 허리(Hip) 위치를 이동시킴으로써, 인체의 허리 위치 이동에 따른 인체 이동을 구현하여 위치 이동을 추적하게 된다. Meanwhile, the tracking of the positional movement of the human body through the lower limb joint walking is performed by finding the ankle position in the human body and conversely moving the waist position based on the ankle through the positional displacement of the ankle joint. The movement of the human body according to the movement of the waist position is implemented and the movement of the position is tracked.

여기서, 상기 하지 관절 보행을 통해 인체의 위치 이동의 추적은, 인체의 허리(Hip)부터 관절 각도로 연결된 발목(Ankle)의 위치 좌표를 계산하여, 허리(Hip)와 발목(Ankle) 위치 좌표 사이의 방향 벡터를 구하고, 상기 허리(Hip)와 발목(Ankle) 위치 좌표 사이의 방향 벡터를 통하여 매 프레임마다 발목을 기준으로 허리가 움직인 변위를 계산하여 인체 이동을 추적하게 된다. Here, the tracking of the positional movement of the human body through the lower limb joint walking is performed by calculating the position coordinates of the ankle connected to the joint angle from the waist of the human body, and between the position coordinates of the waist (Hip) and the ankle (Ankle). The direction vector of is obtained, and the movement of the human body is tracked by calculating the displacement of the waist relative to the ankle in each frame through the direction vector between the position coordinates of the hip and ankle.

이때, 상기 발목을 기준으로 허리가 움직인 변위를 계산하되, 두 발목 관절의 Z축 위치를 비교하여 가장 아래 있는 발목을 바닥과 붙어있다고 판단하여, 현재 바닥과 붙어있는 발을 기준으로 허리를 이동하고, 바닥에 붙는 발이 스위칭 되면 반대 발을 기준으로 허리의 위치를 이동시킴으로써 걷기를 추적하는 것이 바람직하다.At this time, calculate the displacement of the waist based on the ankle, compare the Z-axis positions of the two ankle joints, determine that the lowest ankle is connected to the floor, and move the waist based on the foot currently attached to the floor. And, when the foot on the floor switches, it is desirable to track the walking by moving the position of the waist based on the opposite foot.

본 발명에 따른 하이브리드 모션 캡쳐 위치 전환 방법은 하이브리드 모션 캡쳐 과정에서 실제 인체의 크기에 따라 가상 인체 모델의 크기 및 비율을 보정하여 정합함으로써, 인체의 움직임에 따라 가상 인체 모델의 움직임이 자연스럽게 이루어질 수 있는 효과가 있다. 또한, 가상공간 내의 인체 위치를 추적하는 과정에서 광학식 위치 추적이 실패할 경우 하지 관절 보행에 따른 센서방식의 추적 방법으로 전환하여 인체를 계속 추적함으로써 인체 추적에 끊임없는 연속성을 부여할 수 있는 효과가 있다. The hybrid motion capture position switching method according to the present invention corrects and matches the size and ratio of the virtual human body model according to the size of the actual human body during the hybrid motion capture process, so that the virtual human body model can move naturally according to the movement of the human body. It works. In addition, if optical position tracking fails in the process of tracking the position of the human body in virtual space, it switches to a sensor-based tracking method according to the lower extremity joint gait and continues to track the human body, which has the effect of giving continuous continuity to human body tracking. there is.

도 1은 적용되는 하이브리드 모션캡쳐 시스템의 개념도,
도 2는 본 발명에 따른 모션센서의 설치 일례,
도 3은 본 발명에 따른 하이브리드 모션 캡쳐 알고리즘의 개념도,
도 4는 본 발명에 따른 T-Pose 보정을 통해 3D 인체 모델의 사이즈가 조정될 일례,
도 5는 본 발명에 따른 하지 관절 보행 알고리즘의 개념도,
도 6은 본 발명에 따른 보행 중 허리와 발목의 위치 관계를 나타낸 일례,
도 7은 본 발명에 따른 하이브리드 모션 캡쳐 위치 전환 과정을 나타낸 순서도,
도 8은 본 발명에 따른 하이브리드 모션 캡쳐 위치 전환 과정에서 인체의 위치 이동 경로 일례,
도 9는 본 발명에 따른 포지셔닝 변환 시에 발생하는 인체 모델의 낙차 일례,
도 10은 본 발명에 따른 인체 모델의 포지셔닝 변경 후의 처리 결과 일례,
도 11은 본 발명에 따른 하이브리드 모션 캡쳐 위치 전환 방법의 성능 검사를 위한 실험 환경 일례,
도 12 및 도 13은 본 발명에 따른 사용자가 룸 1에서 이동할 때 사용자 정합 여부를 실험한 결과 일례를 나타낸 것이다.
1 is a conceptual diagram of an applied hybrid motion capture system;
Figure 2 is an example of installation of a motion sensor according to the present invention;
3 is a conceptual diagram of a hybrid motion capture algorithm according to the present invention;
Figure 4 is an example of the size of a 3D human body model being adjusted through T-Pose correction according to the present invention,
5 is a conceptual diagram of the lower limb joint walking algorithm according to the present invention;
Figure 6 is an example showing the positional relationship between the waist and ankles while walking according to the present invention;
Figure 7 is a flowchart showing the hybrid motion capture position switching process according to the present invention;
Figure 8 is an example of the position movement path of the human body during the hybrid motion capture position change process according to the present invention;
Figure 9 is an example of the fall of the human body model that occurs during positioning conversion according to the present invention;
Figure 10 is an example of the processing result after changing the positioning of the human body model according to the present invention;
Figure 11 is an example of an experimental environment for testing the performance of the hybrid motion capture position switching method according to the present invention;
Figures 12 and 13 show an example of the results of an experiment to determine whether users match when a user moves in room 1 according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명에 적용되는 하이브리드 모션캡쳐 시스템의 개념도를 나타낸 것으로, 본 발명은 본 출원인에 의해 등록된 특허 제10-1768958호의 내용을 포함한다. Figure 1 shows a conceptual diagram of a hybrid motion capture system applied to the present invention, and the present invention includes the contents of Patent No. 10-1768958 registered by the present applicant.

도 1에 도시된 바와 같이, 본 발명에 적용된 하이브리드 모션캡쳐 시스템은 센서식 모션캡쳐(Motionsensor Mocap system)를 통해 인체가 착용하는 장비에 부착된 모션센서의 신호를 분석하여 인체의 3차원 움직임(모션)을 파악하고, 광학식 위치측정(Optical position system)을 통하여 인체가 착용하는 장비에 부착된 마커를 촬영하고 분석하여 위치 이동을 파악하며, 이렇게 파악되는 인체 3차원 움직임 정보와 인체의 위치 이동 정보를 융합하여 정밀한 모션캡쳐를 수행하게 된다. 또한, 하이브리드 모션캡쳐 시스템은 인체의 3차원 움직임 정보와 위치 이동 정보가 융합된 가상 인체 모델 데이터를 모니터링 프로그램을 통해 실시간으로 화면에 표시하며, 이를 플러그인을 통해 모션빌더(Motion Builder) 등의 프로그램과 연동시킬 수 있도록 제공한다. As shown in Figure 1, the hybrid motion capture system applied to the present invention analyzes the signal of a motion sensor attached to equipment worn by the human body through a sensor-type motion capture (Motionsensor Mocap system) to capture the three-dimensional movement (motion) of the human body. ), and through an optical position measurement (Optical position system), the marker attached to the equipment worn by the human body is photographed and analyzed to determine the positional movement, and the 3D movement information of the human body and the positional movement information of the human body are Through fusion, precise motion capture is performed. In addition, the hybrid motion capture system displays virtual human body model data that combines 3D movement information and positional movement information of the human body on the screen in real time through a monitoring program, and can be used with programs such as Motion Builder through plug-ins. Provided so that it can be linked.

한편, 하이브리드 모션 캡쳐 시스템에서 인체의 움직임을 파악하기 위해 사용자가 착용되는 모션센서로 HMD(Head Mounted Display), 장갑, 신발 등 다양한 장비가 이용될 수 있다. 도 2는 본 발명의 실시 예에 따른 모션센서의 설치 일례를 나타낸 것으로, 본 발명의 실시 예에서는 복수의 모션센서(S)를 인체의 관절 부위에 부착하여 인체의 움직임을 파악할 수 있도록 하는데, 이 모션센서(S)에는 각각 고유의 ID가 부여되어 어느 관절에서 측정한 신호인지를 구별할 수 있도록 하였다. Meanwhile, in a hybrid motion capture system, various equipment such as HMD (Head Mounted Display), gloves, and shoes can be used as motion sensors worn by the user to identify human body movements. Figure 2 shows an example of the installation of a motion sensor according to an embodiment of the present invention. In the embodiment of the present invention, a plurality of motion sensors (S) are attached to the joints of the human body to identify the movement of the human body. Each motion sensor (S) is given a unique ID to distinguish which joint the signal was measured from.

또한, 인체의 머리 부위에 카메라로 인식 가능한 비젼 마커(M)를 부착하고 이를 광학식 카메라(C)로 촬영하여 마커(M)의 위치 이동을 파악할 수 있도록 하였다. 본 발명의 실시 예에서 상기 마커(M)는 인체의 머리 부위에 부착된 모션센서(S)에 부착되어 인체의 위치 이동 기준점을 제공하게 된다. In addition, a vision marker (M) that can be recognized by a camera was attached to the head of the human body and photographed with an optical camera (C) to determine the movement of the marker (M). In an embodiment of the present invention, the marker (M) is attached to the motion sensor (S) attached to the head of the human body to provide a reference point for movement of the human body.

도 3은 본 발명의 실시 예에 따른 하이브리드 모션 캡쳐 알고리즘의 개념도를 나타낸 것이다. Figure 3 shows a conceptual diagram of a hybrid motion capture algorithm according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명에 따른 하이브리드 모션 캡쳐 시스템은 광학식 위치측정을 통하여 획득되는 위치 데이터와 센서식 모션캡쳐를 통해 획득되는 전신 모션 센서 데이터를 융합한 것으로, 광학식 위치측정과 센서식 모션캡쳐의 장점을 결합하여, 사용자의 위치 및 움직임을 함께 추적할 수 있도록 한 것이다.As shown in Figure 3, the hybrid motion capture system according to the present invention is a fusion of position data acquired through optical position measurement and full body motion sensor data acquired through sensor-type motion capture, and combines optical position measurement and sensor-type motion sensor data. By combining the advantages of motion capture, the user's location and movement can be tracked.

이때, 하이브리드 모션 캡쳐 알고리즘은 모션 센서를 이용해서 허리(Hip)를 기준으로 인체 모션 캡쳐를 수행하게 되는데, 이 모션 데이터는 움직임 정보가 없게 때문에 광학식 위치 추적을 모션 데이터의 머리(Head)에 인가하여 3차원 공간에서 사람이 이동할 수 있도록 한다. At this time, the hybrid motion capture algorithm uses a motion sensor to capture human body motion based on the hip. Since this motion data has no movement information, optical position tracking is applied to the head of the motion data. It allows people to move in three-dimensional space.

또한, 인체에 부착된 강체(Rigid-Body)의 위치 추정 정확도를 높이기 위해 T-Pose 보정(T-Pose Calibration)을 하게 되는데, 이 T-Pose 보정은 가상 현실 속의 인체 모델의 사이즈를 강체의 Z축 위치 정보를 이용하여 보정하게 된다. 만약, 인체 모델에 대한 데이터 가공 없이 인체 모델의 머리를 강체에서 추적된 위치로 옮겼을 시, 사람과 인체 모델 간의 키 차이로 인해 발이 지면 아래로 들어가거나 지면 위로 솟아오른 것처럼 보이게 된다. 이에 따라, 본 발명에서는 T-Pose 보정시 인체의 비율을 바닥에 닿도록 늘여주어 실제 사람의 키와 유사한 가상 인체 모델로 재조정할 수 있도록 한다. 즉, T-Pose 보정은 인체가 직립된 상태에서 두 팔을 벌리고 있는 자세(T 자세)에서, 인체 모델의 크기 및 비율을 강체의 Z축 정보를 이용하여 인체에 맞추어 정합하는 과정을 의미한다. 도 4는 이러한 T-Pose 보정을 통해 3D 인체 모델의 사이즈가 조정될 일례를 나타낸 것이다. In addition, T-Pose Calibration is performed to increase the accuracy of position estimation of the rigid-body attached to the human body. This T-Pose calibration changes the size of the human body model in virtual reality to the Z of the rigid body. Correction is made using axis position information. If the head of the human body model is moved from the rigid body to the tracked position without data processing for the human body model, the feet appear to be under the ground or raised above the ground due to the height difference between the person and the human body model. Accordingly, in the present invention, when correcting the T-Pose, the proportions of the human body are increased to reach the floor, so that it can be readjusted into a virtual human body model similar to the height of an actual person. In other words, T-Pose correction refers to the process of matching the size and ratio of the human body model to the human body using the Z-axis information of the rigid body in a posture in which the human body is upright and arms open (T posture). Figure 4 shows an example in which the size of the 3D human body model is adjusted through such T-Pose correction.

한편, 모션 센서 데이터만을 이용하여 인체 움직임을 재현하게 되면, 인체 모델의 이동이 가능하지 않기 때문에 허리(Hip)의 위치가 고정된 상태에서 걷기 모션을 재현하는데 한계가 발생한다. 본 발명에서는 광학식 위치 추적인 불가능한 경우에도, 모션 센서 데이터를 이용하여 인체 이동을 추적할 수 있도록 하기 위해, 인체의 하지 관절의 보행 동작 분석을 통해 걷기 동작을 위한 알고리즘을 구현하고 있다. On the other hand, if the human body movement is reproduced using only motion sensor data, there are limitations in reproducing the walking motion with the position of the waist fixed because the human body model cannot be moved. In the present invention, an algorithm for walking motion is implemented by analyzing the walking motion of the lower extremity joints of the human body in order to be able to track human body movement using motion sensor data even when optical position tracking is not possible.

즉, 인체 하지 관절의 간략화를 통해 발목 관절의 지점을 이용한 하지 관절 보행 알고리즘을 구현하였는데, 도 5는 본 발명의 실시 예에 따른 하지 관절 보행 알고리즘의 개념도를 나타낸 것이다. That is, a lower limb joint walking algorithm using the ankle joint point was implemented by simplifying the human lower limb joints. Figure 5 shows a conceptual diagram of the lower limb joint walking algorithm according to an embodiment of the present invention.

센서식 모션캡쳐에서 이루어지는 제자리에서의 모션 캡쳐는 허리(Hip)의 위치가 고정되어 있고 다른 부위는 모션 센서로 인해 자유로이 움직임을 표현할 수 있는데, 하지 관절 보행 알고리즘은 우선 허리(Hip)부터 관절 각도로 연결되어 계산된 발목(Ankle)의 위치 좌표 사이의 방향 벡터를 구하게 된다. 도 6은 보행 중 하지 관절, 즉 허리와 발목의 위치 관계를 나타낸 것이다. In the in-place motion capture performed in sensor-type motion capture, the position of the waist (hip) is fixed, and other parts can freely express movement due to the motion sensor, but the lower limb joint walking algorithm first starts from the waist (hip) and joint angles. The direction vector between the calculated ankle position coordinates is obtained. Figure 6 shows the positional relationship between lower extremity joints, that is, the waist and ankles, during walking.

현재 프레임에서 이전 프레임의 계산된 방향 벡터의 차이는 허리(Hip) 위치를 기준으로는 발목(Ankle)이 이동한 변위량을 의미하며, 이를 역으로 생각하면 발목을 고정시켜 고정된 발목을 기준으로 허리가 이동한 변위가 된다. 따라서, 매 프레임마다 발목을 기준으로 허리가 움직인 변위를 계산하여 인체의 이동을 구현하여 추적하게 된다. 이때, 두 발목 관절의 Z축 위치를 비교하여 가장 아래 있는 발목을 바닥과 붙어있다고 판단하여, 현재 바닥과 붙어있는 발을 기준으로 허리를 이동하다가 바닥에 붙는 발이 스위칭 되면 반대 발을 기준으로 허리의 위치를 이동시킴으로써 인체의 걷기를 수행하게 된다.The difference between the calculated direction vector of the current frame and the previous frame means the amount of displacement of the ankle based on the hip position. If you think of this inversely, the ankle is fixed and the waist is moved based on the fixed ankle. becomes the displacement. Therefore, the movement of the human body is realized and tracked by calculating the displacement of the waist based on the ankle in each frame. At this time, by comparing the Z-axis positions of the two ankle joints, it is determined that the lowermost ankle is connected to the floor, and the waist is moved based on the foot currently attached to the floor. When the foot attached to the floor is switched, the waist is moved based on the opposite foot. By moving the position, the human body walks.

이와 같이, 본 발명에서는 인체의 광학식 위치 추적이 불가능한 경우, 하지 관절 보행 알고리즘에 따라 골격 구조를 재구성하기 위해 가장 낮은 발목 위치를 찾고, 발목 관절의 위치 변위를 통해 허리 위치를 이동시킴으로써 인체 이동을 구현하여 위치 추적을 할 수 있게 된다. As such, in the present invention, when optical position tracking of the human body is not possible, the lowest ankle position is found to reconstruct the skeletal structure according to the lower limb joint walking algorithm, and human body movement is realized by moving the waist position through the position displacement of the ankle joint. This allows location tracking.

이하에서는, 본 발명의 하지 관절 보행 알고리즘을 이용한 하이브리드 모션 캡쳐 위치 전환이 이루어지는 과정에 대하여 설명하기로 한다. Below, the process of hybrid motion capture position switching using the lower limb joint walking algorithm of the present invention will be described.

도 7은 본 발명의 실시 예에 따른 하이브리드 모션 캡쳐 위치 전환 과정을 나타낸 순서도이고, 도 8은 하이브리드 모션 캡쳐 위치 전환 과정에서 인체의 위치 이동 경로 일례를 나타낸 것이다. Figure 7 is a flowchart showing a hybrid motion capture position switching process according to an embodiment of the present invention, and Figure 8 shows an example of a position movement path of the human body in the hybrid motion capture position switching process.

단계 S100 : 먼저, 광학식 위치추적과 센서식 모션캡쳐가 원활히 이루어지는 경우, 하이브리드 모션캡쳐 시스템은 광학식 위치측정을 통하여 획득되는 위치 데이터와 센서식 모션캡쳐를 통해 획득되는 모션센서 데이터를 융합하여 인체의 위치 및 움직임을 추적하고, 이를 T-Pose 보정을 통해 크기 및 비율이 조정된 인체 모델에 적용하여 가상 공간에서 인체 모델의 위치 및 움직임을 구현하게 된다. Step S100: First, when optical position tracking and sensor-type motion capture are performed smoothly, the hybrid motion capture system positions the human body by fusing position data acquired through optical position measurement and motion sensor data acquired through sensor-type motion capture. and movement are tracked and applied to the human body model whose size and ratio have been adjusted through T-Pose correction to realize the position and movement of the human body model in virtual space.

단계 S110, S120 : 하이브리드 모션 캡쳐를 통해 인체의 위치 및 움직임을 추적하다가, 인체가 광학식 카메라 영역을 벗어났거나 다른 물체 등에 의해 차폐되어 광학식 위치 추적에 실패하게 되면(S110), 하이브리드 모션캡쳐 시스템은 센서식 모션캡쳐를 통해 획득되는 모션센서 데이터를 통한 인체 위치 추적으로 포지셔닝을 전환하게 된다(S120).Steps S110, S120: While tracking the position and movement of the human body through hybrid motion capture, if the human body leaves the optical camera area or is blocked by other objects and optical position tracking fails (S110), the hybrid motion capture system Positioning is converted to human body position tracking through motion sensor data acquired through sensor-type motion capture (S120).

단계 S130 : 한편, T-Pose 보정을 통해 인체와 모델 간 비율 조정을 수행하였어도, 광학식 위치추적에 따른 인체 모델의 위치와 모션센서 데이터를 이용한 인체 모델의 위치 차이로 두 개의 위치정보의 전환시 순간적으로 인체 모델이 위아래로 떨리는 현상이 발생할 수 있다. 즉, 광학식 위치추적시 인체의 머리 위치정보를 이용한 인체 모델과 모션센서 데이터를 이용한 인체 모델은 인체 비율 차이로 인해 높이 오차(낙차)가 발생할 수 있다. 도 9는 이러한 포지셔닝 변환시에 발생하는 인체 모델의 낙차 일례를 나타낸 것으로, 본 발명에서는 이러한 낙차를 없애기 위해 모션센서 데이터를 통한 포지셔닝 전환 시, 최하단의 인체 오브젝트로부터 머리의 위치를 역산하여 인체 모델을 위치를 변경시키게 된다. 이때, 모델의 위치 변위에 제한을 두어 프레임이 떨리는 현상을 방지하게 되는데, 도 10은 인체 모델의 포지셔닝 변경 후의 처리 결과 일례를 나타낸 것이다. Step S130: On the other hand, even if the ratio between the human body and the model is adjusted through T-Pose correction, the difference between the position of the human body model according to optical position tracking and the position of the human body model using motion sensor data causes an instantaneous change in the two position information. This may cause the human body model to tremble up and down. In other words, during optical position tracking, a height error (fall) may occur between a human body model using head position information and a human body model using motion sensor data due to differences in human body proportions. Figure 9 shows an example of the fall of the human body model that occurs during such a positioning change. In the present invention, in order to eliminate this fall, when changing the positioning through motion sensor data, the position of the head is inverted from the lowest human body object to position the human body model. will change. At this time, the positional displacement of the model is limited to prevent the frame from shaking. Figure 10 shows an example of the processing results after changing the positioning of the human body model.

단계 S140 : 상기 과정을 통해 인체 모델의 위치가 조정되면, 하이브리드 모션캡쳐 시스템은 하지 관절 보행 알고리즘에 따라 센서식 모션캡쳐에 의해 획득되는 모션센서 데이터를 이용하여 인체의 위치를 추적하게 된다. Step S140: When the position of the human body model is adjusted through the above process, the hybrid motion capture system tracks the position of the human body using motion sensor data acquired by sensor-type motion capture according to the lower limb joint walking algorithm.

단계 S150, S160 : 하지 관전 보행 알고리즘에 따라 인체의 위치가 추적되는 도중, 사용자가 광학식 카메라의 영역으로 복귀하게 되면(S150), 다시 광학식 위치 추적 방식으로 돌아가 인체의 위치를 추적하게 된다. 이러한 하이브리드 모션캡쳐 시스템을 통한 인체 위치 및 움직임 추적 과정은 시스템이 종료될 때까지 반복하여 진행된다(S160). Steps S150, S160: While the position of the human body is being tracked according to the lower extremity observation walking algorithm, when the user returns to the area of the optical camera (S150), the user returns to the optical position tracking method to track the position of the human body. The process of tracking human body position and movement through this hybrid motion capture system is repeated until the system is terminated (S160).

이하에서는 본 발명에 따른 하이브리드 모션 캡쳐 위치 전환 방법의 성능에 대해 검증해보기로 한다. Below, we will verify the performance of the hybrid motion capture position switching method according to the present invention.

도 11은 하이브리드 모션 캡쳐 위치 전환 방법의 성능 검사를 위한 실험 환경 일례를 나타낸 것이다. 도 11에서와 같이, 광학식 카메라의 사각 지대를 지날 때의 하이브리드 모션 캡처 위치 전환의 시험을 위해 2개의 공간에 개별적으로 8대의 카메라를 설치하였으며, 실험을 위해 액티브 마커를 부착한 안전모와 모션 센서를 부착한 사용자가 실험 공간을 이동하도록 실험 환경을 구성하였다. 실험 환경에서 사용자를 비치하였을 때 가상 캐릭터(인체 모델)와 1대1 매칭이 되도록 셋업(Set-up) 구성된다.Figure 11 shows an example of an experimental environment for testing the performance of the hybrid motion capture position switching method. As shown in Figure 11, eight cameras were individually installed in two spaces to test hybrid motion capture position switching when passing through the blind spot of an optical camera, and for the experiment, a hard hat with an active marker attached and a motion sensor were installed. The experimental environment was configured so that the attached user could move around the experimental space. When a user is placed in an experimental environment, it is set up so that there is one-to-one matching with the virtual character (human body model).

도 12 및 도 13은 사용자가 룸 1에서 이동할 때 사용자 정합 여부를 실험한 결과 일례이다. 도 12에서 광학식 카메라가 사용자가 착용한 안전모를 인지하지 못할 때, 하이브리드 모션 캡쳐 위치 전환 방법에 따라 모션 센서를 통한 하지 관절 보행 알고리즘으로 전환되어 가상 공간을 이동하는 실험을 수행하였다. 이 상황은 카메라 범위 밖으로 빠져나온 상황으로서, 무리 없이 모션센서 데이터 기반의 포지셔닝으로 전환됨을 확인할 수 있다. 또한, 룸 1 카메라 인식 범위 내에 실험자가 룸 2로 넘어가기 위한 준비 과정으로서 카메라를 통해 이동이 수행되고 있음을 확인할 수 있다. 또한, 도 13에서, 룸 1 카메라 인식 범위를 넘어선 사각 지역에서 무리 없이 모션 데이터 기반의 위치로 전환되고 있음을 확인할 수 있다. Figures 12 and 13 are examples of the results of an experiment on whether users match when the user moves in Room 1. In Figure 12, when the optical camera did not recognize the safety helmet worn by the user, an experiment was conducted to move in virtual space by switching to a lower limb joint walking algorithm using a motion sensor according to the hybrid motion capture position switching method. This situation is outside the camera range, and it can be confirmed that the positioning is switched to motion sensor data-based positioning without difficulty. In addition, it can be confirmed that the experimenter is moving within the camera recognition range of Room 1 through the camera as a preparation process for moving to Room 2. Additionally, in Figure 13, it can be seen that the blind area beyond the room 1 camera recognition range is being converted to a motion data-based position without difficulty.

이와 같이, 본 발명에 따른 하이브리드 모션 캡쳐 위치 전환 방법은 광학식 위치 추적이 감지되는 영역에서는 광학식 방식을 사용하여 인체의 이동을 추적하게 되며, 광학식 위치 추적이 감지가 되지 않으면 하지 관절 보행 알고리즘을 통해 인체의 이동을 추적하게 되며, 이에 따라 모션 캡쳐 공간 내부뿐만 아니라 잠시 외부를 나갔다 들어오게 되더라도 끊김 없이 모션 캡쳐가 가능하게 된다. As such, the hybrid motion capture position switching method according to the present invention uses an optical method to track the movement of the human body in areas where optical position tracking is detected, and when optical position tracking is not detected, the human body is used through a lower limb joint walking algorithm. The movement of the device is tracked, allowing seamless motion capture not only inside the motion capture space but also when leaving and entering the space for a short period of time.

이러한 본 발명은 상술한 실시 예에 한정되는 것은 아니며 본 발명이 속하는 기술 분야에서 통상의 지식을 갖는 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구 범위의 균등범위 내에서 다양한 수정 및 변형이 이루어질 수 있음은 물론이다. The present invention is not limited to the above-described embodiments, and various modifications and variations can be made by those skilled in the art to which the present invention pertains, within the scope of equivalency of the technical idea of the present invention and the scope of the claims described below. Of course, this can be achieved.

Claims (7)

광학식 위치측정을 통하여 인체의 머리에 착용된 강체에 부착된 마커를 촬영하여 위치 이동을 파악하고, 센서식 모션캡쳐를 통해 인체에 부착된 복수의 모션센서의 신호를 분석하여 인체의 움직임을 파악하여, 파악되는 인체의 위치 정보와 움직임 정보를 융합하여 가상 공간의 인체 모델을 구현하는 하이브리드 모션캡쳐 방법에 있어서,
(a) 상기 마커를 통해 파악되는 강체의 Z축 위치정보를 이용하여 인체 모델의 크기 및 비율을 실제 인체 크기로 보정하는 단계; (b) 광학식 위치추적을 통해 인체의 위치를 추적할 수 없는 경우, 포지셔닝 전환을 통해 센서식 모션캡쳐를 통해 획득되는 모션센서 데이터를 이용하여 하지 관절 보행을 통해 인체의 위치 이동을 추적하여, 인체 모델의 위치 이동을 구현하는 단계;를 포함하며,
상기 (a) 단계에서, 가상 공간 상의 인체 모델의 크기 및 비율은 T-Pose 보정을 통해 인체의 발이 바닥에 닿도록 비율을 늘려주어 인체의 키로 보정하며,
상기 (b) 단계에서, 상기 포지셔닝 전환 시, 광학식 위치추적에 따른 인체 모델의 위치가 모션센서 데이터를 이용한 인체 모델의 위치로 전환되는 경우 발생하는 인체 모델의 낙차를 없애기 위해 최하단의 인체 오브젝트로부터 머리의 위치를 역산하여 인체 모델의 위치를 변위시키되, 인체 모델의 위치 변위시 인체 모델이 순간적으로 떨리는 현상을 방지하도록 위해 위치 변위에 제한을 두며,
상기 하지 관절 보행을 통해 인체의 위치 이동의 추적은, 인체에서 발목(Ankle) 위치를 찾고, 발목 관절의 위치 변위를 통해 역으로 발목을 기준으로 허리(Hip) 위치를 이동시킴으로써, 인체의 허리 위치 이동에 따른 인체 이동을 구현하여 위치 이동을 추적하며 인체의 허리(Hip)부터 관절 각도로 연결된 발목(Ankle)의 위치 좌표를 계산하여 허리(Hip)와 발목(Ankle) 위치 좌표 사이의 방향 벡터를 구하고, 상기 허리(Hip)와 발목(Ankle) 위치 좌표 사이의 방향 벡터를 통하여 매 프레임마다 발목을 기준으로 허리가 움직인 변위를 계산하여 인체 이동을 추적하는 것을 특징으로 하는 하이브리드 모션 캡쳐 위치 전환 방법.
Through optical position measurement, position movement is identified by photographing a marker attached to a rigid body worn on the human head, and through sensor-type motion capture, signals from multiple motion sensors attached to the human body are analyzed to determine the movement of the human body. , In a hybrid motion capture method that implements a human body model in virtual space by fusing the known position information and movement information of the human body,
(a) correcting the size and ratio of the human body model to the actual human body size using the Z-axis position information of the rigid body identified through the marker; (b) If the position of the human body cannot be tracked through optical position tracking, the position movement of the human body is tracked through lower limb joint walking using motion sensor data acquired through sensor-type motion capture through positioning conversion. It includes implementing a position movement of the model,
In step (a), the size and ratio of the human body model in virtual space are corrected by the height of the human body by increasing the ratio so that the human body's feet touch the floor through T-Pose correction,
In step (b), in order to eliminate the fall of the human body model that occurs when the position of the human body model according to optical position tracking is switched to the position of the human body model using motion sensor data when switching the positioning, the head is moved from the lowest human body object. The position of the human body model is displaced by inverting the position of the human body model, but a limit is placed on the positional displacement to prevent the human body model from momentarily shaking when the human body model's position is displaced.
The tracking of the positional movement of the human body through the lower limb joint walking is performed by finding the ankle position in the human body and conversely moving the waist position based on the ankle through the positional displacement of the ankle joint. It tracks the position movement by implementing the movement of the human body according to the movement, and calculates the position coordinates of the ankle connected to the joint angle from the human body's hip to determine the direction vector between the position coordinates of the hip and ankle. A hybrid motion capture position switching method characterized by tracking the movement of the human body by calculating the displacement of the waist based on the ankle every frame through the direction vector between the position coordinates of the hip and ankle. .
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 발목을 기준으로 허리가 움직인 변위를 계산하되,
두 발목 관절의 Z축 위치를 비교하여 가장 아래 있는 발목을 바닥과 붙어있다고 판단하여, 현재 바닥과 붙어있는 발을 기준으로 허리를 이동하고, 바닥에 붙는 발이 스위칭 되면 반대 발을 기준으로 허리의 위치를 이동시킴으로써 걷기를 추적하는 것을 특징으로 하는 하이브리드 모션 캡쳐 위치 전환 방법.
According to clause 1,
Calculate the displacement of the waist based on the ankle,
By comparing the Z-axis positions of the two ankle joints, it is determined that the lowest ankle is connected to the floor, and the waist is moved based on the foot currently connected to the floor. When the foot connected to the floor is switched, the waist is positioned based on the opposite foot. A hybrid motion capture position switching method characterized by tracking walking by moving .
KR1020210067581A 2021-05-26 2021-05-26 Hybrid Motion Capture Position Switching Method for Virtual Fire Drill KR102648471B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210067581A KR102648471B1 (en) 2021-05-26 2021-05-26 Hybrid Motion Capture Position Switching Method for Virtual Fire Drill

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210067581A KR102648471B1 (en) 2021-05-26 2021-05-26 Hybrid Motion Capture Position Switching Method for Virtual Fire Drill

Publications (2)

Publication Number Publication Date
KR20220159679A KR20220159679A (en) 2022-12-05
KR102648471B1 true KR102648471B1 (en) 2024-03-18

Family

ID=84391854

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210067581A KR102648471B1 (en) 2021-05-26 2021-05-26 Hybrid Motion Capture Position Switching Method for Virtual Fire Drill

Country Status (1)

Country Link
KR (1) KR102648471B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013075042A (en) * 2011-09-30 2013-04-25 Equos Research Co Ltd Leg joint angle measuring apparatus, walking assist device, and leg joint angle measuring method
KR101768958B1 (en) * 2016-10-31 2017-08-17 (주)코어센스 Hybird motion capture system for manufacturing high quality contents
JP2021507355A (en) * 2017-12-14 2021-02-22 マジック リープ, インコーポレイテッドMagic Leap,Inc. Virtual avatar context-based rendering

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102026382B1 (en) * 2014-03-31 2019-09-30 한국전자통신연구원 System and method for motion estimation
KR102188480B1 (en) 2018-11-29 2020-12-08 (주)코어센스 Apparatus for tracking position based optical position tracking system and method thereof
KR102229070B1 (en) * 2018-12-06 2021-03-18 (주)코어센스 Motion capture apparatus based sensor type motion capture system and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013075042A (en) * 2011-09-30 2013-04-25 Equos Research Co Ltd Leg joint angle measuring apparatus, walking assist device, and leg joint angle measuring method
KR101768958B1 (en) * 2016-10-31 2017-08-17 (주)코어센스 Hybird motion capture system for manufacturing high quality contents
JP2021507355A (en) * 2017-12-14 2021-02-22 マジック リープ, インコーポレイテッドMagic Leap,Inc. Virtual avatar context-based rendering

Also Published As

Publication number Publication date
KR20220159679A (en) 2022-12-05

Similar Documents

Publication Publication Date Title
CN102323854B (en) Human motion capture device
WO2012039467A1 (en) Exercise assistance system
US20070098250A1 (en) Man-machine interface based on 3-D positions of the human body
US20100194879A1 (en) Object motion capturing system and method
US20020089506A1 (en) User control of simulated locomotion
US20050009605A1 (en) Image-based control of video games
TWI715903B (en) Motion tracking system and method thereof
CN107281728B (en) Sensor-matched augmented reality skiing auxiliary training system and method
WO2019014238A1 (en) Systems and methods for tracking body movement
JP2023501079A (en) Co-located Pose Estimation in a Shared Artificial Reality Environment
JPWO2012039467A1 (en) Exercise support system
KR20180129140A (en) Method of user mosion analyzing for virtual reality connection, method and device for virtual reality connection
Wei et al. Experimental study of skeleton tracking abilities from microsoft kinect non-frontal views
Li et al. Visual–inertial fusion-based human pose estimation: A review
KR20160089791A (en) System and method for recognizing gait phase
WO2019021018A1 (en) Positioning system
CN112256125B (en) Laser-based large-space positioning and optical-inertial-motion complementary motion capture system and method
KR102648471B1 (en) Hybrid Motion Capture Position Switching Method for Virtual Fire Drill
Jung et al. Realization of a hybrid human motion capture system
CN110559639A (en) Robot teaching method for gymnastics movement
KR102478415B1 (en) Method for Estimating 3D Position Using Cross Covariance
TR201614631A1 (en) A VIRTUAL REALITY MOVEMENT PLATFORM
Chen et al. Motion tracking of both hands with occasional mutual occlusion using RGB-D camera and IMU
CN115457440A (en) Monocular video-based method for evaluating skiing gyration level
Cheng et al. Capturing human motion in natural environments

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20210526

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230921

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240226

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240313

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240313

End annual number: 3

Start annual number: 1

PG1601 Publication of registration