KR20150073754A - 동작 훈련 장치 및 동작 훈련 방법 - Google Patents

동작 훈련 장치 및 동작 훈련 방법 Download PDF

Info

Publication number
KR20150073754A
KR20150073754A KR1020130161798A KR20130161798A KR20150073754A KR 20150073754 A KR20150073754 A KR 20150073754A KR 1020130161798 A KR1020130161798 A KR 1020130161798A KR 20130161798 A KR20130161798 A KR 20130161798A KR 20150073754 A KR20150073754 A KR 20150073754A
Authority
KR
South Korea
Prior art keywords
virtual model
user
half mirror
joint
actual
Prior art date
Application number
KR1020130161798A
Other languages
English (en)
Inventor
정순기
곽윤석
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020130161798A priority Critical patent/KR20150073754A/ko
Publication of KR20150073754A publication Critical patent/KR20150073754A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

동작 훈련 방법이 개시된다. 본 발명의 일 실시에에 따른 동작 훈련 방법은하프 미러(Half Mirror)에 투영되는 사용자의 실제 동작을 표시하는 단계, 사용자의 동작을 탐지하는 단계, 탐지된 사용자의 동작을 제1 가상 모델의 동작으로 변환하는 단계, 제1 가상 모델의 동작 및 기저장된 제2 가상 모델의 동작을 중첩하여 표시하는 단계, 및 제1 가상 모델의 동작과 제2 가상 모델의 동작 간 유사도를 판단하는 단계를 포함한다.

Description

동작 훈련 장치 및 동작 훈련 방법{MOTION TRAINING APPARATUS AND METHOD FOR THEREOF}
본 발명은 동작 훈련 장치 및 동작 훈련 방법에 관한 것으로, 보다 상세하게는 동작 훈련자에게 자신의 동작과 트레이너의 동작을 겹치게 보여주어 두 동작 간의 비교·확인을 용이하게 할 수 있는 동작 훈련 장치 및 동작 훈련 방법에 관한 것이다.
특정 동작에 대한 반복 훈련은 재활 훈련, 피트니스, 스포츠, 에듀테인먼트 등에서 훈련자가 원하는 효과를 달성하기 위해 수행되었다. 또한, 이러한 동작 훈련을 통한 효과를 극대화하기 위해서는 정확한 동작을 기초로 반복 훈련을 하는 것이 중요하였다.
이와 같이 정확한 동작을 기초로 반복 훈련을 하기 위해서는 전문 트레이너와 같은 전문가들의 도움을 받아야 하며, 그에 따라 많은 비용과 시간이 소모된다는 문제점이 있었다.
이러한 문제를 해결하기 위한 대처 방안으로, 훈련자는 트레이너가 하는 실제 동작을 보고 따라하거나, 트레이너 동작을 촬영한 영상을 따라하면서 훈련하는 것이 일반적이었다.
그러나, 이와 같이 단순하게 트레이너의 동작을 따라하는 것만으로는 정확한 동작을 수행하고 있는지 파악하기 어렵고, 트레이너의 도움없이 혼자 훈련을 수행하는 경우 훈련 효과를 극대화할 수 없다는 문제가 있었다.
따라서, 트레이너의 도움이 없이도 정확한 동작으로 훈련을 수행할 수 있는 동작 훈련 장치 및 그 훈련 방법의 필요성이 대두되었다.
본 발명은 상술한 문제를 해결하기 위한 것으로, 디스플레이 화면에 표시되는 증강현실 기술을 이용하여 훈련자 자신의 동작과 트레이너의 동작을 함께 보여줌으로써 두 동작 간의 비교·확인을 용이하게 하는 동작 훈련 장치 및 그 방법을 제공하는데 있다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 문제점을 해결하기 위한 본 발명의 일 실시 예에 따른 동작 훈련 방법은, 하프 미러(Half Mirror)에 투영되는 상기 사용자의 실제 동작을 표시하는 단계; 사용자의 동작을 탐지하는 단계; 상기 탐지된 사용자의 동작을 제1 가상 모델의 동작으로 변환하는 단계; 상기 제1 가상 모델의 동작 및 기저장된 제2 가상 모델의 동작을 중첩하여 표시하는 단계; 및 상기 제1 가상 모델의 동작과 상기 제2 가상 모델의 동작 간 유사도를 판단하는 단계;를 포함한다.
또한, 동작 훈련 방법은, 사용자를 촬영하여 상기 사용자의 위치를 판단하는 단계; 및 상기 판단된 사용자의 위치에 따라 상기 하프 미러에 투영되는 사용자의 실제 동작, 상기 제1 가상 모델 및 상기 제2 가상 모델을 중첩시키는 단계;를 더 포함할 수 있다.
그리고, 상기 유사도를 판단하는 단계는, 상기 제1 가상 모델의 관절과 상기 제2 가상 모델의 관절 간의 거리 차이를 이용할 수도 있다.
한편, 본 발명의 또 다른 실시예에 따른 동작 훈련 장치는, 사용자의 실제 동작을 표시하는 하프 미러(Half Mirror); 사용자의 동작을 탐지하는 동작 탐지부; 상기 탐지된 사용자의 동작을 제1 가상 모델의 동작으로 변환하는 변환부; 상기 제1 가상 모델의 동작 및 기저장된 상기 제2 가상 모델의 동작을 중첩하여 표시하는 디스플레이부; 및 상기 제1 가상 모델의 동작과 상기 제2 가상 모델의 동작 간 유사도를 판단하는 제어부;를 포함한다.
또한, 동작 훈련 장치는, 상기 사용자를 촬영하는 촬영부;를 더 포함하고, 상기 제어부는, 상기 촬영된 사용자의 위치를 판단하고, 상기 판단된 사용자 위치에 따라 상기 사용자의 실제 동작, 상기 제1 가상 모델 및 상기 제2 가상 모델이 중첩되어 표시되도록 상기 디스플레이부를 제어할 수 있다.
그리고, 제4항에 있어서, 상기 제어부는, 상기 제1 가상 모델의 관절과 상기 제2 가상 모델의 관절 간의 거리 차이를 이용할 수도 있다.
이와 같이, 증강현실을 이용하여 훈련자의 동작 및 트레이너의 동작을 중첩하여 표시함으로써 보다 직관적인 동작 확인이 가능하며, 실제 트레이너의 도움없이도 동작 훈련의 효과를 극대화 시킬 수 있다는 효과를 달성할 수 있다.
도 1은 본 발명의 일 실시예에 따른 동작 훈련 장치(100)를 도시한 블록도
도 2는 본 발명의 일 실시 예에 따른 동작 훈련 장치를 설명하기 위한 도면,
도 3a 내지 3c는 본 발명의 일 실시예에 따른 하프 미러의 동작을 설명하기 위한 도면,
도 4 내지 도 6은 본 발명의 일 실시예에 따라 사용자의 실제 동작, 제1 가상 모델 및 제2 가상 모델의 동작을 개별적으로 설명하기 위한 도면 및
도 7은 본 발명의 일 실시예에 따른 동작 훈련 방법을 설명하기 위한 흐름도이다.
이하에서는 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 동작 훈련 장치(100)를 도시한 블록도이다. 도 1을 참조하면, 동작 훈련 장치(100)는 하프 미러(Half Mirror)(110), 동작 탐지부(120), 변환부(130), 디스플레이부(140) 및 제어부(150)를 포함한다.
도 1에 도시된 전원공급장치(100)에는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다.
하프 미러(Half Mirror)(110)는 사용자의 실제 동작을 표시한다. 여기에서 하프 미러란 빛의 일부는 반사하고, 일부는 투과하도록 만들어진 거울로써, 반 투명거울이라고도 한다.
본 발명의 일 실시예에 따른 하프 미러(110)는 디스플레이부(140)의 전면부에 부착되며, 디스플레이부의 밝기에 따라 디스플레이부에 표시되는 영상을 투과시켜 그 영상을 사용자에게 제공할 수도 있고, 거울에 비친 사용자의 모습을 표시할 수도 있다.
따라서, 사용자는 하프 미러(110)에 반사되는 자신의 실제 모습뿐만 아니라, 하프 미러(110) 후면부에 부착된 디스플레이로부터 표시되는 영상도 볼 수 있다.
동작 탐지부(120)는 사용자의 동작을 탐지한다.
구체적으로, 동작 탐지부(120)는 세 개의 렌즈로 구성될 수 있다. 제1 렌즈(미도시)는 적외선을 복수의 픽셀 단위로 쏘는 적외선 프로젝트일 수 있다.즉, 제1 렌즈로부터 송출된 복수의 픽셀 단위의 적외선이 물체에 닿게되면, 반사되어 다시 동작 탐지부(120)로 되돌아 오고, 제2 렌즈(미도시)가 반사되어 돌아온 적외선 픽셀을 수신한다. 이와 같이 적외선이 물체에 반사되어 되돌아온 거리정보를 이용하여 물체의 3차원 위치정보를 취득하고, 이 위치정보를 제3 렌즈(미도시)가 취득한 사람 관절에 반영하면 사용자의 동작을 인식할 수 있다.
동작 탐지부(120)를 이용한 사용자 동작이 탐지 방법은 공지의 기술인바, 더 이상의 구체적인 설명은 생략한다.
변환부(130)는 탐지된 사용자의 동작을 제1 가상 모델의 동작으로 변환한다. 즉, 트레이너의 동작과의 비교·확인을 용이하게 하기 위하여 기설정된 형태의 아바타와 같은 가상 모델로 변환할 수 있다.
변환부(130)는 본원의 제어부(150)와 별도의 구성인 것으로 도시하였으나, 실제 발명을 구현하는 과정에서는 하나의 구성으로 구현할 수도 있다.
디스플레이부(140)는 제1 가상 모델의 동작 및 기저장된 제2 가상 모델의 동작을 중첩하여 표시힌다.
여기서 제1 가상 모델은 탐지된 사용자의 동작이 아바타와 같은 가상 모델로 변환된 것을 의미한다. 한편, 제2 가상 모델은 트레이너와 같은 전문가가 행한 동작이 아바타와 같은 가상 모델의 동작으로 변환된 것을 의미한다.
디스플레이부(140)는 사용자 동작에 대응되는 제1 가상 모델과, 트레이너 동작에 대응되는 제2 가상 모델을 중첩하여 표시함으로써, 사용자로 하여금 두 동작 간의 비교·확인을 용이하게 할 수 있다.
여기에서 제1 가상 모델과, 제2 가상 모델간에 구별이 용이하게 이루어지도록 하기 위하여 두 가상 모델이 다른 색상, 형태, 모양으로 표시될 수도 있다.
제어부(150)는 제1 가상 모델의 동작과 제2 가상 모델의 동작 간 유사도를 판단하여, 사용자로 하여금 정확한 동작을 수행하고 있는지 확인할 수 있도록 해준다.
유사도를 판단하는 방법은, 제1 가상 모델의 관절과 제2 가상 모델의 관절 간 거리 차이를 이용하는 PDM(Pose Distance Measure) 방법을 이용할 수 있다.
구체적으로, PDM은 다음과 같은 수식에 의해 산출될 수 있다.
Figure pat00001
여기에서 JS(Joint Set)는 키넥트 관절 시스템에 의해 인식되는 관절들의 세트를 의미하고, pj는 가상 모델의 세계 좌표계(world coordinates)에서의 jth 관절 벡터를 의미하며, wj는 가중치를 의미한다.
한편, 경우에 따라서는 제1 가상 모델과 제2 가상 모델간의 동작 일치보다 관절의 회전 자체가 중요한 경우가 있을 수 있다. 그리고 훈련자의 유연성이나 운동 능력으로 인해, 트레이너의 동작을 그대로 따라하지 못할 수도 있기 때문에, 관절의 회전 유무를 판단하기 위해 관절의 회전 정도에 대한 계산이 필요할 수도 있다.
관절의 회전 정도를 계산하는 데에는 내적 관절 벡터(Inner product of joint Vectors)와 외적 관절 벡터(Outer product of joint Vectors)가 사용될 수 있다.
내적 관절 벡터는 훈련자의 특정 관절이 펴지는 것을 체크하기 위해 사용되는 것으로, 서로 연결된 관절의 내적(inner product)을 계산함으로써 얻어진다. 이때, 내적이 unit에 가까워 질수록 관절이 펴지는 것을 의미한다.
또한, 외적 관절 벡터(Outer product of joint Vectors)는 관절이 접혀지는 것을 체크하기 위해 사용되는 것으로, 외적(outer product)를 이용하여 관절의 회전 유무를 계산할 수 있게 된다.
한편, 하프 미러에 투영되는 사용자의 실제 모습과 디스플레이부에서 표시되는 제1 가상 모델 및 제2 가상 모델을 중첩시키기 위해서는 사용자의 위치를 판단하고 이에 대응되도록 제1 가상 모델 및 제2 가상 모델을 표시하여야 한다.
예를 들어, 사용자가 동작 훈련 장치(100)에 가까이 위치한 경우, 하프 미러에 사용자의 모습이 크게 투영되므로, 사용자의 실제 동작에 제1 가상 모델 및 제2 가상 모델을 중첩시키기 위해서는 제1 가상 모델과 제2 가상 모델을 크게 디스플레이 하여야 한다.
반면, 사용자가 동작 훈련 장치(100)로부터 멀리 떨어져 있는 경우, 하프 미러에 투영되는 사용자의 모습이 작으므로, 사용자의 실제 동작에 제1 가상 모델 및 제2 가상 모델을 중첩시키기 위해서는 제1 가상 모델과 제2 가상 모델을 작게 디스플레이 하여야 한다.
따라서, 본 발명의 일 실시예에 따른 동작 훈련 장치(100)는 사용자를 촬영하는 촬영부(미도시)를 더 포함할 수 있고, 제어부(150)는 촬영부에서 촬영된 사용자의 위치를 판단하고, 판단된 사용자 위치에 따라 하프 미러에 투영되는 사용자의 실제 동작, 제1 가상 모델 및 제2 가상 모델이 중첩되어 표시되도록 디스플레이부(140)를 제어할 수 있다.
이와 같이, 사용자의 실제 동작, 사용자의 실제 동작이 변환된 제1 가상 모델 및 트레이너와 같은 전문가의 동작에 따라 움직이는 제2 가상 모델을 중첩하여 표시함으로써, 사용자가 전문가의 도움 없이 정확한 동작으로 훈련을 수행할 수 있다는 효과를 달성할 수 있게 된다.
도 2는 본 발명의 일 실시 예에 따른 동작 훈련 장치를 설명하기 위한 도면이다.
도 2에 도시된 실시 예에 따르면, 디스플레이부(140) 상단에 동작 탐지부(120)가 구비되어 있고, 하프 미러(110)가 디스플레이부(140) 전면부에 부착되어 있음을 알 수 있다.
하프 미러(110)에는 사용자(210)의 실제 동작(220)이 투영된다. 한편, 하프 미러(110)는 반사율과 투과율이 반반이므로, 디스플레이부(140)에 표시되는 화면이 하프 미러(110)를 투과하여 사용자에게 제공될 수도 있다.
이때 디스플레이부(140)에는 사용자의 실제 동작이 변환된 제1 가상 모델(230)의 동작과, 기저장된 제2 가상 모델(240)의 동작이 중첩되어 표시된다.
제2 가상 모델(240)의 동작은 트레이너와 같은 전문가의 동작이므로, 사용자는 디스플레이부(140)에 표시되는 화면 및 하프 미러(110)를 통해 중첩되어 표시되는 실제 동작(220), 제1 가상 모델(230) 및 제2 가상 모델(240)에 따라 정확한 동작으로 훈련을 수행할 수도 있다.
한편, 본 실시예에서 촬영부는 도시하지 않았으나, 사용자의 위치를 판단하기 위한 촬영부가 동작 훈련 장치(100)와 일체로 구성될 수 있으며, 외부 기기 형태로 동작 훈련 장치(100)에 부착될 수도 있다.
도 3a 내지 3c는 본 발명의 일 실시예에 따른 하프 미러의 동작을 설명하기 위한 도면이다.
하프 미러(110)는 광원에 따라 반사율 및 투과율이 변하는 반 투명 거울이므로, 하프 미러(110) 전면부에 위치하는 물체가 반사되어 보일 수도 있으며, 하프 미러(110) 후면부에 위치하는 물체가 하프 미러(110)를 투과하여 보여질 수도 있다.
도 3a는 하프 미러(110) 후면부에 광원(310)이 존재하지 않는 경우를 설명하기 위한 것으로, 이러한 경우 반사율이 투과율보다 높으므로, 하프 미러(110) 전면부에 위치한 물체만 반사되어 보일 뿐, 후면부에 위치한 물체는 볼 수 없게 된다.
한편, 도 3b는 하프 미러(110) 후면부에 광원(310)이 존재하는 경우를 설명하기 위한 도면으로, 이러한 경우 투과율이 높아지므로 투명한 하프 미러(110) 후면부에 위치한 물체과 하프 미러(110)를 투과하여 사용자에게 보여지게 된다.
마지막으로, 도 3c는 광원(310)의 밝기에 따라 투과율과 반사율이 반반인 경우를 설명하기 위한 도면으로 이 경우, 사용자는 하프 미러(110)에 비친 자신의 모습 뿐만 아니라, 하프 미러(110) 후면부에 위치한 물체도 볼 수 있게 된다.
도 4 내지 도 6은 본 발명의 일 실시예에 따라 사용자의 실제 동작, 제1 가상 모델 및 제2 가상 모델의 동작을 개별적으로 설명하기 위한 도면이다.
도 4는 제2 가상 모델의 동작이 표시되는 것을 설명하기 위한 도면이다.
제2 가상 모델(420)의 동작은 트레이너와 같은 전문가의 동작이 아바타와 같은 형태로 변환되어 표시되는 것을 의미한다. 제2 가상 모델(420)의 동작은 기저장되어 있을 수 있으며, 기저장된 복수의 제2 가상 모델(420)의 동작에 따라 사용자가 동작 훈련을 수행할 수 있다.
도 5는 제1 가상 모델의 동작이 표시되는 것을 설명하기 위한 도면이다.
제1 가상 모델(520)은 사용자(510)의 동작을 탐지하여 아바타 형태로 표시한 것을 의미한다. 도 5에 도시된 바와 같이 제1 가상 모델(520)은 하프 미러(110)에 투영되는 사용자의 모습과 중첩되도록 크기가 조절된다.
한편, 사용자(510)와 동작 훈련 장치(100)와의 거리에 따라 하프 미러(100)에 투영되는 사용자(510)의 크기가 달라지므로, 동작 훈련 장치(100)에 구비되거나 외부 장치로서 연결된 촬영부가 사용자(510)를 촬영하여 사용자의 위치를 판단하고, 판단된 사용자 위치에 따라 하프 미러(100)에 투영되는 사용자(510)의 상에 제1 가상 모델(520) 중첩되어 표시되도록 할 수도 있다.
도 6은 본 발명의 일 실시예에 따라 사용자의 동작, 제1 가상 모델 및 제2 가상 모델이 중첩되어 표시되는 것을 설명하기 위한 도면이다.
상술한 바와 같이,제1 가상 모델(620)의 동작은 사용자(610)의 동작과 일치하고, 트레이너와 같은 전문가의 동작이 변환된 제2 가상 모델(630)의 동작과 중첩 되도록 표시된다.
따라서 사용자(610)는 실제 트레이너와 같은 전문가의 도움없이도 정확한 동작으로 훈련을 할 수 있으며, 자신의 동작을 전문과의 동작과 용이하게 비교할 수 있다는 효과를 달성할 수 있게 된다.
이때, 제1 가상 모델(620) 및 제2 가상 모델(630)의 상호 구별이 용이하도록 서로 다른 색상이나 형태로 표시될 수도 있다.
도 7은 본 발명의 일 실시 예에 따른 동작 훈련 방법을 설명하기 위한 흐름도이다.
사용자가 동작 훈련 장치(100) 앞에서 동작을 취하면, 사용자의 통작이 동작 훈련 장치(100)에 구비된 하프 미러(110)에 투영되어 표시된다(S710). 한편, 사용자의 동작이 탐지되고(S720), 탐지된 사용자의 동작은 제1 가상 모델의 동작으로 변환된다(S730).
이후 사용자의 실제 동작, 제1 가상 모델의 동작 및 기저장된 제2 가상 모델이 중첩되어 표시되고(S740), 제1 가상 모델의 동작과 제 가상 모델의 동작 간의 유사도를 판단한다(S750).
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100 : 동작 훈련 장치 110 : 하프 미러(Half Mirror)
120 : 동작 탐지부 130 : 변환부
140 : 디스플레이부 150 : 제어부

Claims (6)

  1. 하프 미러(Half Mirror)에 투영되는 상기 사용자의 실제 동작을 표시하는 단계;
    사용자의 동작을 탐지하는 단계;
    상기 탐지된 사용자의 동작을 제1 가상 모델의 동작으로 변환하는 단계;
    상기 제1 가상 모델의 동작 및 기저장된 제2 가상 모델의 동작을 중첩하여 표시하는 단계; 및
    상기 제1 가상 모델의 동작과 상기 제2 가상 모델의 동작 간 유사도를 판단하는 단계;를 포함하는 동작 훈련 방법.
  2. 제1항에 있어서,
    사용자를 촬영하여 상기 사용자의 위치를 판단하는 단계; 및
    상기 판단된 사용자의 위치에 따라 상기 하프 미러에 투영되는 사용자의 실제 동작, 상기 제1 가상 모델 및 상기 제2 가상 모델을 중첩시키는 단계;를 더 포함하는 것을 특징으로 하는 동작 훈련 방법.
  3. 제1항에 있어서,
    상기 유사도를 판단하는 단계는,
    상기 제1 가상 모델의 관절과 상기 제2 가상 모델의 관절 간의 거리 차이를 이용하는 것을 특징으로 하는 동작 훈련 방법.
  4. 사용자의 실제 동작을 표시하는 하프 미러(Half Mirror);
    사용자의 동작을 탐지하는 동작 탐지부;
    상기 탐지된 사용자의 동작을 제1 가상 모델의 동작으로 변환하는 변환부;
    상기 제1 가상 모델의 동작 및 기저장된 상기 제2 가상 모델의 동작을 중첩하여 표시하는 디스플레이부; 및
    상기 제1 가상 모델의 동작과 상기 제2 가상 모델의 동작 간 유사도를 판단하는 제어부;를 포함하는 동작 훈련 장치.
  5. 제4항에 있어서,
    상기 사용자를 촬영하는 촬영부;를 더 포함하고,
    상기 제어부는,
    상기 촬영된 사용자의 위치를 판단하고, 상기 판단된 사용자 위치에 따라 상기 사용자의 실제 동작, 상기 제1 가상 모델 및 상기 제2 가상 모델이 중첩되어 표시되도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 동작 훈련 장치.
  6. 제4항에 있어서,
    상기 제어부는,
    상기 제1 가상 모델의 관절과 상기 제2 가상 모델의 관절 간의 거리 차이를 이용하는 것을 특징으로 하는 동작 훈련 장치.
KR1020130161798A 2013-12-23 2013-12-23 동작 훈련 장치 및 동작 훈련 방법 KR20150073754A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130161798A KR20150073754A (ko) 2013-12-23 2013-12-23 동작 훈련 장치 및 동작 훈련 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130161798A KR20150073754A (ko) 2013-12-23 2013-12-23 동작 훈련 장치 및 동작 훈련 방법

Publications (1)

Publication Number Publication Date
KR20150073754A true KR20150073754A (ko) 2015-07-01

Family

ID=53787205

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130161798A KR20150073754A (ko) 2013-12-23 2013-12-23 동작 훈련 장치 및 동작 훈련 방법

Country Status (1)

Country Link
KR (1) KR20150073754A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190044952A (ko) * 2017-10-23 2019-05-02 남정우 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러
KR102613638B1 (ko) * 2022-12-08 2023-12-14 주식회사 테렌즈랩스 단말에 설치된 어플리케이션 기반의 건강관리 시스템 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190044952A (ko) * 2017-10-23 2019-05-02 남정우 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러
KR102613638B1 (ko) * 2022-12-08 2023-12-14 주식회사 테렌즈랩스 단말에 설치된 어플리케이션 기반의 건강관리 시스템 및 방법

Similar Documents

Publication Publication Date Title
US11693242B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
US20210177124A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
CN108780586B (zh) 图像处理方法、显示设备和检查系统
JP6074494B2 (ja) 形状認識装置、形状認識プログラム、および形状認識方法
US10320437B2 (en) System and method for immersive and interactive multimedia generation
US20180046874A1 (en) System and method for marker based tracking
KR102657956B1 (ko) 해부학적 구조를 스캐닝하고 스캐닝 결과를 디스플레이하기 위한 시스템 및 방법
US11861062B2 (en) Blink-based calibration of an optical see-through head-mounted display
US9779512B2 (en) Automatic generation of virtual materials from real-world materials
CN103793060B (zh) 一种用户交互系统和方法
KR101455403B1 (ko) 얼굴 모션 데이터 캡쳐링 및 처리
CN107004279A (zh) 自然用户界面相机校准
JP2023086791A (ja) 情報処理装置、情報処理方法、及びプログラム
US9740282B1 (en) Gaze direction tracking
CN110045816A (zh) 近眼显示器和系统
US20130100140A1 (en) Human body and facial animation systems with 3d camera and method thereof
US11164378B1 (en) Virtual reality detection and projection system for use with a head mounted display
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
CN105264478A (zh) 全息锚定和动态定位
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5756322B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置および情報処理システム
JP6770208B2 (ja) 情報処理装置
KR20190130761A (ko) 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법
KR20150073754A (ko) 동작 훈련 장치 및 동작 훈련 방법
WO2021242338A1 (en) Systems and methods for providing mixed-reality experiences under low light conditions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment