KR101636171B1 - Skeleton tracking method and keleton tracking system using the method - Google Patents

Skeleton tracking method and keleton tracking system using the method Download PDF

Info

Publication number
KR101636171B1
KR101636171B1 KR1020140183675A KR20140183675A KR101636171B1 KR 101636171 B1 KR101636171 B1 KR 101636171B1 KR 1020140183675 A KR1020140183675 A KR 1020140183675A KR 20140183675 A KR20140183675 A KR 20140183675A KR 101636171 B1 KR101636171 B1 KR 101636171B1
Authority
KR
South Korea
Prior art keywords
joints
skeleton
similarity
position information
joint
Prior art date
Application number
KR1020140183675A
Other languages
Korean (ko)
Other versions
KR20160075884A (en
Inventor
송유진
도정민
Original Assignee
동국대학교 경주캠퍼스 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 경주캠퍼스 산학협력단 filed Critical 동국대학교 경주캠퍼스 산학협력단
Priority to KR1020140183675A priority Critical patent/KR101636171B1/en
Publication of KR20160075884A publication Critical patent/KR20160075884A/en
Application granted granted Critical
Publication of KR101636171B1 publication Critical patent/KR101636171B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

스켈레톤 모형의 정확도를 높일 수 있는 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템이 개시된다. 이러한 스켈레톤 트래킹 방법은 N개의 뎁스(depth) 센서 카메라들로부터 복수의 관절들을 갖는 임의의 사람에 대한 N개의 촬영 정보들을 생성하는 단계(단, N은 2 이상의 정수임), 상기 촬영 정보들로부터 상기 관절들 각각에서의 N개의 위치 정보들을 추출하는 단계, 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산하는 단계, 및 상기 관절들 각각에 대한 통합 위치 정보를 이용하여 상기 사람에 대한 스켈레톤(skeleton) 모형을 형성하는 단계를 포함한다. 이와 같이, 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산함에 따라, 보다 정확한 스켈레톤 모형을 형성할 수 있다. A skeleton tracking method capable of increasing the accuracy of a skeleton model and a skeleton tracking system using the same. The skeleton tracking method includes the steps of generating N pieces of photographing information for an arbitrary person having a plurality of joints from N depth sensor cameras (N is an integer equal to or greater than 2) from the photographing information, Extracting N positional information from each of the joints, calculating integrated position information for each of the joints from N positional information in each of the joints, To form a skeleton model for the person. As described above, by calculating the integrated position information for each of the joints from the N positional information in each of the joints, a more accurate skeleton model can be formed.

Description

스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템{SKELETON TRACKING METHOD AND KELETON TRACKING SYSTEM USING THE METHOD}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a skeleton tracking method and a skeleton tracking method using the same,

본 발명은 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템에 관한 것으로, 더욱 상세하게는 사람의 움직임을 추적할 수 있는 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템에 관한 것이다.The present invention relates to a skeleton tracking method and a skeleton tracking system using the method, and more particularly, to a skeleton tracking method and a skeleton tracking system using the method.

최근 RGB 카메라와 뎁스(depth) 센서를 결합한 뎁스 센서 카메라가 보급되고 있고, 상기 뎁스 센서 카메라의 대표적인 제품은 마이크로소프트(Microsoft)사의 키넥트(Kinect)가 있다. 상기 뎁스 센서 카메라는 임의의 사물을 촬영하여 사물에 대한 이미지 및 위치 정보를 생성할 수 있다.Recently, a depth sensor camera combining a RGB camera and a depth sensor has been popular. A representative product of the depth sensor camera is a Kinect of Microsoft. The depth sensor camera can photograph an arbitrary object and generate image and position information about the object.

예를 들어, 상기 뎁스 센서 카메라가 임의의 사람을 촬영하여 촬영 데이터를 생성할 경우, 상기 촬영 데이터로부터 상기 사람의 관절들 각각의 위치 정보가 추출될 수 있고, 이렇게 추출된 상기 관절들 각각의 위치 정보로부터 하나의 스켈레톤(skeleton) 모형이 형성될 수 있다. 더 나아가, 상기 스켈레톤 모형의 움직임을 통해 사용자의 움직임을 인식하여 임의의 응용 프로그램을 제어하기 위한 사용자 인터페이스(user interface)로 활용할 수도 있다.For example, when the depth sensor camera photographs an arbitrary person to generate shot data, position information of each of the joints of the person can be extracted from the shot data, and the position of each of the joints One skeleton model can be formed from the information. Furthermore, it is also possible to use a user interface for controlling an arbitrary application program by recognizing a movement of a user through the movement of the skeleton model.

이러한 사용자 인터페이스는 정확한 입력값을 주는 유니모달(unimodal) 인터페이스에 비해서 상대적으로 정확하지 못한 입력값을 전달하여 상기 응용 프로그램에서의 오류 입력을 만들어낼 수 있다. 따라서, 이러한 오류 입력을 억제하기 위해서는 보다 정확한 스켈레톤 모형을 추출하는 것이 중요하다.Such a user interface can generate relatively erroneous input values as compared to a unimodal interface that provides accurate input values to produce error inputs in the application. Therefore, it is important to extract a more accurate skeleton model in order to suppress such error input.

한편, 상기 사용자 인터페이스의 정확도를 증가시키는 방법 중 하나로, 뎁스 센서 카메라 2대를 이용하는 방법이 연구되고 있다. 즉, 2개의 뎁스 센서 카메라들에서 각각 추출한 2개의 스켈레톤 모형들을 통합하여 사용자 인터페이스의 정확도를 증가시킬 수 있다.Meanwhile, as one method of increasing the accuracy of the user interface, a method of using two depth sensor cameras has been studied. That is, the accuracy of the user interface can be increased by integrating the two skeleton models extracted from the two depth sensor cameras.

구체적으로 설명하면, 2개의 뎁스 센서 카메라들에서 각각 추출한 2개의 스켈레톤 모형들을 추출한 후 통합할 때, 실제 사용자의 신체와 가까운 거리에서 수집한 위치 정보를 기준으로 나머지 하나의 위치 정보를 무시하는 방식을 이용할 수 있다. 그러나, 이러한 방식도 가까운 거리에서 수집한 위치 정보에 자체 오류가 포함되어 있을 경우, 사용자 인터페이스의 정확도를 증가시키는데 한계가 있다.Specifically, when two skeleton models extracted from two depth sensor cameras are extracted and integrated, the method of ignoring the remaining one position information based on the position information collected at a distance close to the actual user's body Can be used. However, this method also has limitations in increasing the accuracy of the user interface when the location information collected at a close distance includes its own error.

따라서, 본 발명은 이러한 문제점을 해결하기 위한 것으로, 본 발명의 해결하고자 하는 과제는 스켈레톤 모형의 정확도를 높일 수 있는 스켈레톤 트래킹 방법을 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a skeleton tracking method capable of increasing the accuracy of a skeleton model.

또한, 본 발명의 해결하고자 하는 다른 과제는 상기 스켈레톤 트래킹 방법을 이용한 스켈레톤 트래킹 시스템을 제공하는 것이다.Another object of the present invention is to provide a skeleton tracking system using the skeleton tracking method.

본 발명의 일 실시예에 의한 스켈레톤 트래킹 방법은 N개의 뎁스(depth) 센서 카메라들로부터 복수의 관절들을 갖는 임의의 사람에 대한 N개의 촬영 정보들을 생성하는 단계(단, N은 2 이상의 정수임), 상기 촬영 정보들로부터 상기 관절들 각각에서의 N개의 위치 정보들을 추출하는 단계, 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산하는 단계, 및 상기 관절들 각각에 대한 통합 위치 정보를 이용하여 상기 사람에 대한 스켈레톤(skeleton) 모형을 형성하는 단계를 포함한다.The skeleton tracking method according to an embodiment of the present invention includes the steps of generating N pieces of photographing information for an arbitrary person having a plurality of joints from N depth sensor cameras (N is an integer of 2 or more) Extracting N positional information in each of the joints from the imaging information, calculating integrated positional information for each of the joints from N positional information in each of the joints, And forming a skeleton model for the person using the integrated position information for each of the plurality of objects.

상기 관절들 각각에 대한 통합 위치 정보는 상기 관절들 각각에서의 N개의 위치 정보들의 단순 평균, 가중 평균 및 제곱평균제곱근 중 어느 하나의 값을 포함할 수 있다.The combined position information for each of the joints may include a value of any one of a simple average, a weighted average, and a root mean square of N positional information in each of the joints.

상기 스켈레톤 트래킹 방법은 상기 스켈레톤 모형을 기준 모형과 비교하여 두 모형 간의 스켈레톤 유사도를 계산하는 단계를 더 포함할 수 있다.The skeleton tracking method may further include calculating a skeleton similarity between the two models by comparing the skeleton model with a reference model.

상기 기준 모형은 상기 관절들 각각 대응되는 기준 연결점들의 위치 정보들을 포함할 수 있다.The reference model may include positional information of corresponding reference joints of the joints.

상기 스켈레톤 유사도를 계산하는 단계는 상기 관절들의 위치 정보들 및 상기 기준 연결점들의 위치 정보들을 서로 대응되는 것들끼리 비교하여 관절 유사도들을 계산하는 단계, 및 상기 관절 유사도들을 이용하여 상기 스켈레톤 유사도를 계산하는 단계를 포함할 수 있다.Wherein the step of calculating the skeleton similarity includes calculating joint similarities by comparing position information of the joints and position information of the reference joints with each other, and calculating the skeleton similarity using the joint similarities . ≪ / RTI >

상기 스켈레톤 유사도는 상기 관절 유사도들의 단순 평균값을 포함할 수 있다.The skeleton similarity may include a simple average value of the joint similarities.

상기 관절 유사도들을 계산하는 단계는 상기 관절들의 위치 정보들 및 상기 기준 연결점들의 위치 정보들로부터 서로 대응되는 두 위치들 사이의 거리를 나타내는 유클리디안 디스턴스(Euclidean distance)들을 계산하는 단계, 및 상기 유클리디안 디스턴스들을 이용하여 상기 관절 유사도들을 계산하는 단계를 포함할 수 있다.Wherein calculating the joint similarities comprises: calculating Euclidean distances representing distances between two positions corresponding to each other from position information of the joints and position information of the reference joints; And calculating the joint similarities using Cladian distances.

상기 관절 유사도들 각각은 1을 상기 유클리디안 디스턴스들 각각을 설정값 k로 나눈 값으로 뺀 값을 포함할 수 있다.Each of the joint similarities may include a value obtained by subtracting 1 from a value obtained by dividing each of the euclidean distances by a set value k.

상기 스켈레톤 트래킹 방법은 상기 뎁스 센서 카메라들의 개수 및 상기 뎁스 센서 카메라들 각각의 화각 중 적어도 하나를 고려하여 상기 설정값 k를 설정하는 단계를 더 포함할 수 있다.The skeleton tracking method may further include setting the set value k in consideration of at least one of the number of the depth sensor cameras and the angle of view of each of the depth sensor cameras.

상기 스켈레톤 트래킹 방법은 상기 스켈레톤 유사도를 표시하는 단계를 더 포함할 수 있다.The skeleton tracking method may further include displaying the skeleton similarity.

한편, 본 발명의 일 실시예에 의한 스켈레톤 트래킹 시스템은 N개의 뎁스(depth) 센서 카메라들 및 스켈레톤 트래킹 모듈을 포함한다(단, N은 2 이상의 정수임).Meanwhile, the skeleton tracking system according to an embodiment of the present invention includes N depth sensor cameras and a skeleton tracking module (N is an integer of 2 or more).

상기 뎁스 센서 카메라들은 복수의 관절들을 갖는 임의의 사람을 촬영하여 상기 사람에 대한 N개의 촬영 정보들을 각각 생성한다. 상기 스켈레톤 트래킹 모듈은 상기 촬영 정보들로부터 상기 관절들 각각에서의 N개의 위치 정보들을 추출하고, 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산하며, 상기 관절들 각각에 대한 통합 위치 정보를 이용하여 상기 사람에 대한 스켈레톤(skeleton) 모형을 형성한다.The depth sensor cameras capture an arbitrary person having a plurality of joints and generate N photographing information for the person, respectively. Wherein the skeleton tracking module extracts N positional information in each of the joints from the photographing information, calculates integrated positional information on each of the joints from N positional information in each of the joints, A skeleton model for the person is formed using the integrated position information for each of the joints.

상기 관절들 각각에 대한 통합 위치 정보는 상기 관절들 각각에서의 N개의 위치 정보들의 단순 평균, 가중 평균 및 제곱평균제곱근 중 어느 하나의 값을 포함할 수 있다.The combined position information for each of the joints may include a value of any one of a simple average, a weighted average, and a root mean square of N positional information in each of the joints.

상기 스켈레톤 트래킹 시스템은 상기 스켈레톤 모형을 기준 모형과 비교하여 두 모형 간의 스켈레톤 유사도를 계산하는 유사도 평가 모듈을 더 포함할 수 있다.The skeleton tracking system may further include a similarity evaluation module that compares the skeleton model with a reference model and calculates a skeleton similarity between the two models.

상기 기준 모형은 상기 관절들 각각 대응되는 기준 연결점들의 위치 정보들을 포함할 수 있다.The reference model may include positional information of corresponding reference joints of the joints.

상기 유사도 평가 모듈은 상기 관절들의 위치 정보들 및 상기 기준 연결점들의 위치 정보들을 서로 대응되는 것들끼리 비교하여 관절 유사도들을 계산하고, 상기 관절 유사도들을 이용하여 상기 스켈레톤 유사도를 계산할 수 있다.The similarity evaluating module may calculate joint similarities by comparing the position information of the joints and the position information of the reference joints with each other, and calculate the skeleton similarity using the joint similarities.

상기 스켈레톤 유사도는 상기 관절 유사도들의 단순 평균값을 포함할 수 있다.The skeleton similarity may include a simple average value of the joint similarities.

상기 유사도 평가 모듈은 상기 관절들의 위치 정보들 및 상기 기준 연결점들의 위치 정보들로부터 서로 대응되는 두 위치들 사이의 거리를 나타내는 유클리디안 디스턴스(Euclidean distance)들을 계산하고, 상기 유클리디안 디스턴스들을 이용하여 상기 관절 유사도들을 계산할 수 있다.The similarity-evaluating module calculates Euclidean distances representing distances between two positions corresponding to each other based on the position information of the joints and the position information of the reference joints, and uses the Euclidean distance The joint similarities can be calculated.

상기 관절 유사도들 각각은 1을 상기 유클리디안 디스턴스들 각각을 설정값 k로 나눈 값으로 뺀 값을 포함할 수 있다.Each of the joint similarities may include a value obtained by subtracting 1 from a value obtained by dividing each of the euclidean distances by a set value k.

상기 유사도 평가 모듈은 상기 뎁스 센서 카메라들의 개수 및 상기 뎁스 센서 카메라들 각각의 화각 중 적어도 하나를 고려하여 상기 설정값 k를 설정할 수 있다.The similarity evaluation module may set the set value k in consideration of at least one of the number of the depth sensor cameras and the angle of view of each of the depth sensor cameras.

상기 스켈레톤 트래킹 시스템은 상기 스켈레톤 유사도를 표시하는 디스플레이 장치를 더 포함할 수 있다.The skeleton tracking system may further include a display device for displaying the skeleton similarity.

이와 같이 본 발명에 의한 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템에 따르면, N개의 뎁스 센서 카메라들에서 생성된 N개의 촬영 정보들로부터 관절들 각각에서의 N개의 위치 정보들이 추출되고, 이렇게 추출된 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보가 계산됨에 따라, 보다 정확한 스켈레톤 모형이 형성될 수 있다.According to the skeleton tracking method and the skeleton tracking system using the same according to the present invention, N position information in each of the joints is extracted from N photographing information generated from the N depth sensor cameras, As the integrated position information for each of the joints is calculated from the N positional information in each of the joints, a more accurate skeleton model can be formed.

즉, 상기 스켈레톤 트래킹 방법 또는 시스템이 상기 관절들 각각에서의 N개의 위치 정보들 중 가장 가까운 것 하나를 선택하여 스켈레톤 모형을 형성하는 것이 아니라, 상기 관절들 각각에서의 N개의 위치 정보들의 단순 평균, 가중 평균 및 제곱평균제곱근 중 어느 하나의 값을 계산하여 상기 관절들 각각에 대한 통합 위치 정보를 추출하고 이렇게 추출된 값들을 통해 스켈레톤 모형을 형성함에 따라, 상기 관절들 각각에서의 N개의 위치 정보들 중 일부에 오류가 발생되더라도 상기 오류가 상기 1/N로 감소되어 보다 정확한 스켈레톤 모형을 형성할 확률이 증가될 수 있다.That is, the skeleton tracking method or system does not select the nearest one of the N positional information items in each of the joints to form a skeleton model, but rather a simple average of N positional information items in each of the joints, Calculating a value of any one of weighted average and root-mean-square roots, extracting integrated position information for each of the joints, and forming a skeleton model through the extracted values, The error may be reduced to 1 / N, and the probability of forming a more accurate skeleton model may be increased.

또한, 상기 스켈레톤 트래킹 방법 또는 시스템이 상기 스켈레톤 모형을 기준 모형과 비교하여 상기 두 모형 간의 스켈레톤 유사도를 계산함에 따라, 상기 스켈레톤 모형이 상기 기준 모형과 얼마나 유사한지를 평가할 수 있다.Also, the skeleton tracking method or system may evaluate the similarity of the skeleton model with the reference model by calculating the skeleton similarity between the two models by comparing the skeleton model with the reference model.

또한, 상기 스켈레톤 유사도의 최하값을 나타내는 설정값 k가 조절될 경우, 유사도 변화율 또는 민감도가 조절될 수 있다. 그에 따라, 상기 스켈레톤 트래킹 방법 또는 시스템이 재활 훈련을 제공하는 재활 서비스에 적용될 경우, 상기 설정값 k는 상기 재활 서비스에서의 훈련 난이도를 결정하는 값이 될 수 있다.Also, when the set value k indicating the lowest value of the skeleton similarity is adjusted, the rate of change in similarity or the sensitivity can be adjusted. Accordingly, when the skeleton tracking method or system is applied to a rehabilitation service that provides rehabilitation training, the set value k may be a value that determines a training difficulty in the rehabilitation service.

도 1은 본 발명의 일 실시예에 의한 스켈레톤 트래킹 방법을 설명하기 위한 순서도이다.
도 2는 도 1의 스켈레톤 트래킹 방법에 적용되는 뎁스 센서 카메라의 일 예를 설명하기 위한 도면이다.
도 3은 도 2의 뎁스 센서 카메라 4대를 이용하여 촬영하는 일 예를 설명하기 위한 도면이다.
도 4는 도 1의 스켈레톤 트래킹 방법에서의 촬영 대상이 되는 사람의 관절들의 일 예를 도시한 도면이다.
도 5는 도 1의 스켈레톤 트래킹 방법 중 스켈레톤 유사도를 계산하는 과정을 설명하기 위한 순서도이다.
도 6은 도 1의 스켈레톤 트래킹 방법을 이용한 스켈레톤 트래킹 시스템의 일 예를 설명하기 위한 블록도이다.
도 7은 도 1의 스켈레톤 트래킹 방법에서 사용되는 평가 변수를 설명하기 위한 테이블이다.
도 8은 뎁스 센서 카메라의 대수 변화에 따른 스켈레톤 유사도의 변화를 나타낸 그래프이다.
도 9는 설정값 k의 변화에 따른 스켈레톤 유사도의 변화를 나타낸 그래프들이다.
1 is a flowchart for explaining a skeleton tracking method according to an embodiment of the present invention.
2 is a view for explaining an example of a depth sensor camera applied to the skeleton tracking method of FIG.
3 is a view for explaining an example of photographing using four depth sensor cameras of FIG.
FIG. 4 is a view showing an example of joints of a person to be imaged in the skeleton tracking method of FIG. 1. FIG.
FIG. 5 is a flowchart for explaining a process of calculating the skeleton similarity in the skeleton tracking method of FIG.
6 is a block diagram for explaining an example of a skeleton tracking system using the skeleton tracking method of FIG.
7 is a table for explaining evaluation variables used in the skeleton tracking method of FIG.
8 is a graph showing changes in the skeleton similarity according to the logarithmic change of the depth sensor camera.
9 is a graph showing a change in skeleton similarity according to a change in the set value k.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text.

그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.It should be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprising" or "having ", and the like, are intended to specify the presence of stated features, integers, steps, operations, elements, parts, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

도 1은 본 발명의 일 실시예에 의한 스켈레톤 트래킹 방법을 설명하기 위한 순서도이고, 도 2는 도 1의 스켈레톤 트래킹 방법에 적용되는 뎁스 센서 카메라의 일 예를 설명하기 위한 도면이며, 도 3은 도 2의 뎁스 센서 카메라 4대를 이용하여 촬영하는 일 예를 설명하기 위한 도면이고, 도 4는 도 1의 스켈레톤 트래킹 방법에서의 촬영 대상이 되는 사람의 관절들의 일 예를 도시한 도면이다.FIG. 1 is a flowchart for explaining a skeleton tracking method according to an embodiment of the present invention. FIG. 2 is a view for explaining an example of a depth sensor camera applied to the skeleton tracking method of FIG. 1, FIG. 4 is a view showing an example of joints of a person to be photographed in the skeleton tracking method of FIG. 1; FIG. 4 is a view for explaining an example of photographing using four depth sensor cameras of FIG.

도 1 내지 도 4를 참조하면, 본 실시예에 의한 스켈레톤 트래킹 방법은 사람의 움직임을 측정하여 추적할 수 있는 트래킹 방법에 관한 것으로, 임의의 검퓨터 시스템에 의해 수행될 수 있다.Referring to FIGS. 1 to 4, a skeleton tracking method according to an embodiment of the present invention relates to a tracking method capable of measuring and tracking human movements, and can be performed by an arbitrary computer system.

상기 스켈레톤 트래킹 방법으로, 우선 N개의 뎁스(depth) 센서 카메라들(100)로부터 복수의 관절들을 갖는 임의의 사람에 대한 N개의 촬영 정보들을 생성한다(S100). 여기서, N은 2 이상의 정수이다.In the skeleton tracking method, N photographing information for an arbitrary person having a plurality of joints is first generated from N depth sensor cameras 100 (S100). Here, N is an integer of 2 or more.

예를 들어, 상기 뎁스 센서 카메라들(100) 각각은 RGB 카메라, 적외선 뎁스 센서 및 적외선 프로젝터를 포함할 수 있다. 상기 적외선 프로젝터는 일정한 간격으로 수많은 점의 적외선들을 상기 사람을 향해 분사하고, 상기 적외선 뎁스 센서는 상기 사람에 부딪혀 반사된 상기 적외선들을 센싱하여 상기 각 점에서의 카메라와 사물 간의 거리 정보를 획득한다. 상기 RGB 카메라는 상기 사람의 이미지 정보를 획득한다. 이와 같이, 상기 촬영 정보들 각각은 상기 각 점에서의 카메라와 사물 간의 거리 정보 및 상기 사람의 이미지 정보를 포함할 수 있다.For example, each of the depth sensor cameras 100 may include an RGB camera, an infrared depth sensor, and an infrared projector. The infrared projector emits infrared rays of a number of points at regular intervals toward the person, and the infrared depth sensor senses the infrared rays reflected by the person and acquires distance information between the camera and the object at each point. The RGB camera acquires image information of the person. As described above, each of the photographing information may include distance information between the camera and the object at each point and image information of the person.

본 실시예에서, 상기 관절들은 도 4와 같이 20개로 구성될 수 있다. 예를 들어, 상기 20개의 관절들은 머리(Head), 어깨 중앙(ShoulderCenter), 좌측 어깨(ShoulderLeft), 우측 어깨(ShoulderRight), 척추(Spine), 좌측 팔꿈치(ElbowLeft), 우측 팔꿈치(ElbowRight), 좌측 손목(WristLeft), 우측 손목(WristRight), 왼손(HandLeft), 오른손(HandRight), 히프 중앙(HipCenter), 좌측 히프(HipLeft), 우측 히프(HipRight), 좌측 무릎(KneeLeft), 우측 무릎(KneeRight), 좌측 발목(AnkleLeft), 우측 발목(AnkleRight), 왼발(FootLeft), 및 오른발(FootRight)의 관절들일 수 있다.In the present embodiment, the joints may be composed of 20 as shown in FIG. For example, the twenty joints include a head, a shoulder center, a left shoulder, a shoulder right, a spine, a left elbow, a right elbow, WristLeft, WristRight, HandLeft, HandRight, HipCenter, HipLeft, HipRight, KneeLeft, KneeRight, , AnkleLeft, AnkleRight, FootLeft, and FootRight joints.

이어서, 상기 촬영 정보들로부터 상기 관절들 각각에서의 N개의 위치 정보들을 추출할 수 있다(S200).Next, N pieces of position information in each of the joints can be extracted from the photographing information (S200).

여기서, 뎁스 센서 카메라 n에서 추출된 임의의 관절의 위치 정보는 아래와 같은 수식으로 표현할 수 있다.Here, the position information of an arbitrary joint extracted from the depth sensor camera n can be expressed by the following equation.

CAMn.PositionInfoJoint=(xn, yn, zn)CAMn.PositionInfo Joint = (x n , y n , z n )

이어서, 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산한다(S300).Then, integrated location information for each of the joints is calculated from N positional information in each of the joints (S300).

예를 들어, 상기 관절들 각각에서의 N개의 위치 정보들의 단순 평균, 가중 평균 및 제곱평균제곱근 중 어느 하나의 값을 계산하여 상기 관절들 각각에 대한 통합 위치 정보를 추출할 수 있다. 이때, 상기 가중 평균값은 카메라와 사물 간의 거리가 가까운 것일수록 높은 가중치를 부여하여 평균을 구하는 계산 방법으로 추출될 수 있다.For example, the joint position information for each of the joints can be extracted by calculating one of the simple average, the weighted average, and the root mean square of the N positional information in each of the joints. At this time, the weighted average value can be extracted by a calculation method of giving a higher weight to a distance between a camera and an object and obtaining an average.

여기서, 상기 관절들 각각에 대한 통합 위치 정보가 상기 관절들 각각에서의 N개의 위치 정보들의 단순 평균값으로 계산되어진다고 가정할 때, 임의의 관절에 대한 통합 위치 정보는 아래와 같은 수식으로 표현할 수 있다.Assuming that the joint position information for each of the joints is calculated as a simple average value of N position information in each of the joints, the joint position information for an arbitrary joint can be expressed by the following equation.

Calculated.PositionInfoJoint=(xc, yc, zc)Calculated.PositionInfo Joint = (x c , y c , z c )

xc=(x1+x2+x3+...+xn)/nx c = (x 1 + x 2 + x 3 + ... + x n ) / n

yc=(y1+y2+y3+...+yn)/ny c = (y 1 + y 2 + y 3 + ... + y n ) / n

zc=(z1+z2+z3+...+zn)/nz c = (z 1 + z 2 + z 3 + ... + z n ) / n

이어서, 상기 관절들 각각에 대한 통합 위치 정보를 이용하여 상기 사람에 대한 스켈레톤(skeleton) 모형을 형성한다(S400). 즉, 상기 관절들의 좌표값들을 서로 연결하여 하나의 스켈레톤 모형을 형성할 수 있다.Next, a skeleton model for the person is formed using the integrated position information for each of the joints (S400). That is, the coordinate values of the joints may be connected to each other to form a single skeleton model.

이어서, 상기 스켈레톤 모형을 기준 모형과 비교하여 상기 두 모형 간의 스켈레톤 유사도를 계산한다(S500). 여기서, 상기 기준 모형은 상기 스켈레톤 모형과의 유사도를 평가하기 위한 기준 대상을 의미하며, 상기 관절들 각각 대응되는 기준 연결점들의 위치 정보들을 포함할 수 있다. 한편, 상기 스켈레톤 유사도를 계산하기 전에, 상기 기준 모형을 생성하는 단계가 더 수행될 수도 있다.Next, the skeleton similarity between the two models is calculated by comparing the skeleton model with a reference model (S500). Here, the reference model refers to a reference object for evaluating the similarity with the skeleton model, and may include position information of corresponding reference joints. On the other hand, before calculating the skeleton similarity, the step of generating the reference model may be further performed.

이어서, 상기 스켈레톤 유사도를 외부로 표시한다(S600). 이때, 상기 스켈레톤 유사도는 모니터를 통해 그래픽으로 표시할 수도 있지만, 종이로 인쇄되어 표시될 수도 있다. 한편, 상기 스켈레톤 유사도는 유선 또는 무선 통신 방법을 통해 외부의 다른 시스템으로 전송될 수도 있다.Then, the skeleton similarity is displayed externally (S600). At this time, the skeleton similarity may be graphically displayed through a monitor, but may also be printed and displayed on paper. Meanwhile, the skeleton similarity may be transmitted to another external system through a wired or wireless communication method.

도 5는 도 1의 스켈레톤 트래킹 방법 중 스켈레톤 유사도를 계산하는 과정을 설명하기 위한 순서도이다.FIG. 5 is a flowchart for explaining a process of calculating the skeleton similarity in the skeleton tracking method of FIG.

도 5를 참조하면, 상기 S500 단계에 따른 상기 스켈레톤 유사도를 계산하는 과정으로, 우선 상기 관절들의 위치 정보들 및 상기 기준 연결점들의 위치 정보들을 서로 대응되는 것들끼리 비교하여 관절 유사도들을 계산할 수 있다(S510).Referring to FIG. 5, the process of calculating the skeleton similarity according to step S500 may first calculate joint similarities by comparing positions of the joints and position information of the reference joints corresponding to each other ).

구체적으로, 상기 S510 단계로, 우선 상기 관절 유사도들 각각을 계산하기 위해 필요한 설정값 k를 설정한다(S512). 이때, 상기 설정값 k는 사용자에 의해 자유롭게 입력된 값일 수도 있지만, 기저장된 임의의 값일 수도 있으며, 임의의 조건에 의해 자동으로 계산되어지는 값일 수도 있다.Specifically, in step S510, a set value k necessary for calculating each of the joint similarities is set (S512). At this time, the set value k may be a value freely input by a user, but may be a previously stored arbitrary value or a value automatically calculated by an arbitrary condition.

예를 들어, 상기 설정값 k는 상기 뎁스 센서 카메라들의 개수 및 상기 뎁스 센서 카메라들 각각의 화각 중 적어도 하나를 인자로 하여 자동으로 계산되어질 수 있다. 또는, 사용자가 상기 설정값 k을 설정할 수 있는 범위가 상기 뎁스 센서 카메라들의 개수 및 상기 뎁스 센서 카메라들 각각의 화각 중 적어도 하나에 의해 결정될 수도 있다.For example, the set value k may be automatically calculated using at least one of the number of the depth sensor cameras and the angle of view of each of the depth sensor cameras. Alternatively, a range in which the user can set the set value k may be determined by at least one of the number of the depth sensor cameras and the angle of view of each of the depth sensor cameras.

이어서, 상기 관절들의 위치 정보들 및 상기 기준 연결점들의 위치 정보들로부터 서로 대응되는 두 위치들 사이의 거리를 나타내는 유클리디안 디스턴스(Euclidean distance)들을 계산할 수 있다(S512).Next, the Euclidean distances representing the distances between two positions corresponding to each other from the position information of the joints and the position information of the reference joints may be calculated (S512).

예를 들어, 어느 하나의 관절 B가 기준 연결점 A와 서로 대응되고, 상기 기준 연결점 A의 위치 정보가 (xa, ya, za)이며, 상기 관절 B의 위치 정보가 (xb, yb, zb)이라고 할 때, 상기 관절 B 및 상기 기준 연결점 A 사이의 유클리디안 디스턴스는 다음과 같은 수식으로 표현될 수 있다.For example, any one of the joint B are standard and correspond to each other and the connection point A, the position information of the reference connection point A (x a, y a, z a), and the location information of the joint B (x b, y b , z b ), the euclidean distance between the joint B and the reference joint A can be expressed by the following equation.

Figure 112014123485978-pat00001
Figure 112014123485978-pat00001

이어서, 상기 유클리디안 디스턴스들을 이용하여 상기 관절 유사도들을 계산할 수 있다(S514). 이때, 상기 관절 유사도들 각각은 1을 상기 유클리디안 디스턴스들 각각을 설정값 k로 나눈 값으로 뺀 값일 수 있다.Then, the joint similarities may be calculated using the euclidean distance (S514). In this case, each of the joint similarities may be a value obtained by subtracting 1 from a value obtained by dividing each of the euclidean distances by a set value k.

여기서, 상기 관절 B 및 상기 기준 연결점 A 사이의 유클리디안 디스턴스에 따른 관절 유사도를 수식으로 표현하면 다음과 같다.Here, the joint similarity according to the euclidean distance between the joint B and the reference joint A can be expressed by the following equation.

Figure 112014123485978-pat00002
Figure 112014123485978-pat00002

이어서, 상기 관절 유사도들이 계산되어지면, 상기 관절 유사도들을 이용하여 상기 스켈레톤 유사도를 계산할 수 있다(S520). 이때, 상기 스켈레톤 유사도는 상기 관절 유사도들의 단순 평균값일 수 있다.Then, when the joint similarities are calculated, the skeleton similarity can be calculated using the joint similarities (S520). At this time, the skeleton similarity may be a simple average value of the joint similarities.

예를 들어, 상기 스켈레톤 유사도를 도 4에 따른 20개의 관절들에 대응하는 관절 유사도들로 표현하면 다음과 같다.For example, the skeleton similarity may be represented by the joint similarities corresponding to the twenty joints shown in FIG. 4 as follows.

Figure 112014123485978-pat00003
Figure 112014123485978-pat00003

한편, 본 실시예에서, 상기 설정값 k를 설정하는 단계(S512)는 상기 관절 유사도들을 계산하는 단계(S514) 이전이라면, 어느 시점에서도 수행될 수 있다. 예를 들어, 상기 설정값 k를 설정하는 단계(S512)는 상기 촬영 정보들을 생성하는 단계(S100) 이전에 이미 수행될 수도 있다. 이때, 상기 촬영 정보들을 생성하는 단계(S100) 이전에 상기 설정값 k를 설정하는 단계(S512)가 수행될 경우, 이전에 수행된 프로세스에 의해 도출된 스켈레톤 유사도의 값을 고려하여 상기 설정값 k이 설정될 수도 있다.Meanwhile, in this embodiment, the step S512 of setting the set value k may be performed at any time point before the step S514 of calculating the joint similarities. For example, the step S512 of setting the set value k may be performed before the step S100 of generating the shooting information. In this case, when the setting value k is set (S512) before the step of generating the photographing information (S100), the setting value k is calculated in consideration of the value of the skeleton similarity derived by the previously performed process May be set.

이하, 위에서 설명한 스켈레톤 트래킹 방법을 이용한 스켈레톤 트래킹 시스템의 일 예를 자세하게 설명하고자 한다.Hereinafter, an example of a skeleton tracking system using the skeleton tracking method described above will be described in detail.

도 6은 도 1의 스켈레톤 트래킹 방법을 이용한 스켈레톤 트래킹 시스템의 일 예를 설명하기 위한 블록도이다.6 is a block diagram for explaining an example of a skeleton tracking system using the skeleton tracking method of FIG.

도 6을 참조하면, 본 실시예에 의한 스켈레톤 트래킹 시스템은 상기 뎁스 센서 카메라들(100)과, 스켈레톤 트래킹 모듈(200), 유사도 평가 모듈(300) 및 디스플레이 장치(400)을 포함할 수 있다.Referring to FIG. 6, the skeleton tracking system according to the present embodiment may include the depth sensor cameras 100, the skeleton tracking module 200, the similarity evaluation module 300, and the display device 400.

상기 뎁스 센서 카메라들(100)은 복수의 관절들을 갖는 임의의 사람을 촬영하여 상기 사람에 대한 N개의 촬영 정보들을 각각 생성한다. 즉, 상기 뎁스 센서 카메라들(100)은 상기 S100 단계를 수행할 수 있다.The depth sensor cameras 100 photograph an arbitrary person having a plurality of joints and generate N photographing information for the person, respectively. That is, the depth sensor cameras 100 may perform step S100.

상기 스켈레톤 트래킹 모듈(200)은 상기 촬영 정보들로부터 상기 관절들 각각에서의 N개의 위치 정보들을 추출하고, 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산하며, 상기 관절들 각각에 대한 통합 위치 정보를 이용하여 상기 사람에 대한 스켈레톤 모형을 형성한다. 즉, 상기 스켈레톤 트래킹 모듈(200)은 상기 S200, S300 및 S400 단계들을 수행할 수 있다.The skeleton tracking module 200 extracts N positional information from each of the joints from the photographing information and calculates integrated positional information on each of the joints from N positional information in each of the joints And forms a skeleton model for the person using the integrated position information for each of the joints. That is, the skeleton tracking module 200 may perform steps S200, S300, and S400.

구체적으로, 상기 스켈레톤 트래킹 모듈(200)은 상기 촬영 정보들로부터 상기 관절들 각각에서의 N개의 위치 정보들을 추출하는 관절 위치 정보 추출부(210), 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산하는 통합 위치 정보 계산부(220), 및 상기 관절들 각각에 대한 통합 위치 정보를 이용하여 상기 사람에 대한 스켈레톤 모형을 형성하는 스켈레톤 모형 형성부(230)을 포함할 수 있다. 이때, 상기 관절 위치 정보 추출부(210), 상기 통합 위치 정보 계산부(220), 및 상기 스켈레톤 모형 형성부(230)는 물리적으로 분리된 프로세스 소자들일 수 있지만, 프로그램 상으로 분리되어 있을 뿐 하나의 프로세스 소자에서 수행되는 프로그램들일 수도 있다.Specifically, the skeleton tracking module 200 includes a joint position information extracting unit 210 for extracting N position information from each of the joints from the photographing information, A skeleton model forming unit 230 for forming a skeleton model for the human using the combined position information for each of the joints, . ≪ / RTI > At this time, the joint position information extraction unit 210, the integrated position information calculation unit 220, and the skeleton model formation unit 230 may be physically separated process elements, Lt; RTI ID = 0.0 > process elements. ≪ / RTI >

한편, 상기 관절 위치 정보 추출부(210)가 상기 촬영 정보들로부터 상기 관절들 각각에서의 N개의 위치 정보들을 추출하는 것은 상기 관절 위치 정보 추출부(210)가 상기 촬영 정보들을 각종 프로세싱을 수행하여 상기 관절들 각각에서의 N개의 위치 정보들을 뽑아내거나 새롭게 생성하는 것뿐만 아니라, 상기 뎁스 센서 카메라들(100)로부터 직접 상기 관절들 각각에서의 N개의 위치 정보들을 제공받아 그대로 사용하는 것을 포함하는 개념일 수 있다.The joint position information extraction unit 210 extracts N position information from each of the joints from the photographing information by the joint position information extraction unit 210 performing various processing on the shooting information A concept including not only extracting or generating new N positional information in each of the joints but also using N positional information in each of the joints directly from the depth sensor cameras 100 Lt; / RTI >

예를 들어, 상기 뎁스 센서 카메라들(100)에서 상기 관절 위치 정보 추출부(210)로 제공되는 상기 촬영 정보들은 상기 관절들 각각에서의 N개의 위치 정보들을 직접 포함할 수 있다. 즉, 상기 뎁스 센서 카메라들(100) 각각은 촬영된 영상 및 데이터를 자체 프로세싱을 수행하여 상기 관절들 각각에서의 N개의 위치 정보들을 생성하여 상기 관절 위치 정보 추출부(210)로 제공할 수도 있다.For example, the photographing information provided to the joint position information extracting unit 210 in the depth sensor cameras 100 may directly include N position information in each of the joints. That is, each of the depth sensor cameras 100 performs self-processing of the photographed image and data to generate N position information in each of the joints and provides the generated position information to the joint position information extracting unit 210 .

상기 유사도 평가 모듈(300)은 상기 스켈레톤 모형을 상기 기준 모형과 비교하여 상기 두 모형 간의 스켈레톤 유사도를 계산할 수 있다.The similarity evaluation module 300 may compute the skeleton similarity between the two models by comparing the skeleton model with the reference model.

구체적으로, 상기 유사도 평가 모듈(300)은 상기 관절들의 위치 정보들 및 상기 기준 연결점들의 위치 정보들로부터 서로 대응되는 두 위치들 사이의 거리를 나타내는 상기 유클리디안 디스턴스들을 계산하고, 상기 유클리디안 디스턴스들을 이용하여 상기 관절 유사도들을 계산하며, 상기 관절 유사도들을 이용하여 상기 스켈레톤 유사도를 계산할 수 있다. 즉, 상기 유사도 평가 모듈(300)은 상기 S500 단계를 수행할 수 있다.Specifically, the similarity evaluating module 300 calculates the Euclidean distances, which are distances between two positions corresponding to each other, from the position information of the joints and the position information of the reference connecting points, The joint similarities are calculated using the distance, and the skeleton similarity can be calculated using the joint similarities. That is, the similarity evaluation module 300 may perform the operation S500.

예를 들어, 상기 유사도 평가 모듈(300)은 K값 설정부(310), 기준 모형 저장부(320) 및 유사도 계산부(330)을 포함할 수 있다. 여기서, 상기 K값 설정부(310), 상기 기준 모형 저장부(320) 및 상기 유사도 계산부(330)는 서로 물리적으로 분리된 프로세스 또는 메모리 소자들일 수 있지만, 프로그램 상으로 분리되어 있을 뿐 하나의 프로세스 소자에서 수행되는 프로그램들일 수도 있다.For example, the similarity evaluation module 300 may include a K value setting unit 310, a reference model storage unit 320, and a similarity calculation unit 330. The K value setting unit 310, the reference model storage unit 320, and the similarity calculation unit 330 may be processes or memory elements physically separated from each other. However, the K value setting unit 310, Or may be programs executed in a process element.

상기 K값 설정부(310)는 상기 관절 유사도들 각각을 계산하기 위해 필요한 상기 설정값 k를 설정할 수 있다. 즉, 상기 K값 설정부(310)는 상기 S512 단계를 수행할 수 있다. 여기서, 상기 설정값 k가 사용자에 의해 자유롭게 입력된 값일 경우, 상기 K값 설정부(310)는 사용자으로부터 입력값을 제공받을 수 있는 입력 수단을 포함할 수 있다.The K value setting unit 310 may set the set value k necessary for calculating each of the joint similarities. That is, the K value setting unit 310 may perform step S512. Here, if the set value k is a value freely input by the user, the K value setting unit 310 may include input means for receiving an input value from the user.

상기 기준 모형 저장부(320)는 상기 유클리디안 디스턴스들을 계산하기 위한 상기 기준 모형에 대한 정보를 저장하고 있다. 여기서, 상기 기준 모형에 대한 정보는 본 실시예에 의한 프로세스를 수행하기 이전에 상기 기준 모형 저장부(320)에 저장되어 있어야 한다.The reference model storage unit 320 stores information on the reference model for calculating the euclidean distances. Here, the information about the reference model should be stored in the reference model storage 320 before performing the process according to the present embodiment.

상기 유사도 계산부(330)는 상기 스켈레톤 모형 형성부(230)에서 제공된 상기 스켈레톤 모형에 대한 정보, 상기 기준 모형 저장부(320)에서 제공된 상기 기준 모형에 대한 정보, 및 상기 K값 설정부(310)으로부터 제공된 상기 설정값 k을 이용하여, 상기 스켈레톤 유사도를 계산할 수 있다. 즉, 상기 유사도 계산부(330)는 상기 S514, S516 및 S520 단계들을 수행할 수 있다.The similarity calculation unit 330 may include information on the skeleton model provided from the skeleton model formation unit 230, information on the reference model provided from the reference model storage unit 320, and information on the K value setting unit 310 The skeleton similarity degree may be calculated using the set value k provided from the skeleton similarity degree calculating unit. That is, the similarity calculation unit 330 may perform the steps S514, S516, and S520.

본 실시예에서, 상기 스켈레톤 트래킹 모듈(200) 및 상기 유사도 평가 모듈(300)는 서로 물리적으로 분리된 프로세스 소자들 또는 컴퓨터 장치들일 수도 있지만, 프로그램 상으로 분리되어 있을 뿐 하나의 프로세스 소자 또는 컴퓨터 장치에서 수행되는 프로그램들일 수도 있다.In the present embodiment, the skeleton tracking module 200 and the similarity evaluation module 300 may be process elements or computer devices that are physically separated from each other, but may be a program element or a computer device Or the like.

상기 디스플레이 장치(400)는 상기 유사도 계산부(330)로부터 상기 스켈레톤 유사도를 제공받아 표시할 수 있다. 또한, 상기 디스플레이 장치(400)는 상기 스켈레톤 모형 형성부(230)로부터 상기 스켈레톤 모형을 제공받고, 상기 기준 모형 저장부(320)로부터 상기 기준 모형을 제공받아, 상기 스켈레톤 모형 및 상기 기준 모형을 동시에 또는 어느 하나만 표시할 수도 있다.The display device 400 may receive the skeleton similarity from the similarity calculation unit 330 and display the same. In addition, the display device 400 receives the skeleton model from the skeleton model forming unit 230, receives the reference model from the reference model storing unit 320, and stores the skeleton model and the reference model at the same time Or may display only one of them.

한편, 본 실시예서, 상기 스켈레톤 유사도의 최하값을 나타내는 상기 설정값 k가 조절될 경우, 상기 스켈레톤 유사도에 대한 변화율 또는 민감도가 조절될 수 있다. 구체적으로, 상기 설정값 k가 커질수록 유사도 변화의 폭은 줄어들고, 상기 설정값 k가 작아질수록 유사도 변화의 폭은 커질 수 있다. 이때, 상기 설정값 k로 결정되는 상기 스켈레톤 유사도에 대한 변화율 또는 민감도의 설정으로, 재활서비스에서 환자가 트레이너의 동작을 따라하는 재활 훈련을 수행할 때 난이도 설정 기능으로 활용될 수 있다.Meanwhile, in the present embodiment, when the set value k indicating the lowest value of the skeleton similarity is adjusted, the rate of change or sensitivity to the skeleton similarity can be adjusted. Specifically, as the set value k increases, the width of the similarity change decreases, and as the set value k decreases, the width of the similarity change may become larger. At this time, by setting the rate of change or sensitivity to the skeleton similarity determined by the set value k, the difficulty level setting function can be utilized when the patient performs rehabilitation training following the trainer's operation in the rehabilitation service.

이하, 상기 뎁스 센서 카메라의 대수가 증가됨에 따라 스켈레톤 모형의 정확도가 증가되는 것을 확인할 수 있는 실험 결과를 설명하고자 한다.Hereinafter, an experimental result to confirm that the accuracy of the skeleton model increases as the number of the depth sensor cameras increases.

우선, 실험 환경의 하드웨어 스펙은 Windows 7 64bit Operating System, intel core i5-750 Lynnfield Quad-Core 2.66GHz CPU, 8 Gigabyte RAM이다. 뎁스 센서 카메라는 상용화 제품 중 가격 대비 성능이 우수한 Microsoft Kinect for Windows 4대를 사용한다. 뎁스 센서 카메라의 수가 4대인 이유는 스켈레톤 모형이 사용자 신체의 전면 모습을 기반으로 구성되므로 전면의 모든 부분을 추출할 수 있는 카메라 배치를 생각했을 때 최대 4대가 가장 효과적이기 때문이다.First, the hardware specifications of the experimental environment are Windows 7 64bit Operating System, Intel Core i5-750 Lynnfield Quad-Core 2.66GHz CPU, and 8 Gigabyte RAM. The DeepSensor camera uses four Microsoft Kinect for Windows products, which are among the most commercially available products. The reason why the number of depth sensor cameras is four is because the skeleton model is based on the front view of the user's body, so it is most effective when four cameras are considered to be able to extract all parts of the front face.

실험의 목표는 뎁스 센서 카메라의 대수 증가에 따라 본 제안 방식을 이용하여 통합한 스켈레톤 모형의 정확도가 개선되는지 확인하는 것이다. 그렇기 때문에 뎁스 센서 카메라를 1대에서 4대까지 증가시키되 실험 방법은 동일해야 한다.The goal of the experiment is to check whether the accuracy of the integrated skeleton model is improved by using the proposed method as the number of depth sensor cameras increases. Therefore, the depth sensor camera should be increased from 1 to 4, but the experimental method should be the same.

이어서, 유사도 변화의 민감도를 결정짓는 설정값 k를 설정한다. 상기 설정값 k(범위는 0.00m에서 1.00m)는 크게 설정할수록 스켈레톤 모형의 오차에 유사도 변화가 미미해지고, 작게 설정할수록 스켈레톤 모형의 작은 오차에도 민감하게 반응하여 확연한 유사도 변화를 보여준다. 유사도의 변화를 확인할 수 있으면서 극도로 민감하지 않는 임계값 k는 0.25m이다. 그렇기 때문에 본 실험에서는 임계값 k를 0.25m로 설정하여 유사도 측정에 사용한다.Then, a setting value k that determines the sensitivity of the change in similarity degree is set. As the set value k (range is 0.00m to 1.00m) is set to a larger value, the degree of similarity change is small to the error of the skeleton model. When the setting value k is small, the sensitivity is also sensitive to small errors of the skeleton model. The threshold value k is 0.25m, which is very sensitive, while the change of similarity can be confirmed. Therefore, in this experiment, the threshold value k is set to 0.25m and used for the similarity measurement.

기준 모형의 생성은 유사도 측정을 위한 기준값을 생성하는 과정으로 10초(30 frame per second)동안 본 제안 방식을 사용하여 사용자의 스켈레톤 모형을 통합하고 녹화 저장한다. 뎁스 센서 카메라를 1대에서 4대까지 증가시키면서 반복하고, 뎁스 센서 카메라 대수 n을 기반으로 기준 모형을 생성한다.The generation of the reference model is a process of generating a reference value for the similarity measurement. The proposed method is used to integrate and record the user 's skeleton model for 10 seconds (30 frames per second). Depth Sensor Repeat the camera from 1 to 4, and create a reference model based on the number of depth sensor cameras n.

기준 모형과 실시간으로 측정하여 통합된 스켈레톤 모형 간의 유사도 측정, 즉 스켈레톤 유사도는 매초마다 계산한다. 기준 모형의 재생 시간이 10초이므로, 뎁스 센서 카메라들마다 10개의 스켈레톤 유사도가 출력된다.The similarity measure between the reference model and the integrated skeleton model measured in real time, ie, skeleton similarity, is calculated every second. Since the reproduction time of the reference model is 10 seconds, 10 skeleton similarities are output for each depth sensor camera.

도 7은 도 1의 스켈레톤 트래킹 방법에서 사용되는 평가 변수를 설명하기 위한 테이블이다.7 is a table for explaining evaluation variables used in the skeleton tracking method of FIG.

본 실험의 평가 변수(evaluation parameters)는 설정값 k, 관절의 위치 정보, 시간, 유사도, 뎁스 센서 카메라의 대수이다. 각 평가 변수에 대한 개념은 도 7을 참조한다.The evaluation parameters of this experiment are set value k, joint position information, time, similarity, and the number of depth sensor cameras. The concept of each evaluation variable is shown in FIG.

도 8은 뎁스 센서 카메라의 대수 변화에 따른 스켈레톤 유사도의 변화를 나타낸 그래프이다.8 is a graph showing changes in the skeleton similarity according to the logarithmic change of the depth sensor camera.

도 8을 참조하면, 뎁스 센서 카메라의 대수가 증가할수록 유사도가 증가하는 것을 확인할 수 있다. 즉, 본 제안 방식을 사용하면, 스켈레톤 트랙킹에 대한 정확도가 높아진다는 것을 의미한다. 키넥트 1개, 2개를 사용한 유사도 그래프를 보면 움직임이 있을 때 유사도가 급격하게 떨어지지만, 키넥트 3개, 4개를 사용한 유사도 그래프는 유사도의 변화가 크지 않다. 키넥트 3개를 사용한 것과 키넥트 4개를 사용한 것을 비교하면 키넥트 4개를 사용한 것이 유사도 변화의 변동 폭이 좁으므로 품질이 좋은 스켈레톤 모형을 추출할 수 있다.Referring to FIG. 8, it can be seen that the degree of similarity increases as the number of depth sensor cameras increases. That is, using this proposed scheme means that the accuracy of skeleton tracking is increased. In similarity graphs using one or two Kinect, the degree of similarity drops sharply when there is motion, but the similarity graph using 3 or 4 Kinect does not change much. Compared with the use of three Kinect and four Kinect, the use of four Kinect is able to extract a good quality skeleton model because the fluctuation range of similarity variation is narrow.

도 9는 설정값 k의 변화에 따른 스켈레톤 유사도의 변화를 나타낸 그래프들이다.9 is a graph showing a change in skeleton similarity according to a change in the set value k.

도 9을 참조하면, 설정값 k의 설정에 따른 유사도 변화를 알 수 있다. 도 9의 (a)에서 (d)까지 각각 0.25(m), 0.50(m), 0.75(m), 1.00(m)로 설정값 k을 설정하였고, 설정값 k이 커질수록 유사도 변화의 폭이 줄어들고 설정값 k가 작아질수록 유사도 변화의 폭이 늘어나는 것을 확인할 수 있다.Referring to FIG. 9, the change in similarity degree according to the setting of the set value k can be known. The set value k is set to 0.25 (m), 0.50 (m), 0.75 (m), and 1.00 (m) from FIGS. 9A to 9D, and as the set value k increases, And as the set value k becomes smaller, the variation range of the similarity degree increases.

한편, 본 실시예에 의한 스켈레톤 트래킹 방법 및 시스템은 사용자와 재활 트레이너의 재활 훈련 자세를 비교하여 유사도를 판정하고 올바른 자세를 취할 수 있도록 지원하는 재활 서비스에 적용할 수 있다.Meanwhile, the skeleton tracking method and system according to the present embodiment can be applied to a rehabilitation service that compares a rehabilitation training posture of a user and a rehabilitation trainer to determine a degree of similarity and support a correct attitude.

사전에 저장해둔 트레이너의 참조 스켈레톤 데이터, 즉 기준 모형을 재생하고 사용자가 재활 동작을 따라하면 정확한 자세로 교정한다. 트레이너의 참조 스켈레톤 데이터를 기준으로 사용자의 재활 동작을 비교하여 유사도를 백분율로 나타낸다. 유사도 변화의 폭을 결정짓는 설정값 k를 설정하여 난이도 조절 기능을 부여할 수 있다. 지속적인 자세교정과 환자의 호전상태에 따라 재활 훈련의 난이도를 조절할 수 있다. 환자의 상태가 많이 나아졌다면, 설정값 k를 작게 설정하여 난이도를 올려서 재활 훈련의 효과를 높일 수 있다.The reference skeleton data of the trainer that has been stored in advance is reproduced and the reference model is reproduced. When the user follows the rehabilitation operation, the correct posture is corrected. The user's rehabilitation behavior is compared based on the trainer's reference skeleton data, and the similarity is expressed as a percentage. The degree of difficulty adjustment function can be given by setting the setting value k that determines the width of the degree of similarity change. The difficulty of rehabilitation training can be controlled by continuous posture correction and patient's improvement status. If the condition of the patient is much improved, the set value k can be set small to raise the difficulty level, thereby enhancing the effect of the rehabilitation training.

이와 같이 본 실시예에 따르면, N개의 뎁스 센서 카메라들에서 생성된 N개의 촬영 정보들로부터 관절들 각각에서의 N개의 위치 정보들이 추출되고, 이렇게 추출된 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보가 계산됨에 따라, 보다 정확한 스켈레톤 모형이 형성될 수 있다.As described above, according to the present embodiment, N pieces of position information in each of the joints are extracted from the N pieces of photographing information generated from the N depth sensor cameras, N pieces of position information in each of the extracted joints A more accurate skeleton model can be formed as the integrated positional information for each of the joints is calculated from the joint position information.

즉, 상기 스켈레톤 트래킹 방법 또는 시스템이 상기 관절들 각각에서의 N개의 위치 정보들 중 가장 가까운 것 하나를 선택하여 스켈레톤 모형을 형성하는 것이 아니라, 상기 관절들 각각에서의 N개의 위치 정보들의 단순 평균, 가중 평균 및 제곱평균제곱근 중 어느 하나의 값을 계산하여 상기 관절들 각각에 대한 통합 위치 정보를 추출하고 이렇게 추출된 값들을 통해 스켈레톤 모형을 형성함에 따라, 상기 관절들 각각에서의 N개의 위치 정보들 중 일부에 오류가 발생되더라도 상기 오류가 상기 1/N로 감소되어 보다 정확한 스켈레톤 모형을 형성할 확률이 증가될 수 있다.That is, the skeleton tracking method or system does not select the nearest one of the N positional information items in each of the joints to form a skeleton model, but rather a simple average of N positional information items in each of the joints, Calculating a value of any one of weighted average and root-mean-square roots, extracting integrated position information for each of the joints, and forming a skeleton model through the extracted values, The error may be reduced to 1 / N, and the probability of forming a more accurate skeleton model may be increased.

또한, 상기 스켈레톤 트래킹 방법 또는 시스템이 상기 스켈레톤 모형을 기준 모형과 비교하여 상기 두 모형 간의 스켈레톤 유사도를 계산함에 따라, 상기 스켈레톤 모형이 상기 기준 모형과 얼마나 유사한지를 평가할 수 있다.Also, the skeleton tracking method or system may evaluate the similarity of the skeleton model with the reference model by calculating the skeleton similarity between the two models by comparing the skeleton model with the reference model.

또한, 상기 스켈레톤 유사도의 최하값을 나타내는 설정값 k가 조절될 경우, 유사도 변화율 또는 민감도가 조절될 수 있다. 그에 따라, 상기 스켈레톤 트래킹 방법 또는 시스템이 재활 훈련을 제공하는 재활 서비스에 적용될 경우, 상기 설정값 k는 상기 재활 서비스에서의 훈련 난이도를 결정하는 값이 될 수 있다.
Also, when the set value k indicating the lowest value of the skeleton similarity is adjusted, the rate of change in similarity or the sensitivity can be adjusted. Accordingly, when the skeleton tracking method or system is applied to a rehabilitation service that provides rehabilitation training, the set value k may be a value that determines a training difficulty in the rehabilitation service.

앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

100 : 뎁스 센서 카메라 200 : 스켈레톤 트래킹 모듈
210 : 관절 위치 정보 추출부 220 : 통합 위치 정보 계산부
230 : 스켈레톤 모형 형성부 300 : 유사도 평가 모듈
310 : K값 설정부 320 : 기준 모형 저장부
330 : 유사도 계산부 400 : 디스플레이 장치
100: Depth sensor camera 200: Skeleton tracking module
210: joint position information extraction unit 220: integrated position information calculation unit
230: Skeleton model forming unit 300:
310: K value setting unit 320: Reference model storage unit
330: similarity calculation unit 400: display device

Claims (20)

N개의 뎁스(depth) 센서 카메라들로부터 복수의 관절들을 갖는 임의의 사람에 대한 N개의 촬영 정보들을 생성하는 단계(단, N은 2 이상의 정수임);
상기 촬영 정보들로부터 상기 관절들 각각에서의 N개의 위치 정보들을 추출하는 단계;
상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산하는 단계;
상기 관절들 각각에 대한 통합 위치 정보를 이용하여 상기 사람에 대한 스켈레톤(skeleton) 모형을 형성하는 단계; 및
상기 스켈레톤 모형을 기준 모형과 비교하여 두 모형 간의 스켈레톤 유사도를 계산하는 단계를 포함하고,
상기 기준 모형은
상기 관절들 각각 대응되는 기준 연결점들의 위치 정보들을 포함하며,
상기 스켈레톤 유사도를 계산하는 단계는
상기 관절들의 위치 정보들 및 상기 기준 연결점들의 위치 정보들로부터 서로 대응되는 두 위치들 사이의 거리를 나타내는 유클리디안 디스턴스(Euclidean distance)들을 계산하는 단계;
상기 유클리디안 디스턴스들을 이용하여 관절 유사도들을 계산하는 단계; 및
상기 관절 유사도들을 이용하여 상기 스켈레톤 유사도를 계산하는 단계를 포함하고,
상기 관절 유사도들 각각은
1을 상기 유클리디안 디스턴스들 각각을 설정값 k로 나눈 값으로 뺀 값을 포함하는 것을 특징으로 하는 스켈레톤 트래킹 방법.
Generating N photographic information for any person having a plurality of joints from N depth sensor cameras (where N is an integer greater than or equal to 2);
Extracting N positional information from each of the joints from the photographing information;
Calculating integrated position information for each of the joints from N positional information in each of the joints;
Forming a skeleton model for the human using joint position information for each of the joints; And
And comparing the skeleton model with a reference model to calculate a skeleton similarity between the two models,
The reference model
Each of the joints including position information of corresponding reference joints,
The step of calculating the skeleton similarity
Calculating Euclidean distances representing distances between two positions corresponding to each other from position information of the joints and position information of the reference connection points;
Calculating joint similarities using the euclidean distance; And
And calculating the skeleton similarity using the joint similarities,
Each of the joint similarities
1 by a value obtained by dividing each of the euclidian distances by a set value k.
제1항에 있어서, 상기 관절들 각각에 대한 통합 위치 정보는
상기 관절들 각각에서의 N개의 위치 정보들의 단순 평균, 가중 평균 및 제곱평균제곱근 중 어느 하나의 값을 포함하는 것을 특징으로 하는 스켈레톤 트래킹 방법.
The method of claim 1, wherein the combined position information for each of the joints
A weighted average, and a root-mean-square root of N positional information in each of the joints.
삭제delete 삭제delete 삭제delete 제1항에 있어서, 상기 스켈레톤 유사도는
상기 관절 유사도들의 단순 평균값을 포함하는 것을 특징으로 하는 스켈레톤 트래킹 방법.
The method of claim 1, wherein the skeleton similarity is
And a simple average value of the joint similarities.
삭제delete 삭제delete 제1항에 있어서, 상기 뎁스 센서 카메라들의 개수 및 상기 뎁스 센서 카메라들 각각의 화각 중 적어도 하나를 고려하여 상기 설정값 k를 설정하는 단계를 더 포함하는 것을 특징으로 하는 스켈레톤 트래킹 방법.The method according to claim 1, further comprising setting the set value k in consideration of at least one of the number of the depth sensor cameras and the angle of view of each of the depth sensor cameras. 제1항에 있어서, 상기 스켈레톤 유사도를 표시하는 단계를 더 포함하는 것을 특징으로 하는 스켈레톤 트래킹 방법.The method of claim 1, further comprising displaying the skeleton similarity. 복수의 관절들을 갖는 임의의 사람을 촬영하여 상기 사람에 대한 N개의 촬영 정보들을 각각 생성하는 N개의 뎁스(depth) 센서 카메라들(단, N은 2 이상의 정수임);
상기 촬영 정보들로부터 상기 관절들 각각에서의 N개의 위치 정보들을 추출하고, 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산하며, 상기 관절들 각각에 대한 통합 위치 정보를 이용하여 상기 사람에 대한 스켈레톤(skeleton) 모형을 형성하는 스켈레톤 트레킹 모듈; 및
상기 스켈레톤 모형을 기준 모형과 비교하여 두 모형 간의 스켈레톤 유사도를 계산하는 유사도 평가 모듈을 포함하고,
상기 기준 모형은
상기 관절들 각각 대응되는 기준 연결점들의 위치 정보들을 포함하며,
상기 유사도 평가 모듈은
상기 관절들의 위치 정보들 및 상기 기준 연결점들의 위치 정보들로부터 서로 대응되는 두 위치들 사이의 거리를 나타내는 유클리디안 디스턴스(Euclidean distance)들을 계산하고, 상기 유클리디안 디스턴스들을 이용하여 관절 유사도들을 계산하며, 상기 관절 유사도들을 이용하여 상기 스켈레톤 유사도를 계산하고,
상기 관절 유사도들 각각은
1을 상기 유클리디안 디스턴스들 각각을 설정값 k로 나눈 값으로 뺀 값을 포함하는 것을 특징으로 하는 스켈레톤 트래킹 시스템.
N depth sensor cameras (N is an integer of 2 or more) for capturing an arbitrary person having a plurality of joints to generate N photographing information for the person, respectively;
Extracting N pieces of position information in each of the joints from the photographing information, calculating integrated position information on each of the joints from N pieces of position information in each of the joints, A skeleton trekking module for forming a skeleton model for the person using the integrated position information; And
And a similarity evaluating module for comparing the skeleton model with a reference model and calculating a skeleton similarity between the two models,
The reference model
Each of the joints including position information of corresponding reference joints,
The similarity-
Calculating Euclidean distances representing distances between two positions corresponding to each other from the position information of the joints and the position information of the reference joints, and calculating joint similarities using the Euclidean distances Calculating the skeleton similarity using the joint similarities,
Each of the joint similarities
1 by a value obtained by dividing each of the Euclidean distances by a set value k.
제11항에 있어서, 상기 관절들 각각에 대한 통합 위치 정보는
상기 관절들 각각에서의 N개의 위치 정보들의 단순 평균, 가중 평균 및 제곱평균제곱근 중 어느 하나의 값을 포함하는 것을 특징으로 하는 스켈레톤 트래킹 시스템.
12. The method of claim 11, wherein the combined position information for each of the joints
A weighted average and a root mean square of the N positional information in each of the joints.
삭제delete 삭제delete 삭제delete 제11항에 있어서, 상기 스켈레톤 유사도는
상기 관절 유사도들의 단순 평균값을 포함하는 것을 특징으로 하는 스켈레톤 트래킹 시스템.
12. The method of claim 11, wherein the skeleton similarity is
Wherein the skeleton tracking system includes a simple average value of the joint similarities.
삭제delete 삭제delete 제11항에 있어서, 상기 유사도 평가 모듈은
상기 뎁스 센서 카메라들의 개수 및 상기 뎁스 센서 카메라들 각각의 화각 중 적어도 하나를 고려하여 상기 설정값 k를 설정하는 것을 특징으로 하는 스켈레톤 트래킹 시스템.
12. The method of claim 11, wherein the similarity-
Wherein the set value k is set in consideration of at least one of the number of the depth sensor cameras and the angle of view of each of the depth sensor cameras.
제11항에 있어서, 상기 스켈레톤 유사도를 표시하는 디스플레이 장치를 더 포함하는 것을 특징으로 하는 스켈레톤 트래킹 시스템.12. The skeleton tracking system of claim 11, further comprising a display device for displaying the skeleton similarity.
KR1020140183675A 2014-12-19 2014-12-19 Skeleton tracking method and keleton tracking system using the method KR101636171B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140183675A KR101636171B1 (en) 2014-12-19 2014-12-19 Skeleton tracking method and keleton tracking system using the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140183675A KR101636171B1 (en) 2014-12-19 2014-12-19 Skeleton tracking method and keleton tracking system using the method

Publications (2)

Publication Number Publication Date
KR20160075884A KR20160075884A (en) 2016-06-30
KR101636171B1 true KR101636171B1 (en) 2016-07-05

Family

ID=56352439

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140183675A KR101636171B1 (en) 2014-12-19 2014-12-19 Skeleton tracking method and keleton tracking system using the method

Country Status (1)

Country Link
KR (1) KR101636171B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102195401B1 (en) * 2020-10-07 2020-12-24 (주)멀틱스 hand language recognition method for hearing impairment people

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102013367B1 (en) 2017-07-31 2019-08-22 모젼스랩 (주) System for providing touch interaction of virtual space
KR20200008400A (en) 2018-07-16 2020-01-28 모젼스랩(주) System for providing virtual experience space having contents generated by user
KR20200008478A (en) 2018-07-16 2020-01-28 모젼스랩(주) System for providing virtual experience space having real objects
KR20230068043A (en) 2021-11-10 2023-05-17 (주)모션테크놀로지 Calibration method for creating human skeleton using optical marker method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012066026A (en) * 2010-09-27 2012-04-05 Sony Corp Information processing device and method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101933921B1 (en) * 2013-06-03 2018-12-31 삼성전자주식회사 Method and apparatus for estimating pose

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012066026A (en) * 2010-09-27 2012-04-05 Sony Corp Information processing device and method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
C. Sch?nauer, et al., "Wide area motion tracking using consumer hardware," ACM Advances in Computer Entertainment Technology conference (ACE 2011), Lisbon, Portugal. vol.8. 2011.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102195401B1 (en) * 2020-10-07 2020-12-24 (주)멀틱스 hand language recognition method for hearing impairment people

Also Published As

Publication number Publication date
KR20160075884A (en) 2016-06-30

Similar Documents

Publication Publication Date Title
Zhang et al. Ergonomic posture recognition using 3D view-invariant features from single ordinary camera
US10898755B2 (en) Method for providing posture guide and apparatus thereof
JP7057959B2 (en) Motion analysis device
CN110321754B (en) Human motion posture correction method and system based on computer vision
KR101636171B1 (en) Skeleton tracking method and keleton tracking system using the method
US11763603B2 (en) Physical activity quantification and monitoring
JP7452016B2 (en) Learning data generation program and learning data generation method
US11403882B2 (en) Scoring metric for physical activity performance and tracking
KR101913667B1 (en) Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same
CN112434679B (en) Rehabilitation exercise evaluation method and device, equipment and storage medium
TWI704530B (en) Gaze angle determination apparatus and method
KR20180110443A (en) Apparatus and method for providing calorie information
KR101818198B1 (en) Apparatus and method for evaluating Taekwondo motion using multi-directional recognition
US20240057946A1 (en) Sarcopenia evaluation method, sarcopenia evaluation device, and non-transitory computer-readable recording medium in which sarcopenia evaluation program is recorded
Hwang et al. Motion data acquisition method for motion analysis in golf
US20160153777A1 (en) Movement-trace sensing system and motion model constructing method by using the same
CN115862124B (en) Line-of-sight estimation method and device, readable storage medium and electronic equipment
KR20160035497A (en) Body analysis system based on motion analysis using skeleton information
JP6525180B1 (en) Target number identification device
JP7482471B2 (en) How to generate a learning model
US20210286983A1 (en) Estimation method, and computer-readable recording medium recording estimation program
JP7396482B2 (en) Judgment program, judgment device, and judgment method
JP2024501161A (en) 3D localization of objects in images or videos
JP2022504444A (en) Camera calibration method, camera and program
Firmani et al. Biometric system for measuring gait and fall characteristics captured on video

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190617

Year of fee payment: 4