KR20180094253A - Apparatus and Method for Estimating Pose of User - Google Patents

Apparatus and Method for Estimating Pose of User Download PDF

Info

Publication number
KR20180094253A
KR20180094253A KR1020170020345A KR20170020345A KR20180094253A KR 20180094253 A KR20180094253 A KR 20180094253A KR 1020170020345 A KR1020170020345 A KR 1020170020345A KR 20170020345 A KR20170020345 A KR 20170020345A KR 20180094253 A KR20180094253 A KR 20180094253A
Authority
KR
South Korea
Prior art keywords
kinect
user
sensors
skeleton structure
effective
Prior art date
Application number
KR1020170020345A
Other languages
Korean (ko)
Other versions
KR101896827B1 (en
Inventor
이상훈
김정환
이인웅
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020170020345A priority Critical patent/KR101896827B1/en
Publication of KR20180094253A publication Critical patent/KR20180094253A/en
Application granted granted Critical
Publication of KR101896827B1 publication Critical patent/KR101896827B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens

Abstract

Disclosed are an apparatus and a method for estimating a posture of a user. The disclosed apparatus comprises: a Kinect sensor unit arranging a plurality of Kinect sensors to surround the user and making the plurality of Kinect sensors independently take images of a skeleton structure of the user; a common coordinate system conversion unit converting the image of the skeleton structure of the user, taken by the plurality of Kinect sensors, according to a common coordinate system; an effective Kinect sensor selection unit selecting the Kinect sensors, taking images of a front side of the user, among the plurality of Kinect sensors; a weight setup unit setting up a weighting factor for each joint in the skeleton structure image of each effective Kinect sensor with respect to the selected Kinect sensors; and a skeleton integration unit integrating the skeleton structure images of the selected effective sensors based on the setup weighting factor. The weighting factor includes: a first weighting factor which is based on a track state information of the effective Kinect sensors; and a second weighting factor which is based on the direction towards the effective Kinect sensors from the user. The disclosed apparatus can stably obtain the skeleton structure image even though a view direction of the user changes by a rotation or the like.

Description

사용자 자세 추정 장치 및 방법{Apparatus and Method for Estimating Pose of User}[0001] Apparatus and Method for Estimating Pose of User [0002]

본 발명의 실시예들은 사용자 자세 추정 장치 및 방법에 관한 것으로서, 더욱 상세하게는 복수의 키넥트 센서를 이용하여 사용자의 자세를 추정하는 장치 및 방법에 관한 것이다. Embodiments of the present invention relate to an apparatus and method for estimating a user attitude, and more particularly, to an apparatus and method for estimating a user's attitude using a plurality of Kinect sensors.

근래에 들어 가상 현실에 대한 연구가 활발히 이루어지고 있으며, 가상 현실은 게임, 엔터테인먼트 및 군사 용도와 같이 다방면으로 활용되고 있다. In recent years, research on virtual reality has been actively conducted, and virtual reality has been utilized in various fields such as games, entertainment, and military use.

이러한, 가상 현실에서 사용자의 동작 및 자세를 인지하여 추정하는 방법은 게임 및 군사 훈련에서 인터페이싱을 위해 활발한 연구가 이루어지고 있다. 사용자의 자세를 추정하는 대표적인 센서로 키넥트 센서가 있다. This method of recognizing and predicting the user 's motion and attitude in virtual reality has been actively researched for interfacing in game and military training. A Kinect sensor is a typical sensor for estimating the user's posture.

키넥트 센서는 사용자의 관절들에 대한 연결 정보인 스켈레톤 구조 영상을 획득할 수 있는 센서로, 게임 장치에서 주로 이용되고 있다. The Kinect sensor is a sensor that can acquire a skeleton structure image, which is connection information for the user's joints, and is mainly used in game devices.

그러나, 키넥트 센서는 사용자의 정면을 바라보고 있다는 전제하에서 사용자의 스켈레톤 구조 영상을 획득하고, 사용자의 회전과 같은 역동적인 동작에 대해서는 정확한 감지를 할 수 없는 문제점이 있었다. However, the Kinect sensor acquires the skeleton structure image of the user on the premise that the user is looking at the front of the user, and can not accurately detect the dynamic motion such as the rotation of the user.

가상 현실 인터페이싱에서는 사용자의 다양한 동작 및 자세를 모두 추정하는 것이 요구되고 있으며, 특히 군산 훈련 용도에서는 사용자의 회전 동작이 이루어지더라도 정확한 자세 추정이 필요하나, 기존의 센서 장치로는 회전 동작이 이루어지는 상태에서 정확한 자세 추정이 어려운 문제점이 있었다. In the virtual reality interfacing, it is required to estimate all the user's various motions and attitudes. Especially, in the case of Kunsan training, accurate posture estimation is required even if the user rotates. However, It is difficult to accurately estimate the posture.

본 발명은 사용자가 회전 등에 의해 바라보는 방향이 변경되더라도 안정적으로 사용자의 스켈레톤 구조 영상을 획득할 수 있는 방법 및 장치를 제안한다. The present invention proposes a method and apparatus for stably acquiring a user's skeleton structure image even if the direction of the user is changed by rotation or the like.

본 발명의 일 측면에 따르면, 복수의 키넥트 센서들이 사용자를 둘러싸도록 배치되며 상기 복수의 키넥트 센서들이 독립적으로 상기 사용자의 스켈레톤 구조 영상을 획득하는 키넥트 센서부; 상기 복수의 키넥트 센서에서 획득한 상기 사용자의 스켈레톤 구조 영상을 공통 좌표계로 변환하는 공통 좌표계 변환부; 상기 복수의 키넥트 센서들 중 사용자의 전방을 촬영하는 키넥트 센서들을 선택하는 유효 키넥트 센서 선택부; 상기 선택된 유효 키넥트 센서들에 대해 각 유효 키넥트 센서들의 스켈레톤 구조 영상의 관절별로 가중치를 설정하는 가중치 설정부; 및 상기 설정된 가중치에 기초하여 상기 선택된 유효 키넥트 센서들의 스켈레톤 구조 영상을 합성하는 스켈레톤 합성부를 포함하되, 상기 가중치는 상기 유효 키넥트 센서들의 트랙 상태 정보에 기초하는 제1 가중치 및 상기 사용자로부터 상기 유효 키넥트 센서들로의 방향에 기초한 제2 가중치를 포함하는 사용자 자세 추정 장치가 제공된다. According to an aspect of the present invention, there is provided a display device comprising: a key knot sensor unit arranged to surround a plurality of kinect sensors and the plurality of kinect sensors independently acquiring the user's skeleton structure image; A common coordinate system conversion unit for converting the user's skeleton structure image acquired by the plurality of Kinect sensors into a common coordinate system; An effective keynote sensor selection unit for selecting keynote sensors for photographing the front of the user among the plurality of keynote sensors; A weight setting unit for setting weights for the joints of the skeleton structure images of the respective effective knee pick sensors for the selected effective knee pick sensors; And a skeleton synthesis unit for synthesizing a skeleton structure image of the selected effective kinect sensors based on the set weights, wherein the weight includes a first weight based on track state information of the effective kinect sensors, A user posture estimation apparatus is provided that includes a second weight based on a direction to the Kinect sensors.

상기 유효 키넥트 센서 선택부는 상기 키넥트 센서들에 의해 포착되는 스켈레톤 구조 영상에서 상기 사용자의 왼쪽 어깨 및 오른쪽 어개를 연결하는 라인과 직교하는 전방 벡터를 이용한다.The effective kinect sensor selection unit uses a forward vector orthogonal to the line connecting the left shoulder and the right finger of the user in the skeleton structure image captured by the kinect sensors.

상기 유효 키넥트 센서 선택부는 이전 프레임의 전방 벡터와 현재 프레임에서 각 키넥트 센서별 전방 벡터의 내적을 통해 상기 사용자의 전방을 촬영하는지 여부를 판단한다. The valid keynote sensor selection unit determines whether to photograph the front of the user through the dot product of the front vector of the previous frame and the forward vector of each keynote sensor in the current frame.

상기 제1 가중치는 각 유효 키넥트 센서의 스켈레톤 구조 영상의 관절에 대한 상태 정보에 기초하여 관절별로 설정된다. The first weight is set on a joint-by-joint basis based on state information about a joint of the skeleton structure image of each effective Kinect sensor.

상기 가중치 설정부는 상기 각 유효 키넥트 센서들의 스켈레톤 구조 영상에서 상기 사용자의 전방 벡터를 기준으로 왼쪽 영역 및 오른쪽 영역을 정의하고, 상기 사용자로부터 상기 유효 키넥트 센서들 중 특정 키넥트 센서로의 방향이 상기 왼쪽 영역 내에 있지 않을 경우, 해당 키넥트 센서에 의해 포착되는 스켈레톤 구조 영상의 관절들 중 미리 설정된 왼쪽 영역 관절들에 대해 1 미만의 미리 설정된 제2 가중치를 적용하며, 상기 사용자로부터 상기 유효 키넥트 센서들 중 특정 키넥트 센서로의 방향이 상기 오른쪽 영역 내에 있지 않을 경우 해당 키넥트 센서에 의해 포착되는 스켈레톤 구조 영상의 관절들 중 미리 설정된 왼른쪽 영역 관절들에 대해 1 미만의 미리 설정된 제2 가중치를 적용한다.Wherein the weight setting unit defines a left area and a right area based on the forward vector of the user in the skeleton structure image of the respective effective Kinect sensors and determines a direction from the user to the specific Kinect sensor Applying a predetermined second weight less than 1 to pre-established left region joints of the joints of the skeleton structure image captured by the corresponding Kinect sensor when not in the left region, A predetermined second weight less than 1 for pre-established left region joints of the joints of the skeleton structure image captured by the corresponding Kinect sensor when the direction of the sensor to the specific Kinect sensor is not in the right area Is applied.

상기 스켈레톤 합성부는 상기 제1 가중치 및 상기 제2 가중치의 곱에 상응하는 가중치를 각 관절별로 적용하여 가중치 평균에 의해 스켈레톤 구조 영상을 합성한다.The skeleton synthesis unit applies a weight corresponding to a product of the first weight and the second weight to each joint, and synthesizes the skeleton structure image by weighted averaging.

상기 스켈레톤 합성부에 의해 합성되는 스켈레톤 구조 영상에 기초하여 상기 사용자의 자세를 추정하는 자세 추정부를 더 포함한다.And an attitude estimation unit for estimating the attitude of the user based on the skeleton structure image synthesized by the skeleton synthesis unit.

본 발명의 다른 측면에 따르면, 복수의 키넥트 센서들이 사용자를 둘러싸도록 배치되며 상기 복수의 키넥트 센서들이 독립적으로 상기 사용자의 스켈레톤 구조 영상을 획득하는 키넥트 센서부; 상기 복수의 키넥트 센서에서 획득한 상기 사용자의 스켈레톤 구조 영상을 공통 좌표계로 변환하는 공통 좌표계 변환부; 상기 복수의 키넥트 센서들 중 사용자의 전방을 촬영하는 키넥트 센서들을 선택하는 유효 키넥트 센서 선택부; 상기 선택된 유효 키넥트 센서들에 대해 각 유효 키넥트 센서들의 스켈레톤 구조 영상의 관절별로 가중치를 설정하는 가중치 설정부; 및 상기 설정된 가중치에 기초하여 상기 선택된 유효 키넥트 센서들의 스켈레톤 구조 영상을 합성하는 스켈레톤 합성부를 포함하되, 상기 유효 키넥트 센서 선택부는 상기 키넥트 센서들에 의해 포착되는 스켈레톤 구조 영상에서 상기 사용자의 왼쪽 어깨 및 오른쪽 어개를 연결하는 라인과 직교하는 전방 벡터를 이용하며, 이전 프레임의 전방 벡터와 현재 프레임에서 각 키넥트 센서별 전방 벡터의 내적을 통해 상기 사용자의 전방을 촬영하는지 여부를 판단하는 사용자 자세 추정 장치가 제공된다. According to another aspect of the present invention, there is provided a display device comprising: a key knot sensor unit arranged to surround a plurality of kinect sensors and the plurality of kinect sensors independently acquiring the user's skeleton structure image; A common coordinate system conversion unit for converting the user's skeleton structure image acquired by the plurality of Kinect sensors into a common coordinate system; An effective keynote sensor selection unit for selecting keynote sensors for photographing the front of the user among the plurality of keynote sensors; A weight setting unit for setting weights for the joints of the skeleton structure images of the respective effective knee pick sensors for the selected effective knee pick sensors; And a skeleton synthesis unit for synthesizing the skeleton structure image of the selected effective kinect sensors based on the set weights, wherein the effective kinect sensor selection unit selects, from the skeleton structure images captured by the kinect sensors, A forward vector that is orthogonal to the line connecting the shoulder and the right fishermen, and the forward vector of the previous frame and the user's posture for determining whether to photograph the forward of the user through the dot product of the forward vector for each kinetic sensor in the current frame An estimating device is provided.

본 발명의 또 다른 측면에 따르면, 복수의 키넥트 센서들이 사용자를 둘러싸도록 배치되는 환경에서 사용자의 자세를 추정하는 방법으로서, 상기 복수의 키넥트 센서들이 독립적으로 상기 사용자의 스켈레톤 구조 영상을 획득하는 단계(a); 상기 복수의 키넥트 센서에서 획득한 상기 사용자의 스켈레톤 구조 영상을 공통 좌표계로 변환하는 단계(b); 상기 복수의 키넥트 센서들 중 사용자의 전방을 촬영하는 유효 키넥트 센서들을 선택하는 단계(c); 상기 선택된 유효 키넥트 센서들에 대해 각 유효 키넥트 센서들의 스켈레톤 구조 영상의 관절별로 가중치를 설정하는 단계(d); 및 상기 설정된 가중치에 기초하여 상기 선택된 유효 키넥트 센서들의 스켈레톤 구조 영상을 합성하는 단계(e)를 포함하되, 상기 가중치는 상기 유효 키넥트 센서들의 트랙 상태 정보에 기초하는 제1 가중치 및 상기 사용자로부터 상기 유효 키넥트 센서들로의 방향에 기초한 제2 가중치를 포함하는 사용자 자세 추정 방법이 제공된다. According to another aspect of the present invention there is provided a method of estimating a user's attitude in an environment in which a plurality of Kinect sensors are arranged to surround a user, the plurality of Kinect sensors independently acquiring the user's skeleton structure image Step (a); (B) transforming the user's skeleton structure image acquired from the plurality of Kinect sensors into a common coordinate system; Selecting effective keynote sensors for capturing a front of the user among the plurality of keynote sensors; (D) setting joint weights of the effective kinect sensors of the selected effective kinect sensors on the basis of joints of the skeleton structure images; And (e) compositing a skeleton structure image of the selected valid Kinect sensors based on the set weights, wherein the weights include a first weight based on track state information of the valid Kinect sensors, And a second weight based on a direction to the valid Kinect sensors.

본 발명에 의하면, 사용자가 회전 등에 의해 바라보는 방향이 변경되더라도 안정적으로 사용자의 스켈레톤 구조 영상을 획득할 수 있는 장점이 있다. According to the present invention, there is an advantage that a user can stably obtain a skeleton structure image even if the direction of the user is changed by rotation or the like.

도 1은 본 발명의 일 실시예에 따른 사용자 자세 추정 장치에 사용되는 키넥트 센서의 배치 구조를 도시한 도면.
도 2는 본 발명의 일 실시예에 따른 사용자 자세 추정 장치의 구조를 도시한 블록도.
도 3은 본 발명의 일 실시예에 따라 전방 벡터 트래킹을 이용하여 유효 키넥트를 선택하는 동작을 설명하기 위한 도면.
도 4는 본 발명의 일 실시에에 따라 유효 키넥트 센서를 선별하는 일례를 도시한 도면.
도 5는 본 발명의 일 실시예에 따른 카메라 방향에 기초하여 가중치를 설정하는 방법을 설명하기 위한 도면.
도 6은 본 발명의 일 실시예에 따른 사용자 자세 추정 방법의 전체적인 흐름을 도시한 순서도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a view showing an arrangement of a Kinect sensor used in a user orientation estimation apparatus according to an embodiment of the present invention; FIG.
2 is a block diagram illustrating a structure of a user orientation estimation apparatus according to an embodiment of the present invention.
3 illustrates an operation for selecting an effective keynote using forward vector tracking according to an embodiment of the present invention;
4 is a diagram showing an example of selecting an effective kinect sensor according to one embodiment of the present invention;
5 is a view for explaining a method of setting a weight based on a camera direction according to an embodiment of the present invention;
FIG. 6 is a flowchart illustrating an overall flow of a method of estimating a user attitude according to an embodiment of the present invention. FIG.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 사용자 자세 추정 장치에 사용되는 키넥트 센서의 배치 구조를 도시한 도면이다. 1 is a diagram showing an arrangement structure of a Kinect sensor used in a user orientation estimation apparatus according to an embodiment of the present invention.

본 발명은 사용자의 자세 회전에 대해 안정적으로 사용자의 관절 구조를 파악하여 사용자의 자세를 추정하는 방법 및 장치에 관한 것으로서, 안정적인 자세 추정을 위해 복수의 키넥트 센서(100, 102, 104, 106, 108, 110)를 이용한다. The present invention relates to a method and an apparatus for estimating a posture of a user by grasping a joint structure of a user stably against a user's posture rotation. 108 and 110 are used.

키넥트 센서(100, 102, 104, 106, 108, 110)는 동작 인식 카메라로서, 사용자의 신체 동작을 인식하여 게임과 엔터테인먼트를 경함할 수 있도록 제작된 센서이다. 키넥트 센서(100, 102, 104, 106), 108, 110)는 적외선 프로젝터를 통해 깊이를 감지할 수 있는 카메라를 탐재하여 포착된 사람의 움직임을 추적해낼 수 있다. 특히, 키넥트 센서를 이용하여 포착된 사람의 관절들의 연결 구조를 의미하는 스켈레톤 구조를 획득할 수 있으며, 키넥트 센서에 의해 획득되는 스켈레톤 구조는 사람의 자세를 추정하기 위한 기초 정보로 활용될 수 있다. The Kinect sensors 100, 102, 104, 106, 108, and 110 are motion recognition cameras, and are sensors that recognize a user's body motion and play games and entertainment. The Kinect sensors 100, 102, 104, 106, 108, and 110 can track the motion of the captured person by exploring a camera capable of sensing depth through an infrared projector. Particularly, it is possible to acquire a skeleton structure representing the connection structure of the joints of a person captured using the Kinect sensor, and the skeleton structure acquired by the Kinect sensor can be used as basic information for estimating a human posture have.

도 1을 참조하면, 본 발명의 일 실시예에 따른 사용자 자세 추정 장치는 복수의 키넥트 센서(100, 102, 104, 106, 108, 110)가 사용자를 전체적으로 둘러싸도록 서라운드 구조로 배치된다. Referring to FIG. 1, a user orientation estimation apparatus according to an embodiment of the present invention is arranged in a surround structure such that a plurality of Kinect sensors 100, 102, 104, 106, 108, and 110 surround the user as a whole.

일 실시예에 따르면, 키넥트 센서들(100, 102, 104, 106, 108, 110)은 60도 간격으로 전체적으로 원형을 이루도록 배치될 수 있다. 물론 필요에 따라 배치되는 키넥트 센서의 수가 변경될 수 있다는 점은 당업자에게 있어 자명할 것이다. 40도 간격으로 9개의 키넥트 센서가 배치될 수도 있을 것이며, 90도 간격으로 4개의 키넥트 센서가 배치될 수도 있을 것이다. According to one embodiment, the Kinect sensors 100, 102, 104, 106, 108, 110 may be arranged to be generally circular in 60 degree increments. Of course, those skilled in the art will appreciate that the number of Kinect sensors that may be deployed as needed can vary. Nine Kinect sensors may be arranged at intervals of 40 degrees, and four Kinect sensors may be arranged at intervals of 90 degrees.

바람직하게는, 추적 대상이 되는 사용자는 전체적으로 원형을 이루도록 배치된 키넥트 센서들의 중앙부에 위치할 수 있다. Preferably, the user to be tracked may be located at the center of the Kinect sensors arranged to form a generally circular shape.

가상 현실 엔터테인먼트 또는 군사용 가상 현실 시스템에서는 사용자가 회전하는 상태에서도 사용자의 자세를 추정할 필요가 있으며, 본 발명은 사용자가 어떠한 회전 상태에 있더라도 사용자의 자세를 정확히 추정하기 위해 복수의 키넥트 센서를 사용하며, 이러한 구조로 인해 사용자가 어떠한 방향을 바라보더라도 복수의 키넥트 센서 중 일부는 사용자의 정면을 포착할 수 있게 된다. In the virtual reality entertainment system or the military virtual reality system, it is necessary to estimate the user's posture even when the user is rotating. The present invention uses a plurality of Kinect sensors to accurately estimate the user's posture regardless of the user's rotational state This structure allows some of the plurality of Kinect sensors to capture the front of the user regardless of the direction the user is facing.

복수의 키넥트 센서(100, 102, 104, 106, 108, 110) 각각은 독립적으로 사용자의 영상을 포착하여 독립적으로 스켈레톤 구조에 대한 영상을 획득한다. Each of the plurality of Kinect sensors 100, 102, 104, 106, 108, and 110 independently captures the user's image and independently acquires an image of the skeleton structure.

도 2는 본 발명의 일 실시예에 따른 사용자 자세 추정 장치의 구조를 도시한 블록도이다. 2 is a block diagram illustrating a structure of a user orientation estimation apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 사용자 자세 추정 장치는 키넥트 센서부(200), 공통 좌표 변환부(202), 유효 키넥트 센서 선택부(204), 가중치 설정부(206), 스켈레톤 합성부(208), 후처리부(210) 및 자세 추정부(212)를 포함한다. 2, a user orientation estimation apparatus according to an embodiment of the present invention includes a kinematic sensor unit 200, a common coordinate transformation unit 202, an effective kinetic sensor selection unit 204, a weight setting unit 206 A skeleton synthesis unit 208, a post-processing unit 210, and a posture estimation unit 212. [

키넥트 센서부(200)는 복수의 키넥트 센서를 포함하며, 도 1에 도시된 바와 같이 대상 사용자의 스켈레톤 구조 영상을 획득한다. 스켈레톤 구조 영상은 3좌원 좌표계에 포함되며, 다수의 관절들의 연결 상태가 스켈레톤 구조 영상에 표현된다. 앞서 설명한 바와 같이, 키넥트 센서부(200)를 구성하는 복수의 키넥트 센서들(100, 102, 104, 106, 108, 110)은 독립적으로 스켈레톤 구조 영상을 획득한다. The Kinect sensor unit 200 includes a plurality of Kinect sensors, and acquires a skeleton structure image of the target user as shown in FIG. The skeleton structure image is included in the three-dimensional coordinate system, and the connection state of many joints is expressed in the skeleton structure image. As described above, the plurality of Kinect sensors 100, 102, 104, 106, 108, and 110 constituting the Kinect sensor unit 200 independently acquire the skeleton structure image.

공통 좌표 변환부(202)는 각 키넥트 센서에서 획득하는 스켈레톤 구조 영상을 공통 좌표계의 좌표에 대한 영상으로 변환하는 기능을 한다. 각 키넥트 센서에서 획득하는 스켈레톤 구조 영상은 각 키넥트 센서를 기준으로 한 좌표계의 좌표값으로 표현된다. 본 발명은 복수의 키넥트 센서 각각에서 획득한 스켈레톤 구조 영상을 합성하므로, 각 키넥트 센서에서 획득한 스켈레톤 구조 영상을 공통 좌표계에 표현할 필요가 있으며, 공통 좌표 변환부(202)가 이러한 좌표 변환 기능을 수행하는 것이다. The common coordinate conversion unit 202 converts the skeleton structure image acquired by each of the kinect sensors into an image for the coordinates of the common coordinate system. The skeleton structure image acquired from each Kinect sensor is represented by the coordinate value of the coordinate system based on each Kinect sensor. Since the skeleton structure image obtained by each of the plurality of Kinect sensors is synthesized, it is necessary to express the skeleton structure image acquired by each Kinect sensor in the common coordinate system, and the common coordinate transformation unit 202 performs coordinate transformation .

공통 좌표 변환부(202)에서 수행되는 공통 좌표 변환은 다음의 수학식 1과 같이 표현될 수 있다. The common coordinate transformation performed by the common coordinate transformation unit 202 can be expressed as Equation (1).

Figure pat00001
Figure pat00001

위 수학식 1에서,

Figure pat00002
는 공통 좌표계로 변환된 좌표값이고,
Figure pat00003
은 각 키넥트 센서의 좌표계에 표현된 좌표값이다. 한편, R은 회전 매트릭스이며, 일례로 3 X 3의 디멘션을 가지는 매트릭스일 수 있다. T는 변형(Translation) 매트릭스이며, 일례로 3 X 1의 디멘션을 가지는 매트릭스일 수 있다. In Equation (1) above,
Figure pat00002
Is a coordinate value converted into a common coordinate system,
Figure pat00003
Is the coordinate value expressed in the coordinate system of each Kinect sensor. On the other hand, R is a rotation matrix, and may be, for example, a matrix having a dimension of 3 X 3. T is a translation matrix, e.g., a matrix having a dimension of 3 X 1.

각 키넥트 센서별로 공통 좌표계로의 변환을 위한 회전 매트릭스 T와 변형 매트릭스 T를 획득하며, R 및 T는 소정의 보정(Calibration) 작업에 의해 획득할 수 있을 것이다. A rotation matrix T and a transformation matrix T for transformation into a common coordinate system for each kinetic sensor are obtained, and R and T may be obtained by a predetermined calibration operation.

본 발명의 일 실시예에 따르면, 체크 보드를 이용하여 회전 매트릭스 R과 변형 매트릭스 T를 연산하는 보정 작업이 수행될 수 있다. 체크 보드를 이용한 보정은 기존의 키넥트 센서에서도 사용되던 방법으로 RGB 카메라를 이용하게 된다. According to an embodiment of the present invention, a correction operation for calculating the rotation matrix R and the transformation matrix T using a check board can be performed. The correction using the check board uses the RGB camera in the same way as the conventional Kinect sensor.

체크 보드에는 두 종류의 색상을 가진 정사각형이 배열될 수 있으며, 체크 보드에서 각 정사각형의 꼭지점에 해당되는 공통 좌표계에서의 좌표값과 키넥트 센서의 좌표값을 이용하여 R 및 T를 키넥트 센서별로 연산할 수 있을 것이다. On the check board, two types of squares can be arranged. By using the coordinate values in the common coordinate system corresponding to the vertices of each square on the check board and the coordinate values of the Kinect sensors, .

본 발명의 다른 실시에에 따르면, 적외선 마커를 이용하여 보정 작업이 이루어질 수도 있을 것이다. 본 발명의 구현을 위해 키넥트 센서에서 획득하는 스켈레톤 구조 영상은 키넥트 센서의 적외선 카메라의 좌표계를 기준으로 출력된다. According to another embodiment of the present invention, a correction operation may be performed using an infrared marker. For implementation of the present invention, the skeleton structure image acquired by the Kinect sensor is output based on the coordinate system of the infrared camera of the Kinect sensor.

그런데, 가장 일반적인 체크 보드를 이용한 보정 작업은 키넥트 센서의 RGB 카메라 좌표계를 이용하여 이루어진다. 물론, RGB 카메라와 적외선 카메라는 서로 인접한 곳에 위치하기 때문에 RGB 카메라와 적외선 카메라의 위치는 유사하며, RGB 카메라 좌표계를 근사화하여 적외선 카메라의 좌표계로 사용할 수도 있을 것이다. 보자 정확한 좌표계로 변환하려면, IR 카메라를 이용하여 보정 작업을 수행하는 것이 바람직하며, 기존의 체크 보드는 적외선 영상에서 정확히 식별되지 않는 문제가 있기 때문에 적외선 마커를 이용한 패턴을 사용하을 보정 작업을 수행할 수도 있을 것이다. 본 발명의 일 실시예에 따르면, 적외선 마커를 미리 설정된 간격으로 배치하고 배치된 적외선 마커를 적외선 카메라를 이용하여 감지하여 보정 작업을 수행할 수 있을 것이다. However, the correction process using the most common check board is performed using the RGB camera coordinate system of the Kinect sensor. Of course, since the RGB camera and the infrared camera are located adjacent to each other, the positions of the RGB camera and the infrared camera are similar, and the RGB camera coordinate system can be approximated to be used as the coordinate system of the infrared camera. In order to convert to a precise coordinate system, it is preferable to carry out the correction work using the IR camera. Since the existing check board is not accurately identified in the infrared image, the correction using the infrared marker is performed It might be. According to an embodiment of the present invention, infrared markers may be arranged at preset intervals, and the infrared markers disposed may be detected by using an infrared camera to perform a correction operation.

유효 키넥트 센서 선택부(204)는 감지 대상 사용자를 둘러싸도록 배치되는 다수의 키넥트 센서들(100, 102, 104, 106, 108, 110) 중 사용자의 자체 추정에 사용할 키넥트 센서를 선택하는 기능을 한다. 키넥트 센서는 사용자가 해당 키넥트 센서를 정면으로 보고 있다는 것을 전제로 하여 사용자의 스켈레톤 구조 영상을 생성한다. 그런데, 도 1에 도시된 바와 같이, 다수의 키넥트 센서들 중 일부는 사용자의 정면을 촬영하나, 일부의 키넥트 센서들은 사용자의 후면을 촬영하는 위치에 배치된다. The effective kinect sensor selection unit 204 selects a Kinect sensor to be used for self-estimation among the plurality of Kinect sensors 100, 102, 104, 106, 108, and 110 arranged to surround the sensing target user Function. The Kinect sensor generates the user's skeleton structure image on the assumption that the user is looking at the Kinect sensor in front. However, as shown in FIG. 1, some of the plurality of Kinect sensors photograph the front of the user, while some of the Kinect sensors are disposed at the position of photographing the rear face of the user.

유효 키넥트 센서 선택부(204)는 다수의 키넥트 센서들 중 사용자의 정면을 촬영하는 키넥트 센서만을 선택하며, 사용자의 후면을 촬영하는 키넥트 센서는 선택에서 배제시킨다. 배제된 키넥트 센서에서 획득한 스켈레톤 구조 영상은 향후 이루어지는 스켈레톤 구조 영상의 합성에 이용되지 않는다. 이는 배제된 키넥트 센서에서 획득한 스켈레톤 구조 영상은 사용자의 후면을 촬영하여 생성한 스켈레톤 구조 영상이기에 반전된 스켈레톤 구조여서 그 정확도를 신뢰할 수 없기 때문이다. The effective keynote sensor selection unit 204 selects only the keynote sensor that captures the front of the user among the plurality of keynote sensors and excludes the keynote sensor that captures the back of the user from the selection. The skeleton structure image obtained from the excluded Kinect sensor is not used for the synthesis of the skeleton structure image in the future. This is because the skeleton structure image obtained from the excluded Kinect sensor is a skeleton structure image generated by photographing the back side of the user, and thus the accuracy of the skeleton structure image can not be relied upon since it is an inverted skeleton structure.

도 4는 본 발명의 일 실시에에 따라 유효 키넥트 센서를 선별하는 일례를 도시한 도면이다.  4 is a diagram showing an example of selecting an effective kinect sensor according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 사용자가 12시 방향을 바라보고 있는 경우, 도 4에서 상부에 위치하는 키넥트 센서들(100, 102, 104)은 사용자의 정면을 포착하는 키넥트 센서이나, 하부에 위치하는 키넥트 센서들(106, 108, 110)은 사용자의 후면을 포착하는 키넥트 센서이다. 따라서, 하부에 위치하는 키넥트 센서들(106, 108, 110)은 유효 키넥트 센서 선택부(204)에 의해 선택되지 않는다. As shown in FIG. 4, when the user is looking at the 12 o'clock direction, the keynote sensors 100, 102, and 104 located at the upper portion in FIG. 4 include a keynote sensor that captures the front of the user, The kinetic sensors 106, 108, and 110 located at the rear of the user are kinetic sensors that capture the back surface of the user. Therefore, the lower-positioned kinect sensors 106, 108, and 110 are not selected by the effective-knot sensor selection unit 204. [

유효 키넥트 센서 선택부(204)는 다양한 방식으로 사용자의 정면을 촬영하는 키넥트 센서를 선택할 수 있을 것이다. 본 발명의 바람직한 실시예에 따르면, 전방 벡터를 트래킹하여 각 키넥트 센서가 사용자의 정면을 포착하는지 여부를 판단하여 유효한 키넥트 센서를 선택한다. The effective Kinect sensor selection unit 204 may select a Kinect sensor for photographing the front of the user in various ways. According to a preferred embodiment of the present invention, the forward vector is tracked to determine whether each kinetic sensor captures the front of the user and to select a valid Kinect sensor.

여기서, 전방 벡터는 사용자가 바라보는 방향에 대한 벡터를 의미한다. 도 3은 본 발명의 일 실시예에 따라 전방 벡터 트래킹을 이용하여 유효 키넥트를 선택하는 동작을 설명하기 위한 도면이다. Here, the forward vector means a vector with respect to the direction in which the user is looking. 3 is a diagram for explaining an operation of selecting an effective keynote using front vector tracking according to an embodiment of the present invention.

본 발명의 일 실시예에 따르면, 전방 벡터는 키넥트 센서의 스켈레톤 구조 영상에서 왼쪽 어깨 및 오른쪽 어깨 부분을 이용하여 트래킹하며, 왼쪽 어깨와 오른쪽 어깨를 연결하는 선과 직교하는 벡터로 정의할 수 있다. According to an embodiment of the present invention, the forward vector can be defined as a vector orthogonal to the line connecting the left shoulder and the right shoulder, which is tracked using the left shoulder and the right shoulder in the skeleton structure image of the Kinect sensor.

유효 키넥트 센서 선택부(204)는 현재 프레임에서의 전방 벡터 트래킹을 위해 이전 프레임에서 합성된 스켈레톤 구조 영상의 전방 벡터를 먼저 연산한다. 도 3에서, 이전 프레임에서 합성된 스켈레톤 구조 영상의 전방 벡터는 점선으로 표시되어 있다. The effective keynote sensor selection unit 204 first calculates the forward vector of the skeleton structure image synthesized in the previous frame for forward vector tracking in the current frame. In Fig. 3, the forward vector of the skeleton structure image synthesized in the previous frame is indicated by a dotted line.

또한, 현재 프레임에서의 각 키넥트 센서의 스켈레톤 구조 영상으로부터 현재 프레임의 각 키넥트 센서별 전방 벡터를 연산한다. 도 3에서, 현재 프레임에서 각 키넥트 센서별 전방 벡터는 실선으로 표시되어 있다. Further, a forward vector for each of the kinetic sensors of the current frame is calculated from the skeleton structure image of each kinetic sensor in the current frame. In Fig. 3, the forward vectors of the respective keynote sensors in the current frame are indicated by solid lines.

각 키넥터 센서가 사용자의 전방을 향하는지 여부는 이전 프레임에서 합성된 스켈레톤 구죠 영상의 전방 벡터와 현재 프레임에서 각 키넥트 센서별 전방 벡터와의 내적에 의해 판단한다. Whether or not each key connector sensor is facing the front of the user is determined by the inner product of the forward vector of the skeleton guage image synthesized in the previous frame and the forward vector of each key sensor in the current frame.

이전 프레임의 전방 벡터와 현재 프레임에서 특정 키넥트 센서의 전방 벡터의 내적이 양수일 경우 해당 키넥트 센서는 사용자의 전방을 향하도록 배치되어 있다고 판단한다. 도 3의 (a)는 현재 프레임에서 키넥트 센서의 전방 벡터와 이전 프레임에서 합성된 스켈레톤 구조 영상의 전방 벡터의 내적이 양수인 경우를 도시한 것이다. 이 경우 해당 키넥트 센서는 유효 키넥트 센서 선택부(204)에 의해 선택된다. If the inner product of the forward vector of the previous frame and the forward vector of the specific Kinect sensor in the current frame is positive, it is determined that the corresponding Kinect sensor is disposed toward the front of the user. 3 (a) shows a case in which the forward vector of the Kinect sensor in the current frame and the inner product of the forward vector of the skeleton structure image synthesized in the previous frame are positive numbers. In this case, the corresponding keynote sensor is selected by the valid keynote sensor selection unit 204.

한편, 도 3의 (b)는 현재 프레임에서 키넥트 센서의 전방 벡터와 이전 프레임에서 합성된 스켈레톤 구조 영상의 전방 벡터의 내적이 음수인 경우를 도시한 것이다. 이 경우 해당 키넥트 센서는 유효 키넥트 센서 선택부(204)에 의해 선택되지 않는다. Meanwhile, FIG. 3B shows a case where the inner product of the forward vector of the Kinect sensor in the current frame and the forward vector of the skeleton structure image synthesized in the previous frame is negative. In this case, the corresponding keynote sensor is not selected by the valid keynote sensor selection unit 204.

유효 키넥트 센서 선택부(204)에 의해 키넥트 센서 선택이 이루어지면, 가중치 설정부(206)는 각 선택된 키넥트 센서들의 관절별로 가중치를 설정한다. 본 발명의 바람직한 실시예에 따르면, 가중치는 두 개의 정보를 고려하여 설정된다. 제1 정보는 키넥트 센서의 트랙 상태에 대한 정보이며, 이를 이용하여 제1 가중치가 각 키넥트 센서의 관절별로 설정된다. 제2 정보는 카메라 방향에 대한 정보이며, 이를 이용하여 제2 가중치가 설정된다. 최종 가중치는 제1 가중치 및 제2 가중치의 곱에 의해 결정된다. When the key knot sensor selection is made by the effective knot sensor selection unit 204, the weight setting unit 206 sets the weight for each joint of the selected knot sensors. According to a preferred embodiment of the present invention, the weight is set in consideration of two pieces of information. The first information is information on the track state of the Kinect sensor, and the first weight is set for each joint of the Kinect sensors by using the information. The second information is information on the camera direction, and a second weight is set using the information. The final weight is determined by the product of the first weight and the second weight.

구체적으로, 제1 정보는 키넥트 센서는 스켈레톤 구조 영상 생성 시 각 관절별 상태 정보를 제공한다. 이때, 관절 상태는 트랙 완료(tracked), 추정(Inferred), 트랙 실패(Not-tracked)의 3가지 상태로 구분된다. 트랙 완료의 경우 1의 가중치가 부여되고, 추정의 경우 1 미만의 미리 설정된 가중치가 부여되며, 트랙 실패에는 0의 가중치가 부여된다. Specifically, the first information provides the status information for each joint when the skeleton structure image is generated by the Kinect sensor. At this time, the joint state is divided into three states: tracked, estimated, and track-failed. A weight of 1 is given in case of track completion, a preset weight of less than 1 in case of estimation, and a weight of 0 is given to track failure.

키넥트 센서 방향에 기초한 제2 가중치는 구체적으로 왼쪽 및 오른쪽 영역의 관절 중 특정 영역이 관절역을 촬영하기에 키넥트 센서 방향이 적절한지 여부에 대한 가중치이다. 여기서 두 개 영역의 관절은 왼쪽 영역 관절과 오른쪽 영역 관절이다. 예를 들어, 왼쪽 어깨 관절, 왼쪽 손목 관절이 왼쪽 영역 관절에 포함된다. 오른쪽 어깨 관절 및 오른쪽 손목 관절은 오른쪽 영역 관절에 포함된다. 한편, 턱관절 등과 같이 사람의 정면에 위치하는 관절은 왼쪽 영역 관절 오른쪽 영역 관절 어디에도 해당되지 않는다. 스켈레톤 구조 영상으로부터 획득되는 다수의 관절들 중 왼쪽 영역 관절과 오른쪽 영역 관절은 미리 설정된다. The second weight based on the Kinect sensor orientation is specifically a weight of whether the Kinect sensor orientation is appropriate for a specific region of the joints of the left and right regions to photograph the joint region. Here, the joints in the two regions are the left area joint and the right area joint. For example, the left shoulder joint and the left wrist joint are included in the left area joint. The right shoulder joint and the right wrist joint are included in the right area joint. On the other hand, joints located on the front of the person, such as the jaw joints, do not correspond to the joints of the right region of the left region. Among the multiple joints obtained from the skeleton structure image, the left region joint and the right region joint are preset.

왼쪽 영역 관절을 촬영하기에 적절하지 여부 및 오른쪽 영역 관절을 촬영하기에 적절한지 여부는 카메라의 방향에 기초하여 결정된다. 특정 키넥트 센서가 미리 설정된 왼쪽 영역 내에 위치하지 않을 경우 해당 키넥트 센서는 왼쪽 영역 관절을 촬영하기에 적절하지 않은 것으로 판단되며, 특정 키넥트 센서가 미리 설정된 오른쪽 영역 내에 위치하지 않을 경우 해당 키넥트 센서는 오른쪽 영역 관절을 촬영하기에 적절하지 않은 것으로 판단된다. Whether or not it is appropriate to photograph the left area joint and whether it is appropriate to photograph the right area joint is determined based on the direction of the camera. If a particular Kinect sensor is not located within a predetermined left area, it is determined that the Kinect sensor is not suitable for photographing the left area joint, and if the specific Kinect sensor is not located within a preset right area, The sensor is judged to be inadequate for imaging right field joints.

,오른쪽 영역과 왼쪽 영역은 전방 벡터를 기준으로 구분된다. 전방 벡터는 현재 프레임 또는 이전 프레임에 기반하여 결정될 수 있으며, 전방 벡터를 기준으로 제1 각도 영역을 왼쪽 영역으로 정의하고, 제2 각도 영역을 오른쪽 영역으로 정의한다. 이때, 왼쪽 영역과 오른쪽 영역은 오버랩되는 영역이 있도록 설정될 수 있다. , The right region and the left region are classified based on the forward vector. The forward vector can be determined based on the current frame or the previous frame, and defines the first angular region as the left region and the second angular region as the right region based on the forward vector. At this time, the left area and the right area may be set to have overlapping areas.

본 발명의 일 실시예에 따르면, 전방 벡터를 0도로 할 때 왼쪽 영역은 90도 내지 +30도 영역을 왼쪽 영역으로 정의할 수 있으며, 오른쪽 영역은 30도 내지 +90도 영역을 오른쪽 영역으로 정의할 수 있다. According to an embodiment of the present invention, when the forward vector is 0, the left region may define a 90-degree to + 30-degree region as a left region, and the right region may define a 30-degree to + can do.

제2 가중치 설정을 위해 사용자 중심으로부터 특정 키넥트 센서의 방향이 왼쪽 영역 내에 포함되지 않을 경우 해당 키넥트 센서가 포착한 스켈레톤 구조 영상의 관절들 중 미리 설정된 왼쪽 영역 관절들에 대해 1 미만의 미리 설정된 제2 가중치를 부여한다. 동일한 방법으로, 사용자 중심으로부터 특정 키넥트 센서의 방향이 오른쪽 영역 내에 포함되지 않을 경우 해당 키넥트 센서가 포착한 스켈레톤 구조 영상의 관절들 중 미리 설정된 오른쪽 영역 관절들에 대해 1 미만의 미리 설정된 제2 가중치를 부여한다. If the direction of the specific Kinect sensor is not included in the left area from the user center for the second weight setting, the pre-set left joints of the skeleton structure image captured by the Kinect sensor may be preset to less than 1 And gives a second weight. In the same manner, when the direction of a specific Kinect sensor from the user center is not included in the right region, a predetermined second subordinate position for a predetermined right region joints among the joints of the skeleton structure image captured by the Kinect sensor Weight is assigned.

도 5는 본 발명의 일 실시예에 따른 카메라 방향에 기초하여 가중치를 설정하는 방법을 설명하기 위한 도면이다. 5 is a view for explaining a method of setting a weight based on a camera direction according to an embodiment of the present invention.

도 5를 참조하면, 전방 벡터(500)는 0도로 설정하고, 사용자의 중심으로부터 왼쪽 어깨 방향은 90도이고 오른쪽 어깨 방향은 +90도이다. Referring to FIG. 5, the forward vector 500 is set to 0 degrees, and the left shoulder direction is 90 degrees from the center of the user and the right shoulder direction is +90 degrees.

도 5에서, 제1 내지 제3 키넥트 센서(100, 102, 104)는 사용자의 전방을 촬영하므로 유효 키넥트 센서 선택부(204)에 의해 선택된 키넥트 센서이고, 제4 내지 제6 키넥트 센서(106, 108, 110)는 사용자의 후방을 촬영하므로 유효 키넥트 센서 선택부(204)에 의해 선택되지 않은 키넥트 센서이다. In FIG. 5, the first to third Kinect sensors 100, 102, and 104 are the Kinect sensors selected by the effective Kinect sensor selection unit 204 because they photograph the front of the user, and the fourth to sixth Kinect sensors 100, The sensors 106, 108, and 110 are Kinect sensors that are not selected by the effective Kinect sensor selection unit 204 because they photograph the back of the user.

왼쪽 영역인 -90도 내지 30도 영역과 관련하여, 제1 키넥트 센서(100) 및 제2 키넥트 센서(102)는 사용자의 중심으로부터 각 키넥트 센서까지의 각도가 왼쪽 영역 내에 있다. 제1 키넥트 센서(100) 및 제2 키넥트 센서에 대해 제2 가중치로 1이 설정된다. 그러나, 사용자의 중심으로부터 제3 키넥트 센서(104)까지의 각도는 왼쪽 영역 내에 있지 않으며, 제3 키넥트 센서(104)에 의해 획득되는 왼쪽 영역 관절들에 대해서는 1 미만의 미리 설정된 가중치가 적용된다. 물론, 제3 키넥트 센서(104)에 의해 획득되는 오른쪽 영역 관절들에 대해서는 1의 가중치가 적용된다. With respect to the -90 degrees to 30 degrees area of the left area, the first Kinect sensor 100 and the second Kinect sensor 102 have an angle from the center of the user to each Kinect sensor in the left area. A first weight is set to 1 for the first Kinect sensor 100 and the second Kinect sensor. However, the angle from the center of the user to the third Kinect sensor 104 is not in the left region, and for the left area joints acquired by the third Kinect sensor 104, a predetermined weight less than 1 is applied do. Of course, a weight of one is applied to the right region joints acquired by the third Kinect sensor 104. [

제1 가중치 및 제2 가중치가 곱해진 형태로 각 키넥트 센서의 관절별 가중치가 최종적으로 정해진다. The weights of the respective knee sensors of the respective knee sensors are finally determined in a form in which the first weight and the second weight are multiplied.

스켈레톤 합성부(208)는 가중치 설정부에 의해 설정된 가중치를 적용하여 유효 키넥트 센서 선택부(204)에 의해 선택된 각 키넥트 센서의 스켈레톤 구조 영상을 합성한다. 각 키넥트 센서의 관절별로 가중치가 설정되므로, 일반적인 가중치 평균 방식이 영상 합성에 사용될 수 있을 것이다. The skeleton synthesis unit 208 synthesizes the skeleton structure images of the respective Kinect sensors selected by the effective kinect sensor selection unit 204 by applying the weights set by the weight setting unit. Since weights are set for each joint of each Kinect sensor, a general weighted average method can be used for image synthesis.

다음의 수학식 2는 스켈레톤 합성부(208)에서 이루어지는 각 관절에 대한 스켈레톤 구조 영상 합성(

Figure pat00004
)을 나타낸 식이다. (2) is a skeleton structure image synthesis for each joint in the skeleton synthesis unit 208
Figure pat00004
).

Figure pat00005
Figure pat00005

위 수학식에서 P는 스켈레톤 구조 영상의 3차원 좌표를 의미하고, n은 키넥트 센서를 나타내는 인덱스이고, i는 관절을 나타내는 인텍스이다. In the above equation, P denotes a three-dimensional coordinate of the skeleton structure image, n denotes an index indicating a Kinect sensor, and i denotes an index representing a joint.

한편, 가중치

Figure pat00006
는 다음의 수학식 3과 같이 정의될 수 있다. On the other hand,
Figure pat00006
Can be defined as the following equation (3).

Figure pat00007
Figure pat00007

위 수학식 3에서,

Figure pat00008
는 키넥트 센서의 추적 상태에 따른 제1 가중치를 의미하고,
Figure pat00009
는 키넥트 센서의 방향에 따른 제2 가중치를 의미한다. In the above equation (3)
Figure pat00008
Means a first weight according to the tracking state of the Kinect sensor,
Figure pat00009
Quot; means a second weight according to the direction of the Kinect sensor.

후처리부(210)는 합성된 스켈레톤 구조 영상에 대한 후처리를 수행한다. 합성된 스켈레톤에서 각 관절의 길이는 실제 사용자의 관절의 길이와 조금 다르게 나타날 수 있다. 후처리부(210)는 이러한 차이를 보정하기 위해 각 관절별로 미리 설정된 보정 계수를 곱하는 방식으로 후처리를 수행한다. The post-processing unit 210 performs post-processing on the synthesized skeleton structure image. In the synthesized skeleton, the length of each joint may be slightly different from that of the actual user. The post-processing unit 210 performs a post-process by multiplying each preset joint correction coefficient by a predetermined correction coefficient to correct the difference.

자세 추정부(212)는 합성 및 후처리가 완료된 스켈레톤 구조 영상에 기초하여 사용자의 자세를 추정한다. 스켈레톤 구조 영상에 기초한 자세 추정은 일반적인 기술이므로 이에 대한 상세한 설명은 생략한다. The attitude estimation unit 212 estimates the attitude of the user based on the synthesized and post-processed skeleton structure image. Since the posture estimation based on the skeleton structure image is a general technique, a detailed description thereof will be omitted.

도 6은 본 발명의 일 실시예에 따른 사용자 자세 추정 방법의 전체적인 흐름을 도시한 순서도이다. 6 is a flowchart illustrating an overall flow of a method of estimating a user attitude according to an embodiment of the present invention.

도 6을 참조하면, 우선 대상 사용자를 둘러싸도록 배치된 복수의 키넥트 센서는 독립적으로 사용자의 스켈레톤 구조 영상을 획득한다(단계 600). Referring to FIG. 6, first, a plurality of Kinect sensors arranged to surround an object user acquires a user's skeleton structure image independently (step 600).

각 키넥트 센서는 획득한 스켈레톤 구조 영상을 공통 좌표계의 좌표로 변환한다(단계 602). 공통 좌표계로의 변환을 위한 회전 매트릭스 R 및 변형 매트릭스 T는 미리 설정된 보정(Calibration) 작업에 의해 각 키넥트 센서별로 미리 설정된다. Each Kinect sensor converts the acquired skeleton structure image into coordinates of a common coordinate system (step 602). The rotation matrix R and the transformation matrix T for conversion to the common coordinate system are previously set for each of the kinetic sensors by a preset calibration operation.

복수의 키넥트 센서들 중 사용자의 전방을 촬영하는 키넥트 센서가 유효 키넥트 센서로 선택된다(단계 604). 스켈레톤 구조 영상의 합성에는 유효하게 선택된 키넥트 센서의 스켈레톤 구조 영상만이 사용된다. A Kinect sensor for photographing the front of the user out of the plurality of Kinect sensors is selected as the effective Kinect sensor (step 604). Only the skeleton structure images of the Kinect sensors that are effectively selected are used for the synthesis of the skeleton structure image.

유효 키넥트 센서가 선택되면, 각 키넥트 센서의 관절별로 스켈레톤 구조 영상에 적용될 가중치가 설정된다(단계 606). If an effective Kinect sensor is selected, a weight to be applied to the skeleton structure image for each joint of each Kinect sensor is set (step 606).

가중치는 키넥트 센서의 트랙 상태에 따른 제1 가중치와 키넥트 센서와 사요용자와의 방향에 따른 제2 가중치로 구분되며, 제1 가중치와 제2 가중치의 곱에 의해 최종 가중치가 설정된다. The weight is divided into a first weight according to the track state of the Kinect sensor and a second weight according to the direction of the Kinect sensor and the wearer. The final weight is set by multiplying the first weight and the second weight.

가중치 설정이 완료되면, 가중치를 적용하여 유효 키넥트 센서들에서 획득한 스켈레톤 구조 영상을 합성한다(단계 608). When the weight setting is completed, the weighted values are applied to synthesize the skeleton structure images obtained from the valid Kinect sensors (step 608).

스켈레톤 구조 영상이 합성되면, 합성된 영상에서 각 관절의 길이를 보정하는 후처리가 수행되며(단계 610), 후처리가 완료되면 후처리된 스켈레톤 구조 영상에 기초하여 사용자의 자세를 추정한다(단계 612). After the skeleton structure image is synthesized, post-processing for correcting the length of each joint in the synthesized image is performed (step 610), and the posture of the user is estimated based on the post-processed skeleton structure image 612).

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains. Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

Claims (15)

복수의 키넥트 센서들이 사용자를 둘러싸도록 배치되며 상기 복수의 키넥트 센서들이 독립적으로 상기 사용자의 스켈레톤 구조 영상을 획득하는 키넥트 센서부;
상기 복수의 키넥트 센서에서 획득한 상기 사용자의 스켈레톤 구조 영상을 공통 좌표계로 변환하는 공통 좌표계 변환부;
상기 복수의 키넥트 센서들 중 사용자의 전방을 촬영하는 키넥트 센서들을 선택하는 유효 키넥트 센서 선택부;
상기 선택된 유효 키넥트 센서들에 대해 각 유효 키넥트 센서들의 스켈레톤 구조 영상의 관절별로 가중치를 설정하는 가중치 설정부; 및
상기 설정된 가중치에 기초하여 상기 선택된 유효 키넥트 센서들의 스켈레톤 구조 영상을 합성하는 스켈레톤 합성부를 포함하되,
상기 가중치는 상기 유효 키넥트 센서들의 트랙 상태 정보에 기초하는 제1 가중치 및 상기 사용자로부터 상기 유효 키넥트 센서들로의 방향에 기초한 제2 가중치를 포함하는 것을 특징으로 하는 사용자 자세 추정 장치.
A plurality of Kinect sensors arranged to surround the user and the plurality of Kinect sensors independently acquiring the image of the user's skeleton structure;
A common coordinate system conversion unit for converting the user's skeleton structure image acquired by the plurality of Kinect sensors into a common coordinate system;
An effective keynote sensor selection unit for selecting keynote sensors for photographing the front of the user among the plurality of keynote sensors;
A weight setting unit for setting weights for the joints of the skeleton structure images of the respective effective knee pick sensors for the selected effective knee pick sensors; And
And a skeleton synthesis unit for synthesizing the skeleton structure images of the selected effective kinect sensors based on the set weights,
Wherein the weight includes a first weight based on track state information of the valid Kinect sensors and a second weight based on a direction from the user to the effective Kinect sensors.
제1항에 있어서,
상기 유효 키넥트 센서 선택부는 상기 키넥트 센서들에 의해 포착되는 스켈레톤 구조 영상에서 상기 사용자의 왼쪽 어깨 및 오른쪽 어개를 연결하는 라인과 직교하는 전방 벡터를 이용하는 것을 특징으로 하는 사용자 자세 추정 장치.
The method according to claim 1,
Wherein the effective kinect sensor selection unit uses a forward vector orthogonal to a line connecting the left shoulder and the right finger of the user in a skeleton structure image captured by the kinect sensors.
제2항에 있어서,
상기 유효 키넥트 센서 선택부는 이전 프레임의 전방 벡터와 현재 프레임에서 각 키넥트 센서별 전방 벡터의 내적을 통해 상기 사용자의 전방을 촬영하는지 여부를 판단하는 것을 특징으로 하는 사용자 자세 추정 장치.
3. The method of claim 2,
Wherein the effective kinect sensor selection unit determines whether to photograph the front of the user through an inner product of a front vector of a previous frame and a forward vector of each kinetic sensor in a current frame.
제3항에 있어서,
상기 제1 가중치는 각 유효 키넥트 센서의 스켈레톤 구조 영상의 관절에 대한 상태 정보에 기초하여 관절별로 설정되는 것을 특징으로 하는 사용자 자세 추정 장치.
The method of claim 3,
Wherein the first weight is set for each joint based on state information about a joint of the skeleton structure image of each effective Kinect sensor.
제1항에 있어서,
상기 가중치 설정부는 상기 각 유효 키넥트 센서들의 스켈레톤 구조 영상에서 상기 사용자의 전방 벡터를 기준으로 왼쪽 영역 및 오른쪽 영역을 정의하고, 상기 사용자로부터 상기 유효 키넥트 센서들 중 특정 키넥트 센서로의 방향이 상기 왼쪽 영역 내에 있지 않을 경우, 해당 키넥트 센서에 의해 포착되는 스켈레톤 구조 영상의 관절들 중 미리 설정된 왼쪽 영역 관절들에 대해 1 미만의 미리 설정된 제2 가중치를 적용하며, 상기 사용자로부터 상기 유효 키넥트 센서들 중 특정 키넥트 센서로의 방향이 상기 오른쪽 영역 내에 있지 않을 경우 해당 키넥트 센서에 의해 포착되는 스켈레톤 구조 영상의 관절들 중 미리 설정된 왼른쪽 영역 관절들에 대해 1 미만의 미리 설정된 제2 가중치를 적용하는 것을 특징으로 하는 사용자 자세 추정 장치.
The method according to claim 1,
Wherein the weight setting unit defines a left area and a right area based on the user's forward vector in the skeleton structure image of each valid Kinect sensor and determines a direction from the user to a specific Kinect sensor among the valid Kinect sensors Applying a predetermined second weight less than 1 to pre-established left region joints of the joints of the skeleton structure image captured by the corresponding Kinect sensor when not in the left region, A predetermined second weight less than 1 for pre-established left region joints of the joints of the skeleton structure image captured by the corresponding Kinect sensor when the direction of the sensor to the specific Kinect sensor is not in the right region Is applied to the user.
제1항에 있어서,
상기 스켈레톤 합성부는 상기 제1 가중치 및 상기 제2 가중치의 곱에 상응하는 가중치를 각 관절별로 적용하여 가중치 평균에 의해 스켈레톤 구조 영상을 합성하는 것을 특징으로 하는 사용자 자세 추정 장치.
The method according to claim 1,
Wherein the skeleton synthesis unit applies a weight corresponding to a product of the first weight and the second weight to each joint and synthesizes the skeleton structure image by weighted averaging.
제1항에 있어서,
상기 스켈레톤 합성부에 의해 합성되는 스켈레톤 구조 영상에 기초하여 상기 사용자의 자세를 추정하는 자세 추정부를 더 포함하는 것을 특징으로 하는 사용자 자세 추정 장치.
The method according to claim 1,
And an attitude estimation unit for estimating the attitude of the user based on the skeleton structure image synthesized by the skeleton synthesis unit.
복수의 키넥트 센서들이 사용자를 둘러싸도록 배치되며 상기 복수의 키넥트 센서들이 독립적으로 상기 사용자의 스켈레톤 구조 영상을 획득하는 키넥트 센서부;
상기 복수의 키넥트 센서에서 획득한 상기 사용자의 스켈레톤 구조 영상을 공통 좌표계로 변환하는 공통 좌표계 변환부;
상기 복수의 키넥트 센서들 중 사용자의 전방을 촬영하는 키넥트 센서들을 선택하는 유효 키넥트 센서 선택부;
상기 선택된 유효 키넥트 센서들에 대해 각 유효 키넥트 센서들의 스켈레톤 구조 영상의 관절별로 가중치를 설정하는 가중치 설정부; 및
상기 설정된 가중치에 기초하여 상기 선택된 유효 키넥트 센서들의 스켈레톤 구조 영상을 합성하는 스켈레톤 합성부를 포함하되,
상기 유효 키넥트 센서 선택부는 상기 키넥트 센서들에 의해 포착되는 스켈레톤 구조 영상에서 상기 사용자의 왼쪽 어깨 및 오른쪽 어개를 연결하는 라인과 직교하는 전방 벡터를 이용하며, 이전 프레임의 전방 벡터와 현재 프레임에서 각 키넥트 센서별 전방 벡터의 내적을 통해 상기 사용자의 전방을 촬영하는지 여부를 판단하는 것을 특징으로 하는 사용자 자세 추정 장치.
A plurality of Kinect sensors arranged to surround the user and the plurality of Kinect sensors independently acquiring the image of the user's skeleton structure;
A common coordinate system conversion unit for converting the user's skeleton structure image acquired by the plurality of Kinect sensors into a common coordinate system;
An effective keynote sensor selection unit for selecting keynote sensors for photographing the front of the user among the plurality of keynote sensors;
A weight setting unit for setting weights for the joints of the skeleton structure images of the respective effective knee pick sensors for the selected effective knee pick sensors; And
And a skeleton synthesis unit for synthesizing the skeleton structure images of the selected effective kinect sensors based on the set weights,
The effective kinect sensor selection unit uses a forward vector orthogonal to a line connecting the left shoulder and the right finger of the user in a skeleton structure image captured by the kinect sensors, And determines whether to photograph the front of the user through an inner product of a forward vector for each of the kinetic sensors.
복수의 키넥트 센서들이 사용자를 둘러싸도록 배치되는 환경에서 사용자의 자세를 추정하는 방법으로서,
상기 복수의 키넥트 센서들이 독립적으로 상기 사용자의 스켈레톤 구조 영상을 획득하는 단계(a);
상기 복수의 키넥트 센서에서 획득한 상기 사용자의 스켈레톤 구조 영상을 공통 좌표계로 변환하는 단계(b);
상기 복수의 키넥트 센서들 중 사용자의 전방을 촬영하는 유효 키넥트 센서들을 선택하는 단계(c);
상기 선택된 유효 키넥트 센서들에 대해 각 유효 키넥트 센서들의 스켈레톤 구조 영상의 관절별로 가중치를 설정하는 단계(d); 및
상기 설정된 가중치에 기초하여 상기 선택된 유효 키넥트 센서들의 스켈레톤 구조 영상을 합성하는 단계(e)를 포함하되,
상기 가중치는 상기 유효 키넥트 센서들의 트랙 상태 정보에 기초하는 제1 가중치 및 상기 사용자로부터 상기 유효 키넥트 센서들로의 방향에 기초한 제2 가중치를 포함하는 것을 특징으로 하는 사용자 자세 추정 방법.
A method of estimating a user's attitude in an environment in which a plurality of Kinect sensors are arranged to surround a user,
(A) the plurality of Kinect sensors independently acquiring the user's skeleton structure image;
(B) transforming the user's skeleton structure image acquired from the plurality of Kinect sensors into a common coordinate system;
Selecting effective keynote sensors for capturing a front of the user among the plurality of keynote sensors;
(D) setting joint weights of the effective kinect sensors of the selected effective kinect sensors on the basis of joints of the skeleton structure images; And
(E) compositing a skeleton structure image of the selected effective Kinect sensors based on the set weights,
Wherein the weight comprises a first weight based on track state information of the valid Kinect sensors and a second weight based on a direction from the user to the effective Kinect sensors.
제9항에 있어서,
상기 단계(c)는 상기 키넥트 센서들에 의해 포착되는 스켈레톤 구조 영상에서 상기 사용자의 왼쪽 어깨 및 오른쪽 어개를 연결하는 라인과 직교하는 전방 벡터를 이용하는 것을 특징으로 하는 사용자 자세 추정 방법.
10. The method of claim 9,
Wherein the step (c) uses a forward vector orthogonal to the line connecting the left shoulder and the right finger of the user in the skeleton structure image captured by the Kinect sensors.
제10항에 있어서,
상기 단계(c)는 이전 프레임의 전방 벡터와 현재 프레임에서 각 키넥트 센서별 전방 벡터의 내적을 통해 상기 사용자의 전방을 촬영하는지 여부를 판단하는 것을 특징으로 하는 사용자 자세 추정 방법.
11. The method of claim 10,
Wherein the step (c) decides whether or not to photograph the front of the user through an inner product of a front vector of the previous frame and a forward vector of each kinetic sensor in the current frame.
제11항에 있어서,
상기 제1 가중치는 각 유효 키넥트 센서의 스켈레톤 구조 영상의 관절에 대한 상태 정보에 기초하여 관절별로 설정되는 것을 특징으로 하는 사용자 자세 추정 방법.
12. The method of claim 11,
Wherein the first weight is set for each joint based on state information about a joint of the skeleton structure image of each effective Kinect sensor.
제9항에 있어서,
상기 단계(d)는, 상기 각 유효 키넥트 센서들의 스켈레톤 구조 영상에서 상기 사용자의 전방 벡터를 기준으로 왼쪽 영역 및 오른쪽 영역을 정의하고, 상기 사용자로부터 상기 유효 키넥트 센서들 중 특정 키넥트 센서로의 방향이 상기 왼쪽 영역 내에 있지 않을 경우, 해당 키넥트 센서에 의해 포착되는 스켈레톤 구조 영상의 관절들 중 미리 설정된 왼쪽 영역 관절들에 대해 1 미만의 미리 설정된 제2 가중치를 적용하며, 상기 사용자로부터 상기 유효 키넥트 센서들 중 특정 키넥트 센서로의 방향이 상기 오른쪽 영역 내에 있지 않을 경우 해당 키넥트 센서에 의해 포착되는 스켈레톤 구조 영상의 관절들 중 미리 설정된 왼른쪽 영역 관절들에 대해 1 미만의 미리 설정된 제2 가중치를 적용하는 것을 특징으로 하는 사용자 자세 추정 방법.
10. The method of claim 9,
Wherein the step (d) defines a left area and a right area based on the forward vector of the user in the skeleton structure image of the respective effective Kinect sensors, Applies a predetermined second weight less than 1 to predetermined left joints of the joints of the skeleton structure image captured by the corresponding Kinect sensor when the direction of the left knee sensor is not in the left region, If the direction to the specific Kinect sensor of the effective Kinect sensors is not within the right area, then a pre-set less than 1 preset for the left area joints of the skeleton structure image captured by the Kinect sensor And a second weight is applied to the user.
제9항에 있어서,
상기 단계(e)는 상기 제1 가중치 및 상기 제2 가중치의 곱에 상응하는 가중치를 각 관절별로 적용하여 가중치 평균에 의해 스켈레톤 구조 영상을 합성하는 것을 특징으로 하는 사용자 자세 추정 방법.
10. The method of claim 9,
Wherein the step (e) applies a weight corresponding to a product of the first weight and the second weight to each joint, and synthesizes the skeleton structure image by weighted averaging.
제9항에 있어서,
상기 단계(e)에 의해 합성되는 스켈레톤 구조 영상에 기초하여 상기 사용자의 자세를 추정하는 단계를 더 포함하는 것을 특징으로 하는 사용자 자세 추정 방법.


10. The method of claim 9,
And estimating the posture of the user based on the skeleton structure image synthesized by the step (e).


KR1020170020345A 2017-02-15 2017-02-15 Apparatus and Method for Estimating Pose of User KR101896827B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170020345A KR101896827B1 (en) 2017-02-15 2017-02-15 Apparatus and Method for Estimating Pose of User

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170020345A KR101896827B1 (en) 2017-02-15 2017-02-15 Apparatus and Method for Estimating Pose of User

Publications (2)

Publication Number Publication Date
KR20180094253A true KR20180094253A (en) 2018-08-23
KR101896827B1 KR101896827B1 (en) 2018-09-07

Family

ID=63454868

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170020345A KR101896827B1 (en) 2017-02-15 2017-02-15 Apparatus and Method for Estimating Pose of User

Country Status (1)

Country Link
KR (1) KR101896827B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020097212A1 (en) * 2018-11-06 2020-05-14 Lucasfilm Entertainment Company Ltd. Immersive content production system
WO2023013562A1 (en) * 2021-08-04 2023-02-09 パナソニックIpマネジメント株式会社 Fatigue estimation system, fatigue estimation method, posture estimation device, and program
KR102531977B1 (en) 2022-05-17 2023-05-15 한국전자기술연구원 System and Method for estimating 3-dimensional skeleton
US11887251B2 (en) 2021-04-23 2024-01-30 Lucasfilm Entertainment Company Ltd. System and techniques for patch color correction for an immersive content production system
US11978154B2 (en) 2021-04-23 2024-05-07 Lucasfilm Entertainment Company Ltd. System and techniques for lighting adjustment for an immersive content production system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140114741A (en) * 2013-03-19 2014-09-29 삼성전자주식회사 Apparatus and method for human pose estimation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140114741A (en) * 2013-03-19 2014-09-29 삼성전자주식회사 Apparatus and method for human pose estimation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문, Implementation of an Omnidirectional Human Motion Capture System, communications and computer sciences(2015) *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020097212A1 (en) * 2018-11-06 2020-05-14 Lucasfilm Entertainment Company Ltd. Immersive content production system
US11132838B2 (en) 2018-11-06 2021-09-28 Lucasfilm Entertainment Company Ltd. LLC Immersive content production system
US11132837B2 (en) 2018-11-06 2021-09-28 Lucasfilm Entertainment Company Ltd. LLC Immersive content production system with multiple targets
GB2593833A (en) * 2018-11-06 2021-10-06 Lucasfilm Entertainment Co Ltd Immersive content production system
GB2593833B (en) * 2018-11-06 2022-09-14 Lucasfilm Entertainment Co Ltd Immersive content production system
US11727644B2 (en) 2018-11-06 2023-08-15 Lucasfilm Entertainment Company Ltd. LLC Immersive content production system with multiple targets
US11887251B2 (en) 2021-04-23 2024-01-30 Lucasfilm Entertainment Company Ltd. System and techniques for patch color correction for an immersive content production system
US11978154B2 (en) 2021-04-23 2024-05-07 Lucasfilm Entertainment Company Ltd. System and techniques for lighting adjustment for an immersive content production system
WO2023013562A1 (en) * 2021-08-04 2023-02-09 パナソニックIpマネジメント株式会社 Fatigue estimation system, fatigue estimation method, posture estimation device, and program
KR102531977B1 (en) 2022-05-17 2023-05-15 한국전자기술연구원 System and Method for estimating 3-dimensional skeleton

Also Published As

Publication number Publication date
KR101896827B1 (en) 2018-09-07

Similar Documents

Publication Publication Date Title
KR101896827B1 (en) Apparatus and Method for Estimating Pose of User
JP4136859B2 (en) Position and orientation measurement method
US9355453B2 (en) Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
JP4708752B2 (en) Information processing method and apparatus
WO2020054442A1 (en) Articulation position acquisition method and device, and motion acquisition method and device
JP5812599B2 (en) Information processing method and apparatus
CN110296691A (en) Merge the binocular stereo vision measurement method and system of IMU calibration
US9378559B2 (en) System and method for motion estimation
JP2008506953A5 (en)
CN104699247A (en) Virtual reality interactive system and method based on machine vision
CN101116101A (en) Position posture measuring method and device
JP6145072B2 (en) Sensor module position acquisition method and apparatus, and motion measurement method and apparatus
CN108227920B (en) Motion closed space tracking method and system
WO2020031950A1 (en) Measurement calibration device, measurement calibration method, and program
JP2017119102A (en) Motion analysis device, method and program
JP2013252301A (en) Device and program for estimating eyeball center position
JP4095320B2 (en) Sensor calibration device, sensor calibration method, program, storage medium
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
CN111524174A (en) Binocular vision three-dimensional construction method for moving target of moving platform
US20180028861A1 (en) Information processing device and information processing method
JP7318814B2 (en) DATA GENERATION METHOD, DATA GENERATION PROGRAM AND INFORMATION PROCESSING DEVICE
CN113487674A (en) Human body pose estimation system and method
JP2005241323A (en) Imaging system and calibration method
JP6205387B2 (en) Method and apparatus for acquiring position information of virtual marker, and operation measurement method
WO2018173205A1 (en) Information processing system, method for controlling same, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant