KR100933957B1 - 3D Human Body Pose Recognition Using Single Camera - Google Patents

3D Human Body Pose Recognition Using Single Camera Download PDF

Info

Publication number
KR100933957B1
KR100933957B1 KR1020080045490A KR20080045490A KR100933957B1 KR 100933957 B1 KR100933957 B1 KR 100933957B1 KR 1020080045490 A KR1020080045490 A KR 1020080045490A KR 20080045490 A KR20080045490 A KR 20080045490A KR 100933957 B1 KR100933957 B1 KR 100933957B1
Authority
KR
South Korea
Prior art keywords
pose
image
detection
histogram
silhouette
Prior art date
Application number
KR1020080045490A
Other languages
Korean (ko)
Other versions
KR20090119442A (en
Inventor
이칠우
홍석주
오치민
김민욱
Original Assignee
전남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전남대학교산학협력단 filed Critical 전남대학교산학협력단
Priority to KR1020080045490A priority Critical patent/KR100933957B1/en
Publication of KR20090119442A publication Critical patent/KR20090119442A/en
Application granted granted Critical
Publication of KR100933957B1 publication Critical patent/KR100933957B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Abstract

본 발명은 단일 카메라를 이용한 삼차원 인체 포즈 인식 방법에 관한 것으로, 더욱 상세하게는 서로 다른 포즈를 갖는 기준이 되는 인체들의 실루엣 영상의 특징점에 기반하여 다수 개의 기준 포즈 모델을 생성하여 저장하고, 단일 카메라를 이용하여 검출할 인체의 검출 포즈 모델을 생성하여 상기 기준 포즈 모델들과 비교함으로써 검출할 인체의 삼차원 포즈 및 촬영방향을 추정하는 단일 카메라를 이용한 삼차원 인체 포즈 인식방법에 관한 것이다.The present invention relates to a three-dimensional human body pose recognition method using a single camera, and more specifically, to generate and store a plurality of reference pose models based on the feature points of the silhouette image of the human body as a reference having a different pose, and a single camera The present invention relates to a three-dimensional human body pose recognition method using a single camera for estimating a three-dimensional pose and a shooting direction of a human body to be detected by generating a detection pose model of a human body to be detected using the reference pose models.

삼차원 포즈, 단일 카메라, 실루엣, 특징점, 히스토그램, 경계영상 3D Pose, Single Camera, Silhouette, Feature Point, Histogram, Boundary Image

Description

단일 카메라를 이용한 삼차원 인체 포즈 인식 방법{RECOGNITION METHOD OF 3 DIMENSIONAL HUMAN POSE USING A SINGLE CAMERA}Recognition method of three-dimensional human pose using a single camera {RECOGNITION METHOD OF 3 DIMENSIONAL HUMAN POSE USING A SINGLE CAMERA}

본 발명은 단일 카메라를 이용한 삼차원 인체 포즈 인식 방법에 관한 것으로, 더욱 상세하게는 서로 다른 포즈를 갖는 기준이 되는 인체들의 실루엣 영상의 특징점에 기반하여 다수 개의 기준 포즈 모델을 생성하여 저장하고, 단일 카메라를 이용하여 검출할 인체의 검출 포즈 모델을 생성하여 상기 기준 포즈 모델들과 비교함으로써 검출할 인체의 삼차원 포즈 및 촬영방향을 추정하는 단일 카메라를 이용한 삼차원 인체 포즈 인식방법에 관한 것이다.The present invention relates to a three-dimensional human body pose recognition method using a single camera, and more specifically, to generate and store a plurality of reference pose models based on the feature points of the silhouette image of the human body as a reference having a different pose, and a single camera The present invention relates to a three-dimensional human body pose recognition method using a single camera for estimating a three-dimensional pose and a shooting direction of a human body to be detected by generating a detection pose model of a human body to be detected using the reference pose models.

인체의 포즈는 사람의 행위의 의도를 나타내기 때문에 여러 검퓨터공학 분야에서 해석하여 사용하고 있다. 주로, 인체의 포즈는 보안 분야, 로봇과의 상호작용분야나 포즈 인식분야 등에 사용되고 있다.The pose of the human body represents the intention of human behavior, and thus it is interpreted and used in various computer science fields. Mainly, the pose of the human body is used in the security field, the interaction field with the robot or the pose recognition field.

일반적으로 인체의 포즈를 인식하기 위해서는 다수 혹은 단일 카메라를 사용하는데, 다수 카메라를 사용하는 방법은 인체의 주시 방향이나 카메라의 위치에 따 라 인체의 포즈가 달리 보이는 단점을 보완하지만 제작비용이 증가하고 계산이 복잡해지는 단점이 있다.Generally, multiple or single cameras are used to recognize the pose of the human body. The method of using multiple cameras compensates for the disadvantages of different poses of the human body depending on the direction of the human body or the position of the camera. The disadvantage is that the calculation is complicated.

또한, 상기 단일 카메라를 이용하는 경우 비용이 작고 계산이 단순하여 실제현장에서 적용이 용이한 장점이 있지만 인체의 삼차원 포즈를 직접 얻기 어려운 단점이 있다.In addition, when the single camera is used, the cost is simple and the calculation is simple, so it is easy to apply in the actual field, but it is difficult to directly obtain a three-dimensional pose of the human body.

본 발명은 상기의 문제점들을 해결하기 위해 창안된 것으로, 본 발명의 목적은 단일 카메라를 이용하여 인체의 삼차원 포즈를 추정하여 인식할 수 있는 단일 카메라를 이용한 삼차원 인체 포즈 인식방법을 제공하는 데 있다.The present invention was devised to solve the above problems, and an object of the present invention is to provide a three-dimensional human body pose recognition method using a single camera that can estimate and recognize the three-dimensional pose of the human body using a single camera.

또한, 본 발명의 목적은 다수 대의 카메라를 이용하여 삼차원 포즈를 갖는 인체의 영상특징인 삼차원 인체 포즈 모델을 생성할 수 있는 삼차원 인체 포즈 모델 생성 방법을 제공하는 데 있다.It is also an object of the present invention to provide a three-dimensional human body pose model generation method that can generate a three-dimensional human body pose model that is an image feature of the human body having a three-dimensional pose using a plurality of cameras.

상기의 목적을 달성하기 위한 본 발명의 일 실시예에 따른 단일 카메라를 이용한 삼차원 인체 포즈 인식방법은 임의의 삼차원 포즈를 갖는 기준대상을 서로 다른 방향에서 촬영하여 다수 개의 기준 이차원 포즈 영상을 획득하는 제 1 단계, 상기 각 기준 이차원 포즈 영상의 실루엣 영상인 기준 실루엣 영상을 추출하고, 상기 기준 실루엣 영상에 기반하여 상기 기준대상의 영상특징인 기준 포즈 모델을 생성하는 제 2 단계, 상기 기준 포즈 모델을 기준 포즈 모델 데이터베이스에 저장하는 제 3 단계, 상기 제 1 단계 내지 제 3 단계를 반복하여 서로 다른 포즈를 갖는 기준대상들의 기준 포즈 모델들을 생성하여 상기 기준 포즈 모델 데이터베이스에 저장하는 제 4 단계, 단일 카메라를 이용하여 임의의 방향에서 검출대상을 촬영한 검출 이차원 포즈 영상을 획득하는 제 5 단계, 상기 검출 이차원 포즈 영상의 실루엣 영상인 검출 실루엣 영상을 추출하고, 상기 검출 실루엣 영상에 기반하여 상기 검출대상의 영상특징인 검출 포즈 모델을 생성하는 제 6 단계 및 상기 기준 포즈 모델 데이터베이스에 저장된 기준 포즈 모델들 중 상기 검출 포즈 모델과 유사도가 가장 큰 기준 포즈 모델을 도출하여, 상기 검출대상의 삼차원 포즈를 추정하는 제 7 단계를 포함하여 이루어진다.According to an embodiment of the present invention, a three-dimensional pose pose recognition method using a single camera according to an embodiment of the present invention may include: obtaining a plurality of reference two-dimensional pose images by photographing a reference object having an arbitrary three-dimensional pose in different directions; Step 1, extracting a reference silhouette image which is a silhouette image of each of the reference two-dimensional pose images, and generating a reference pose model that is an image characteristic of the reference object based on the reference silhouette image, based on the reference pose model The third step of storing in the pose model database, the fourth step of generating the reference pose models of the reference objects having different poses by repeating the first to third steps to store in the reference pose model database, a single camera Detects two-dimensional pose images of the detection subject in an arbitrary direction using A fifth step of obtaining, a sixth step of extracting a detection silhouette image which is a silhouette image of the detection two-dimensional pose image, and generating a detection pose model that is an image characteristic of the detection target based on the detection silhouette image and the reference pose model And a seventh step of estimating a three-dimensional pose of the detection target by deriving a reference pose model having the greatest similarity with the detection pose model among the reference pose models stored in the database.

바람직한 실시예에 있어서, 상기 제 2 단계는 상기 각 기준 이차원 포즈 영상의 배경을 제거하여 상기 기준 실루엣 영상들을 추출하는 제 2-1 단계, 상기 각 기준 실루엣 영상의 특징점들을 구하는 제 2-2 단계, 상기 각 기준 실루엣 영상의 특징점들 사이의 각도히스토그램 값을 구하는 제 2-3 단계, 상기 각 기준 실루엣 영상들의 각도히스토그램 값들을 평균하여 평균히스토그램을 구하는 제 2-4 단계 및 상기 평균히스토그램을 주성분분석(PCA:Principle Component Analysis) 공간에 투영하여 상기 기준 포즈 모델을 생성하는 제 2-5 단계를 포함한다.In a preferred embodiment, the second step may include steps 2-1 of extracting the reference silhouette images by removing a background of each reference two-dimensional pose image, steps 2-2 of obtaining feature points of each reference silhouette image, Steps 2-3 of obtaining angle histogram values between the feature points of the respective reference silhouette images, steps 2-4 of obtaining average histograms by averaging the angle histogram values of the respective reference silhouette images, and principal component analysis of the average histogram. PCA: Principle Component Analysis (PCA).

바람직한 실시예에 있어서, 상기 제 6 단계는 상기 검출 이차원 포즈 영상의 배경을 제거하여 상기 검출 실루엣 영상을 추출하는 제 6-1 단계, 상기 검출 실루엣 영상의 특징점들을 구하는 제 6-2 단계, 상기 검출 실루엣 영상의 특징점들 사이의 각도히스토그램 값을 구하는 제 6-3 단계 및 상기 검출 실루엣 영상의 각도히스토그램을 주성분분석 공간에 투영하여 상기 검출 포즈 모델을 생성하는 제 6-4 단계를 포함한다.In a preferred embodiment, the sixth step may include extracting the detection silhouette image by removing a background of the detection two-dimensional pose image, and extracting the detection silhouette image, and obtaining the feature points of the detection silhouette image. Steps 6-3 to obtain angle histogram values between the feature points of the silhouette image and Steps 6-4 to generate the detection pose model by projecting the angle histogram of the detection silhouette image to a principal component analysis space.

바람직한 실시예에 있어서, 상기 제 7 단계 이후에 상기 기준 실루엣 영상들의 각도히스토그램 값 중 상기 검출 실루엣 영상의 각도히스토그램 값과 가장 유사 도가 큰 각도히스토그램을 도출하여, 상기 검출대상의 촬영 방향을 추정하는 제 8 단계를 더 포함한다.According to a preferred embodiment, after the seventh step, an angle histogram having the greatest similarity to the angle histogram value of the detection silhouette image among the angle histogram values of the reference silhouette images is derived, and the imaging direction of the detection target is estimated. 8 more steps.

바람직한 실시예에 있어서, 상기 제 7 단계의 유사도는 유클라디안 거리 값으로 계산된다.In a preferred embodiment, the similarity of the seventh step is calculated as the Eucladian distance value.

바람직한 실시예에 있어서, 상기 제 8 단계의 유사도는 확산 거리(Diffusion distance) 값으로 계산된다.In a preferred embodiment, the similarity of the eighth step is calculated as a diffusion distance value.

상기의 목적을 달성하기 위한 본 발명의 일 실시예에 따른 삼차원 인체 포즈모델 생성 방법은 임의의 삼차원 포즈를 갖는 인체의 영상특징을 제공하기 위한 인체 포즈 모델을 생성하는 방법에 있어서, 임의의 삼차원 포즈를 갖는 인체를 서로 다른 방향에서 촬영하여 다수 개의 이차원 포즈 영상을 획득하는 제 1 단계, 상기 각 이차원 포즈 영상들의 배경을 제거한 실루엣 영상들을 획득하는 제 2 단계, 상기 각 실루엣 영상의 특징점들을 구하는 제 3 단계, 상기 각 실루엣 영상의 특징점들 사이의 각도히스토그램 구하는 제 4 단계 및 상기 각 실루엣 영상의 각도히스토그램들을 평균하여 평균히스토그램을 도출하는 제 5 단계를 포함하여 이루어진다.Method for generating a three-dimensional human body pose model according to an embodiment of the present invention for achieving the above object in the method for generating a human body pose model for providing an image feature of the human body having an arbitrary three-dimensional pose, arbitrary three-dimensional pose A first step of acquiring a plurality of two-dimensional pose images by photographing a human body having a different direction; a second step of obtaining silhouette images from which backgrounds of the two-dimensional pose images are removed; and a third step of obtaining feature points of each silhouette image And a fourth step of obtaining an angular histogram between the feature points of each of the silhouette images, and a fifth step of deriving an average histogram by averaging the angular histograms of the respective silhouette images.

바람직한 실시예에 있어서, 상기 제 5 단계 이후에 상기 평균히스토그램을 주성분분석 공간에 투영하여 주성분분석 공간상의 특징점으로 변환하는 제 6 단계를 더 포함하며, 상기 주성분분석 공간상의 특징점을 상기 인체 포즈 모델의 영상특징으로 생성한다.In a preferred embodiment, after the fifth step, the method further includes a sixth step of projecting the average histogram into a principal component analysis space and transforming the average histogram into a characteristic point in the principal component analysis space, and converting the characteristic point in the principal component analysis space into the body pose model. Generated by image features.

상술한 바와 같이 본 발명에 의하면, 기준 포즈 모델들을 이용함으로써 단일 카메라로 촬영한 인체의 이차원 포즈 영상만으로도 상기 인체의 삼차원 포즈를 추정할 수 있어 고속으로 인체포즈를 인식할 수 있는 단일 카메라를 이용한 삼차원 인체 포즈 인식방법을 제공할 수 있는 효과가 있다.As described above, according to the present invention, the three-dimensional pose of the human body can be estimated only by using the two-dimensional pose image of the human body photographed by a single camera by using the reference pose models. There is an effect that can provide a human body pose recognition method.

또한, 본 발명에 의하면, 기준 포즈 모델의 각도히스토그램 값들과 상기 인체의 이차원 포즈 영상에서 도출된 각도히스토그램을 비교함으로써 인체의 촬영방향까지 추정할 수 있는 삼차원 인체 포즈 인식방법을 제공할 수 있는 효과가 있다.In addition, according to the present invention, by comparing the angular histogram values of the reference pose model and the angular histogram derived from the two-dimensional pose image of the human body has an effect that can provide a three-dimensional human body pose recognition method capable of estimating the human body shooting direction have.

또한, 본 발명에 의하면, 보안 분야, 로봇과의 상호작용분야, 포즈 인식분야또는 실시간 게임제작 분야에 활용가능한 삼차원 인체 포즈 모델을 생성할 수 있는 삼차원 인체 포즈 모델 생성 방법을 제공할 수 있는 효과가 있다.In addition, according to the present invention, there is an effect that can provide a three-dimensional human body pose model generation method that can create a three-dimensional human body pose model that can be used in the field of security, interaction with robots, pose recognition field or real-time game production field have.

이하, 첨부한 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1 내지 도 5는 본 발명의 일 실시예에 따른 삼차원 인체 포즈 모델 생성 방법을 설명하기 위한 도면이고, 도 6은 본 발명의 일 실시예에 따른 삼차원 인체 포즈 모델 생성 방법의 플로우차트이다.1 to 5 are views for explaining a three-dimensional human body pose model generation method according to an embodiment of the present invention, Figure 6 is a flowchart of a three-dimensional human body pose model generation method according to an embodiment of the present invention.

도면들을 참조하면 본 발명의 일 실시예에 따른 삼차원 인체 포즈 모델 생성방법은 먼저, 임의의 삼차원 포즈를 갖는 인체(10)를 다수 대의 카메라(20)를 이용하여 서로 다른 방향에서 촬영하여, 상기 카메라(20)들의 개수에 대응하는 다수 개의 이차원 포즈 영상들(P1,P2,...,P8)을 획득한다(S1000).Referring to the drawings, a method of generating a three-dimensional human body pose model according to an embodiment of the present invention, first, by photographing the human body 10 having an arbitrary three-dimensional pose from a plurality of cameras 20 from different directions, the camera A plurality of two-dimensional pose images P1, P2,..., And P8 corresponding to the number of pieces 20 are obtained (S1000).

또한, 상기 카메라들(20)은 8개의 카메라로 구성하였으며 상기 인체(10)를 중심으로 서로 45도의 각도로 이격하여 위치시켰다.In addition, the cameras 20 are composed of eight cameras and are spaced apart from each other at an angle of 45 degrees with respect to the human body 10.

그러나, 상기 카메라들(20)의 개수는 변화할 수 있으며, 서로 다른 각도로 이격되어 위치할 수 있다. 즉, 상기 카메라들(20)의 개수와 위치는 상기 인체(10)의 삼차원 포즈를 추정할 수 있는 이차원 포즈 영상들(P1,P2,...,P8)을 획득하기 위한 개수와 위치로 구비되면 충분하다.However, the number of the cameras 20 may vary and may be spaced apart from each other at different angles. That is, the number and position of the cameras 20 are provided as the number and position for acquiring two-dimensional pose images P1, P2,..., And P8 capable of estimating a three-dimensional pose of the human body 10. Is enough.

다음, 상기 다수 개의 이차원 포즈 영상들(P1,P2,...,P8)을 각각 실루엣 영상들(S1,S2,...,S8)로 획득한다(S1100).Next, the plurality of two-dimensional pose images P1, P2,..., And P8 are obtained as silhouette images S1, S2,..., S8, respectively (S1100).

한편, 상기 실루엣 영상들(S1,S2,...,S8)은 상기 이차원 포즈 영상들(P1,P2,...,P8)의 배경 부분(10b)을 제거하고 인체 부분(10a)만을 추출하여 음영으로 나타낸 영상이다.Meanwhile, the silhouette images S1, S2,..., And S8 remove the background portion 10b of the two-dimensional pose images P1, P2,..., And P8, and extract only the human body portion 10a. This is a shaded image.

즉, 상기 실루엣 영상들(S1,S2,...,S8)은 카메라(20)의 촬영 방향에 따라 서로 다른 형태의 영상들로 추출된다.That is, the silhouette images S1, S2,..., S8 are extracted as images of different types according to the photographing direction of the camera 20.

다음, 상기 실루엣 영상들(S1,S2,...,S8) 각각의 특징점들을 구한다(S1200).Next, feature points of each of the silhouette images S1, S2,..., S8 are obtained (S1200).

한편, 상기 특징점들은 컨벡스 헐(Convex hull) 점이나 콘케이브(concave) 점과 같이 볼록다각형이나 오목다각형의 꼭지점들이 될 수 있다. 그러나 상기 특징점들은 상기 실루엣 영상들(S1,S2,...,S8)의 외각선에 위치하는 다양한 점들 중 일정한 기준에 따라 추출한 점들일 수 있다.The feature points may be vertices of convex or concave polygons, such as convex hull points or concave points. However, the feature points may be points extracted according to a predetermined criterion among various points located on the outer lines of the silhouette images S1, S2,..., S8.

예를 들면, 상기 외각선의 점구간에서 곡률이 크게 변화하는 지점을 특징점으로 구할 수 있다.For example, a point where the curvature greatly changes in a point section of the outer line may be obtained as a feature point.

또한, 상기 컨벡스 헐 점들은 상기 실루엣 영상(S1,S2,...,S8)의 최외각의 위치하는 점들로써 연결하였을 때 상기 각 실루엣 영상 전체를 포함하는 영역(C1)이 도출되도록 하는 점들을 말한다.In addition, the convex hull points are points that allow the region C1 including the entire silhouette image to be derived when the convex hull points are connected to the outermost positions of the silhouette images S1, S2,..., S8. Say.

다음, 상기 실루엣 영상들(S1,S2,...,S8) 각각의 특징점들 간의 각도 히스토그램(V1)을 구한다(S1300).Next, an angular histogram V1 between the feature points of each of the silhouette images S1, S2,..., S8 is obtained (S1300).

다시 말하면, 상기 실루엣 영상들(S1,S2,...,S8) 마다 하나의 각도히스토그램(V1)을 도출한다.In other words, one angular histogram V1 is derived for each of the silhouette images S1, S2, ..., S8.

도 4는 하나의 실루엣 영상(S1)에 대해 각도히스토그램(V1)이 도출되는 것을 보여주는 도면으로써 모든 실루엣 영상들(S1,S2,...,S8)의 각도히스토그램 도출에 대해 동일하게 적용된다.FIG. 4 is a diagram showing that the angle histogram V1 is derived for one silhouette image S1. The same applies to the angle histogram derivation of all the silhouette images S1, S2,..., S8.

또한, 상기 각도 히스토그램(V1)은 아래의 수학식 1을 통해 구해진다.In addition, the angle histogram V1 is obtained through Equation 1 below.

Figure 112008034835151-pat00001
Figure 112008034835151-pat00001

Figure 112008034835151-pat00002
Figure 112008034835151-pat00002

다음, 상기 실루엣 영상들(S1,S2,...,S8)의 각도 히스토그램들을 평균하여 평균히스토그램(Va1)을 도출하고(S1400), 상기 평균히스토그램(Va1)은 상기 임의의 삼차원 포즈를 갖는 인체(10)의 인체 포즈 모델로 생성한다.Next, an average histogram Va1 is derived by averaging the angle histograms of the silhouette images S1, S2,..., S8 (S1400), and the average histogram Va1 is a human body having the arbitrary three-dimensional pose. Create a human body pose model of 10.

즉, 상기 평균히스토그램(Va1)은 상기 인체(10)의 영상특징인 인체 포즈 모델의 특징정보로 생성되는 것이다.That is, the average histogram Va1 is generated as feature information of a human body pose model, which is an image feature of the human body 10.

또한, 상기 평균히스토그램(Va1)은 아래의 수힉식 2를 통해 구할 수 있다.In addition, the average histogram Va1 may be obtained from Equation 2 below.

Figure 112008034835151-pat00003
Figure 112008034835151-pat00003

여기서 Pi 는 상기 평균히스토그램(Va1)을 의미한다.Where P i Denotes the average histogram Va1.

한편, 본 발명의 일 실시예에서는 상기 평균히스토그램(Va1)은 데이터의 량이 방대하므로 주성분분석(PCA:Principle Component Analysis)를 통해 주성분분석 공간상의 특징점(P1)으로 투영하여 상기 특징점을 상기 인체 포즈 모델의 특징정보로 생성하였다(S1500).Meanwhile, in the exemplary embodiment of the present invention, since the average histogram Va1 has a large amount of data, the average histogram Va1 is projected to the feature point P 1 in the principal component analysis space through PCA (Principle Component Analysis) to pose the feature point in the human body pose. Generated by the feature information of the model (S1500).

또한, 상기 특징점(P1)의 생성과정을 간단히 설명하면 먼저 아래의 수학식 3에 의해 상기 평균히스토그램(Va1)의 공분산행렬의 고유기저벡터를 구하는 주성분분석을 수행하고, 다음, 아래의 수학식 4에 의해 상기 공분산행렬의 고유기저벡터 중 높은 분산을 가진 3가지 벡터만을 선택하여 주성분 공간의 기저벡터로 구축하고, 다음 아래의 수학식 5에 의해 삼차원 기저벡터 공간의 점으로 투영변환 함으로써 상기 특징점(P1)이 도출된다.In addition, briefly explaining the generation process of the feature point (P 1 ) First, the principal component analysis to obtain the eigen basis vector of the covariance matrix of the average histogram (Va1) by the following equation (3), and then, The feature point is selected by constructing only three vectors with high variance among the eigenbased vectors of the covariance matrix by 4 and constructing the basis vector of the principal component space, and then converting them to points in the three-dimensional basis vector space by Equation 5 below. (P 1 ) is derived.

Figure 112008034835151-pat00004
Figure 112008034835151-pat00004

Figure 112008034835151-pat00005
Figure 112008034835151-pat00005

Figure 112008034835151-pat00006
Figure 112008034835151-pat00006

여기서 Pi 는 상기 평균히스토그램(Va1)을 의미한다.Where P i Denotes the average histogram Va1.

즉, 본 발명의 일 실시예에 따른 삼차원 인체 포즈 모델 생성 방법은 임의의 삼차원 포즈를 갖는 인체의 영상특징을 주성분분석 공간상의 하나의 특징점(P1)인 인체 포즈 모델로 제공할 수 있으며, 상기 인체 포즈 모델의 도출과정에서 계산되는 상기 각 실루엣 영상들(S1,S2,...,S8)의 각도 히스토그램(V1)은 카메라의 촬영 방향을 도출할 수 있는 자료로 활용될 수 있는 효과가 있다.That is, the method for generating a three-dimensional human body pose model according to an embodiment of the present invention may provide an image feature of a human body having an arbitrary three-dimensional pose as a human body pose model that is one feature point P 1 in the principal component analysis space. The angle histogram V1 of each of the silhouette images S1, S2,..., S8 calculated in the derivation process of the human body pose model may be used as a data for deriving a photographing direction of the camera. .

도 7 내지 도 8은 본 발명의 일 실시예에 따른 단일 카메라를 이용한 삼차원 인체 포즈 인식방법의 플로우차트이다.7 to 8 are flowcharts of a three-dimensional human body pose recognition method using a single camera according to an embodiment of the present invention.

이하에서는 도 1 내지 도 6의 구성요소와 동일한 구성요소에 대해서는 동일한 참조부호를 참조하고 설명을 생략하기로 한다.Hereinafter, the same reference numerals are used for the same components as those of FIGS. 1 to 6, and descriptions thereof will be omitted.

도면들을 참조하면 본 발명의 일 실시예에 따른 단일 카메라를 이용한 삼차 원 인체 포즈 인식방법은 먼저, 임의의 삼차원 포즈를 갖는 인체(10)인 기준대상을 서로 다른 방향에서 촬영하여 다수 개의 기준 이차원 포즈 영상(P1,P2,...P8)을 획득한다.Referring to the drawings, a three-dimensional human body pose recognition method using a single camera according to an embodiment of the present invention, first, a plurality of reference two-dimensional poses by photographing a reference object, which is a human body 10 having an arbitrary three-dimensional pose, from different directions. Acquire images P1, P2, ... P8.

또한, 상기 기준 이차원 포즈 영상들(P1,P2,...P8)은 다수 대의 카메라를 상기 기준대상을 향해 설치하고 상기 기준대상이 갖는 임의의 포즈에 대해 서로 다른 방향에서 촬영한 영상들이다.Also, the reference two-dimensional pose images P1, P2,..., P8 are images of a plurality of cameras installed toward the reference object and photographed in different directions with respect to an arbitrary pose of the reference object.

또한, 본 발명의 일 실시예에서는 상기 기준 이차원 포즈 영상들(P1,P2,...P8)은 상기 기준대상을 중심으로 8대의 카메라(20)를 45도로 이격시켜 설치하여 8장의 기준 이차원 포즈 영상들(P1,P2,...P8)로 획득하였다(S2000).In addition, in one embodiment of the present invention, the reference two-dimensional pose images P1, P2, ... P8 are eight reference two-dimensional poses of eight cameras 20 arranged 45 degrees apart from the reference object. The images P1, P2, ... P8 were acquired (S2000).

다음, 상기 기준 이차원 포즈 영상들(P1,P2,...P8) 각각의 실루엣 영상인 기준 실루엣 영상들(S1,S2,...,S3)을 추출하여, 상기 기준 실루엣 영상들(S1,S2,...,S3)에 기반하여 기준 포즈 모델(P1)을 생성한다(S2100).Next, the reference silhouette images S1, S2,..., S3 which are silhouette images of each of the reference two-dimensional pose images P1, P2,..., P8 are extracted, and the reference silhouette images S1, A reference pose model P 1 is generated based on S2,..., S3 (S2100).

한편, 상기 기준 포즈 모델(P1)은 도 8에서 보인 바와 같이 각 기준 이차원 포즈 영상(P1,P2,...P8)의 기준 실루엣 영상(S1,S2,...,S3)을 획득하고(S2110), 상기 각 기준 실루엣 영상(S1,S2,...,S3)의 컨벡스 헐 점을 추출한 후(S2120), 상기 컨벡스 헐 점들 사이의 각도 히스토그램값을 구하고(S2130), 다음, 상기 각도 히스토그램값들의 평균히스토그램을 도출하여(S2140), 상기 평균히스토그램을 주성분분석 공간에 투영함으로써(S2150) 생성된다(S2160).Meanwhile, as shown in FIG. 8, the reference pose model P 1 acquires reference silhouette images S1, S2,..., S3 of each reference two-dimensional pose image P1, P2,. After extracting the convex hull points of the respective reference silhouette images S1, S2, ..., S3 (S2120), an angle histogram value between the convex hull points is obtained (S2130), and then the angle is obtained. The average histogram of the histogram values is derived (S2140), and the average histogram is generated by projecting the average histogram into the principal component analysis space (S2150) (S2160).

또한, 상기 기준 포즈 모델(P1)은 본 발명의 일 실시예에 따른 삼차원 인체 포즈 모델 생성 방법에 의해 생성되는 특징점(P1)과 동일하므로 자세한 설명은 생략하기로 한다.In addition, since the reference pose model P 1 is the same as the feature point P 1 generated by the method for generating a three-dimensional human body pose model according to an embodiment of the present invention, a detailed description thereof will be omitted.

다음, 상기 기준 포즈 모델(P1)을 기준 포즈 모델 데이터 베이스(도시하지 않음)에 저장한다(S2200).Next, the reference pose model P 1 is stored in a reference pose model database (not shown) (S2200).

다음, 상기 단계들(S2000,S2100,S2200)을 반복하여 서로 다른 포즈를 갖는 기준대상들에 대해 각각의 포즈 모델들을 생성하여 상기 포즈 모델 데이터 베이스(도시하지 않음)에 저장한다(S2300).Next, the steps S2000, S2100, and S2200 are repeated to generate respective pose models for reference objects having different poses and store them in the pose model database (not shown) (S2300).

즉, 서로 다른 포즈를 갖는 인체(10)에 대해 각각의 특징정보인 기준 포즈 모델들을 생성하여 저장하는 것이다.That is, the reference pose models, which are respective feature information, are generated and stored for the human body 10 having different poses.

다음, 단일 카메라를 이용하여 임의의 방향에서 검출하고자 하는 인체인 검출대상을 촬영하여 검출 이차원 포즈 영상을 획득한다(S2400).Next, a detection two-dimensional pose image is acquired by photographing a detection target which is a human body to be detected in an arbitrary direction using a single camera (S2400).

다음, 상기 검출 이차원 포즈 영상의 실루엣 영상인 검출 실루엣 영상을 추출하고, 상기 검출 실루엣 영상에 기반하여 검출 포즈 모델을 생성한다(S2500).Next, a detection silhouette image which is a silhouette image of the detection two-dimensional pose image is extracted, and a detection pose model is generated based on the detection silhouette image (S2500).

또한, 상기 검출 포즈 모델을 생성하는 방법은 상기 기준 포즈 모델(P1)을 생성하는 방법과 동일하나, 상기 검출 포즈 모델은 하나의 검출 이차원 포즈 영상에서 도출되는 각도히스토그램 값만이 존재하므로 평균히스토그램을 도출할 필요가 없이 상기 검출 실루엣 영상의 각도히스토그램을 주성분분석 공간에 투영하여 상기 검출 포즈 모델이 생성된다는 점에서 차이가 있다.In addition, the method of generating the detection pose model is the same as the method of generating the reference pose model P 1 , but since the detection pose model has only the angular histogram value derived from one detection two-dimensional pose image, an average histogram is obtained. There is a difference in that the detection pose model is generated by projecting the angular histogram of the detection silhouette image into the principal component analysis space without deriving it.

다음, 상기 기준 포즈 모델 데이터베이스에 저장된 기준 포즈 모델들 중 상 기 검출 포즈 모델과 유사도가 가장 큰 기준 포즈 모델을 도출하여 상기 검출 대상의 삼차원 포즈를 상기 유사도가 가장 큰 기준 포즈 모델의 삼차원 포즈로 추정한다(S2600).Next, a reference pose model having the highest similarity with the detection pose model among the reference pose models stored in the reference pose model database is derived to estimate the three-dimensional pose of the detection target as the three-dimensional pose of the reference pose model with the highest similarity. (S2600).

또한, 상기 검출 포즈 모델과 상기 기준 포즈 모델의 유사도 비교는 유클라디안 거리 값으로 계산한다.In addition, the similarity comparison between the detection pose model and the reference pose model is calculated as a Eucladian distance value.

다음, 상기 도출된 유사도가 가장 큰 기준 포즈 모델의 실루엣 영상의 8개의 각도히스토그램 중 상기 검출 포즈 모델의 검출 실루엣 영상의 각도히스토그램과 가장 유사도가 큰 각도히스토그램을 도출하여 상기 검출대상을 촬영한 카메라의 촬영 방향을 추정한다.Next, among the eight angle histograms of the silhouette image of the reference pose model having the largest similarity, the angle histogram having the greatest similarity to the angle histogram of the detection silhouette image of the detection pose model is derived to determine the camera of the camera. Estimate the shooting direction.

즉, 상기 기준 포즈 모델 데이터베이스에 저장되는 기준 포즈 모델들을 이용하여 단일 카메라로 촬영한 인체의 삼차원 포즈를 추정할 수 있을 뿐만 아니라 상기 검출대상을 촬영방향까지 추정할 수 있다.That is, the reference pose models stored in the reference pose model database may be used to estimate the three-dimensional pose of the human body photographed by a single camera, and may also estimate the detection object to the photographing direction.

따라서, 단일 카메라를 이용하므로 종래의 다수 카메라를 사용하는 방법과 비교하여 제작비용이 작고 간단한 비교만으로 인체의 삼차원 포즈를 인식할 수 있고, 종래의 단일 카메라를 사용하는 방법과 비교하여서는 인체의 삼차원 포즈를 직접 얻을 수 있는 장점이 있다.Therefore, since a single camera is used, the manufacturing cost is small compared to the method using a plurality of conventional cameras, and the three-dimensional pose of the human body can be recognized by a simple comparison, and compared to the method using a conventional single camera, the three-dimensional pose of the human body There is an advantage that can be obtained directly.

이상에서, 본 발명의 구성 및 동작을 상기한 설명 및 도면에 따라 도시하였지만, 이는 예를 들어 설명한 것에 불과하며 본 발명의 기술적 사상 및 범위를 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능함은 물론이다.In the above, the configuration and operation of the present invention has been shown in accordance with the above description and drawings, but this is merely described, for example, and various changes and modifications are possible without departing from the spirit and scope of the present invention. .

도 1 내지 도 5는 본 발명의 일 실시예에 따른 삼차원 인체 포즈 모델 생성 방법을 설명하기 위한 도면, 1 to 5 are views for explaining a three-dimensional human body pose model generation method according to an embodiment of the present invention,

도 6은 본 발명의 일 실시예에 따른 삼차원 인체 포즈 모델 생성 방법의 플로우차트,6 is a flowchart of a method for generating a 3D human body pose model according to an embodiment of the present invention;

도 7 내지 도 8은 본 발명의 일 실시예에 따른 단일 카메라를 이용한 삼차원 인체 포즈 인식방법의 플로우차트이다.7 to 8 are flowcharts of a three-dimensional human body pose recognition method using a single camera according to an embodiment of the present invention.

본 발명에 따른 도면들에서 실질적으로 동일한 구성과 기능을 가진 구성요소들에 대하여는 동일한 참조부호를 사용한다.In the drawings according to the present invention, the same reference numerals are used for components having substantially the same configuration and function.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

10:인체 10a:인체 부분10: human body 10a: human body part

10b:배경 부분 20:카메라10b: background part 20: camera

P1,P2,P3,P4,P5,P6,P7,P8:이차원 포즈 영상P1, P2, P3, P4, P5, P6, P7, P8: Two-dimensional pose image

S1,S2,S3,S4,S5,S6,S7,S8:실루엣 영상S1, S2, S3, S4, S5, S6, S7, S8: Silhouette image

V1:각도히스토그램 Va1:평균히스토그램V1: Angle histogram Va1: Average histogram

P1:특징점P 1 : Features

Claims (8)

삭제delete 삭제delete 임의의 삼차원 포즈를 갖는 기준대상을 서로 다른 방향에서 촬영하여 다수 개의 기준 이차원 포즈 영상을 획득하는 제 1 단계;A first step of photographing a reference object having an arbitrary three-dimensional pose in different directions to obtain a plurality of reference two-dimensional pose images; 상기 각 기준 이차원 포즈 영상의 실루엣 영상인 기준 실루엣 영상을 추출하고, 상기 기준 실루엣 영상에 기반하여 상기 기준대상의 영상특징인 기준 포즈 모델을 생성하는 제 2 단계;Extracting a reference silhouette image which is a silhouette image of each reference two-dimensional pose image, and generating a reference pose model that is an image characteristic of the reference object based on the reference silhouette image; 상기 기준 포즈 모델을 기준 포즈 모델 데이터베이스에 저장하는 제 3 단계;Storing the reference pose model in a reference pose model database; 상기 제 1 단계 내지 제 3 단계를 반복하여 서로 다른 포즈를 갖는 기준대상들의 기준 포즈 모델들을 생성하여 상기 기준 포즈 모델 데이터베이스에 저장하는 제 4 단계;A fourth step of repeating the first to third steps to generate reference pose models of reference objects having different poses and store them in the reference pose model database; 단일 카메라를 이용하여 임의의 방향에서 검출대상을 촬영한 검출 이차원 포즈 영상을 획득하는 제 5 단계;A fifth step of acquiring a detection two-dimensional pose image of the detection object in an arbitrary direction using a single camera; 상기 검출 이차원 포즈 영상의 실루엣 영상인 검출 실루엣 영상을 추출하고, 상기 검출 실루엣 영상에 기반하여 상기 검출대상의 영상특징인 검출 포즈 모델을 생성하는 제 6 단계; 및Extracting a detection silhouette image which is a silhouette image of the detection two-dimensional pose image, and generating a detection pose model that is an image feature of the detection target based on the detection silhouette image; And 상기 기준 포즈 모델 데이터베이스에 저장된 기준 포즈 모델들 중 상기 검출 포즈 모델과 유사도가 가장 큰 기준 포즈 모델을 도출하여, 상기 도출된 유사도가 가장 큰 기준 포즈 모델을 상기 검출대상의 삼차원 포즈로 추정하는 제 7 단계;를 포함하고,A seventh model of estimating a reference pose model having the largest similarity with the detection pose model among the reference pose models stored in the reference pose model database, and estimating the derived reference pose model as the three-dimensional pose of the detection target; Comprising; 상기 제 2 단계의 기준 포즈 모델은,The reference pose model of the second step is 상기 각 기준 이차원 포즈 영상의 배경을 제거하여 상기 기준 실루엣 영상들을 추출하는 제 2-1 단계;Extracting the reference silhouette images by removing a background of each reference two-dimensional pose image; 상기 각 기준 실루엣 영상의 특징점들을 구하는 제 2-2 단계;A second step of obtaining feature points of each reference silhouette image; 상기 각 기준 실루엣 영상의 특징점들 사이의 각도히스토그램 값을 아래의 수학식 1에 의해 구하는 제 2-3 단계;A third step of obtaining an angle histogram value between feature points of each reference silhouette image by Equation 1 below; <수학식1><Equation 1>
Figure 112009067330686-pat00015
Figure 112009067330686-pat00015
(여기서 Histogramsi(i:1~8)는 각 기준 실루엣 영상의 각도히스토그램 값이고, featurej(j:1~N-2)는 각 기준 실루엣 영상의 임의의 특징점이다.)(Histogram si (i: 1 ~ 8) is the angle histogram value of each reference silhouette image, and feature j (j: 1 ~ N-2) is an arbitrary feature point of each reference silhouette image.) 상기 각 기준 실루엣 영상들의 각도히스토그램 값들을 평균하여 아래의 수학식 2에 의해 평균히스토그램을 구하는 제 2-4 단계; 및A second to fourth step of obtaining an average histogram by Equation 2 below by averaging the angle histogram values of the respective reference silhouette images; And <수학식2><Equation 2>
Figure 112009067330686-pat00016
Figure 112009067330686-pat00016
(여기서,
Figure 112009067330686-pat00017
(i:1~N)는 각 기준 실루엣 영상의 평균히스토그램 값이고, Histogramsi는 각 기준 실루엣 영상의 각도히드토그램 값들이다.)
(here,
Figure 112009067330686-pat00017
(i: 1 ~ N) is the average histogram value of each reference silhouette image, and Histogram si is the angle histogram value of each reference silhouette image.)
상기 평균히스토그램을 주성분분석(PCA:Principle Component Analysis) 공간에 투영하여 상기 기준 포즈 모델을 생성하는 제 2-5 단계;에 의해 생성되고,Generating the reference pose model by projecting the average histogram into a principal component analysis (PCA) space; 상기 제 6 단계의 검출 포즈 모델은,The detection pose model of the sixth step is 상기 검출 이차원 포즈 영상의 배경을 제거하여 상기 검출 실루엣 영상을 추출하는 제 6-1 단계;Extracting the detection silhouette image by removing a background of the detection two-dimensional pose image; 상기 검출 실루엣 영상의 특징점들을 구하는 제 6-2 단계;A sixth step of obtaining feature points of the detection silhouette image; 상기 검출 실루엣 영상의 특징점들 사이의 각도히스토그램 값을 아래의 수학식 3에 의해 구하는 제 6-3 단계; 및A sixth step of obtaining an angle histogram value between the feature points of the detection silhouette image by Equation 3 below; And <수학식3><Equation 3>
Figure 112009067330686-pat00018
Figure 112009067330686-pat00018
(여기서 Histograms는 상기 검출 실루엣 영상의 각도히스토그램 값이고, featurej(j:1~N-2)는 상기 검출 실루엣 영상의 임의의 특징점이다.)(Where Histogram s is an angle histogram value of the detection silhouette image, and feature j (j: 1 to N-2) is an arbitrary feature point of the detection silhouette image.) 상기 검출 실루엣 영상의 각도히스토그램을 주성분분석 공간에 투영하여 상기 검출 포즈 모델을 생성하는 제 6-4 단계;에 의해 생성되는 단일 카메라를 이용한 삼차원 인체 포즈 인식 방법.And generating a detection pose model by projecting the angular histogram of the detection silhouette image into a principal component analysis space.
제 3 항에 있어서,The method of claim 3, wherein 상기 제 7 단계 이후에 상기 기준 실루엣 영상들의 각도히스토그램 값 중 상기 검출 실루엣 영상의 각도히스토그램 값과 가장 유사도가 큰 각도히스토그램 값을 도출하여, After the seventh step, the angle histogram value having the greatest similarity to the angle histogram value of the detection silhouette image among the angle histogram values of the reference silhouette images is derived, 상기 도출된 가장 유사도가 큰 각도히스토그램 값의 계산 기반이 된 기준 이차원 포즈 영상의 촬영 방향을 상기 검출대상의 촬영 방향으로 추정하는 제 8 단계를 더 포함하는 것을 특징으로 하는 단일 카메라를 이용한 삼차원 인체 포즈 인식 방법.And an eighth step of estimating the photographing direction of the reference two-dimensional pose image, which is the basis for calculating the derived angle histogram value having the highest similarity, as the photographing direction of the detection target. Recognition method. 제 4 항에 있어서,The method of claim 4, wherein 상기 제 7 단계의 유사도는 유클라디안 거리 값으로 계산되는 것을 특징으로 하는 단일 카메라를 이용한 삼차원 인체 포즈 인식 방법.3D human body pose recognition method using a single camera, characterized in that the similarity of the seventh step is calculated by the Euclidean distance value. 제 4 항에 있어서,The method of claim 4, wherein 상기 제 8 단계의 유사도는 확산 거리(Diffusion distance) 값으로 계산되는 것을 특징으로 하는 단일 카메라를 이용한 삼차원 인체 포즈 인식 방법.The similarity of the eighth step is calculated as a diffusion distance value 3D human body pose recognition method using a single camera. 임의의 삼차원 포즈를 갖는 인체의 영상특징을 제공하기 위한 인체 포즈 모델을 생성하는 방법에 있어서,A method of generating a human body pose model for providing an image feature of a human body having an arbitrary three-dimensional pose, 임의의 삼차원 포즈를 갖는 인체를 서로 다른 방향에서 촬영하여 다수 개의 이차원 포즈 영상을 획득하는 제 1 단계;A first step of photographing a human body having an arbitrary three-dimensional pose in different directions to obtain a plurality of two-dimensional pose images; 상기 각 이차원 포즈 영상들의 배경을 제거한 실루엣 영상들을 획득하는 제 2 단계;A second step of obtaining silhouette images from which backgrounds of the two-dimensional pose images are removed; 상기 각 실루엣 영상의 특징점들을 구하는 제 3 단계;Obtaining feature points of each of the silhouette images; 상기 각 실루엣 영상의 특징점들 사이의 각도히스토그램을 아래의 수학식 4에 의해 구하는 제 4 단계; 및A fourth step of obtaining an angle histogram between the feature points of each silhouette image by Equation 4 below; And <수학식4><Equation 4>
Figure 112009067330686-pat00019
Figure 112009067330686-pat00019
(여기서 Histogramsi(i:1~8)는 각 기준 실루엣 영상의 각도히스토그램 값이고, featurej(j:1~N-2)는 임의의 특징점이다.)(Histogram si (i: 1 ~ 8) is the angle histogram value of each reference silhouette image, and feature j (j: 1 ~ N-2) is an arbitrary feature point.) 상기 각 실루엣 영상의 각도히스토그램들을 평균하여 평균히스토그램을 아래의 수학식 5에 의해 도출하는 제 5 단계;를 포함하며, And a fifth step of deriving an average histogram by Equation 5 below by averaging the angle histograms of the respective silhouette images. <수학식5><Equation 5>
Figure 112009067330686-pat00020
Figure 112009067330686-pat00020
(여기서,
Figure 112009067330686-pat00021
(i:1~N)는 실루엣 영상들의 평균히스토그램 값이고, Histogramsi는 각 실루엣 영상의 각도히드토그램 값들이다.)
(here,
Figure 112009067330686-pat00021
(i: 1 ~ N) are average histogram values of silhouette images, and histogram si is angle histogram values of each silhouette image.)
상기 평균히스토그램을 상기 인체 포즈 모델로 생성하는 것을 특징으로 하는 삼차원 인체 포즈 모델 생성 방법.And generating the average histogram as the human body pose model.
제 7 항에 있어서 The method of claim 7, 상기 제 5 단계 이후에 상기 평균히스토그램을 주성분분석 공간에 투영하여 주성분분석 공간상의 특징점으로 변환하는 제 6 단계를 더 포함하며, 상기 주성분분석 공간상의 특징점을 상기 인체 포즈 모델로 생성하는 것을 특징으로 하는 삼차원 인체 포즈 모델 생성 방법.And after the fifth step, converting the average histogram into a principal component analysis space and converting the mean histogram into a characteristic point in the principal component analysis space, wherein the characteristic point in the principal component analysis space is generated as the human body pose model. How to create a 3D human body pose model.
KR1020080045490A 2008-05-16 2008-05-16 3D Human Body Pose Recognition Using Single Camera KR100933957B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080045490A KR100933957B1 (en) 2008-05-16 2008-05-16 3D Human Body Pose Recognition Using Single Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080045490A KR100933957B1 (en) 2008-05-16 2008-05-16 3D Human Body Pose Recognition Using Single Camera

Publications (2)

Publication Number Publication Date
KR20090119442A KR20090119442A (en) 2009-11-19
KR100933957B1 true KR100933957B1 (en) 2009-12-28

Family

ID=41603144

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080045490A KR100933957B1 (en) 2008-05-16 2008-05-16 3D Human Body Pose Recognition Using Single Camera

Country Status (1)

Country Link
KR (1) KR100933957B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220081102A (en) 2020-12-08 2022-06-15 (주)셀빅 Human pose extraction method using data interpolation through filtering 3d human pose extraction data based on real time camera image

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201118791A (en) * 2009-11-27 2011-06-01 Inst Information Industry System and method for obtaining camera parameters from a plurality of images, and computer program products thereof
KR101815975B1 (en) 2011-07-27 2018-01-09 삼성전자주식회사 Apparatus and Method for Detecting Object Pose
US9349207B2 (en) 2012-05-31 2016-05-24 Samsung Electronics Co., Ltd. Apparatus and method for parsing human body image
US10360718B2 (en) 2015-08-14 2019-07-23 Samsung Electronics Co., Ltd. Method and apparatus for constructing three dimensional model of object
CN112329719B (en) * 2020-11-25 2021-10-15 江苏云从曦和人工智能有限公司 Behavior recognition method, behavior recognition device and computer-readable storage medium
CN112885164A (en) * 2021-02-01 2021-06-01 黄华 Visual intelligent interactive teaching and examination system and method by utilizing augmented reality wearing equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050027796A (en) * 2003-09-16 2005-03-21 한국과학기술원 Method for recognizing and tracking an object
KR100808543B1 (en) 2006-09-15 2008-02-29 한국과학기술연구원 Apparatus and method for acquiring man movement information using stereo vision sensor
KR20080051007A (en) * 2006-12-04 2008-06-10 한국전자통신연구원 Method of face modeling and animation from a single video stream

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050027796A (en) * 2003-09-16 2005-03-21 한국과학기술원 Method for recognizing and tracking an object
KR100808543B1 (en) 2006-09-15 2008-02-29 한국과학기술연구원 Apparatus and method for acquiring man movement information using stereo vision sensor
KR20080051007A (en) * 2006-12-04 2008-06-10 한국전자통신연구원 Method of face modeling and animation from a single video stream

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문:한국정보과학회

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220081102A (en) 2020-12-08 2022-06-15 (주)셀빅 Human pose extraction method using data interpolation through filtering 3d human pose extraction data based on real time camera image

Also Published As

Publication number Publication date
KR20090119442A (en) 2009-11-19

Similar Documents

Publication Publication Date Title
KR100933957B1 (en) 3D Human Body Pose Recognition Using Single Camera
JP4653606B2 (en) Image recognition apparatus, method and program
US9053388B2 (en) Image processing apparatus and method, and computer-readable storage medium
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
US8086027B2 (en) Image processing apparatus and method
JP4556873B2 (en) Image collation system and image collation method
US9665803B2 (en) Image processing apparatus and image processing method
JP2010176380A (en) Information processing device and method, program, and recording medium
Hesse et al. Multi-view facial expression recognition using local appearance features
JP4951498B2 (en) Face image recognition device, face image recognition method, face image recognition program, and recording medium recording the program
JP5631086B2 (en) Information processing apparatus, control method therefor, and program
JP2007310707A (en) Apparatus and method for estimating posture
JP5772825B2 (en) Image processing learning apparatus, image processing learning method, and image processing learning program
JP2012059030A (en) Human body identification method and human body identification apparatus using range image camera
JP2016099982A (en) Behavior recognition device, behaviour learning device, method, and program
KR101558547B1 (en) Age Cognition Method that is powerful to change of Face Pose and System thereof
KR101478709B1 (en) Method and apparatus for extracting and generating feature point and feature descriptor rgb-d image
KR102110459B1 (en) Method and apparatus for generating three dimension image
JP6429466B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and program
JP6905390B2 (en) Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program
JP2017097578A (en) Information processing apparatus and method
JP3577908B2 (en) Face image recognition system
JP2010231350A (en) Person identifying apparatus, its program, and its method
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
WO2019230965A1 (en) Object likelihood estimation device, method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121210

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131108

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20141114

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee