KR20220023553A - Apparatus and Method for Estimating Human Pose - Google Patents
Apparatus and Method for Estimating Human Pose Download PDFInfo
- Publication number
- KR20220023553A KR20220023553A KR1020200105426A KR20200105426A KR20220023553A KR 20220023553 A KR20220023553 A KR 20220023553A KR 1020200105426 A KR1020200105426 A KR 1020200105426A KR 20200105426 A KR20200105426 A KR 20200105426A KR 20220023553 A KR20220023553 A KR 20220023553A
- Authority
- KR
- South Korea
- Prior art keywords
- posture
- posture estimation
- estimating
- image
- pose
- Prior art date
Links
- 238000000034 method Methods 0.000 title abstract description 12
- 230000036544 posture Effects 0.000 description 101
- 238000010586 diagram Methods 0.000 description 11
- 210000004197 pelvis Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
기재된 실시예는 영상에 포함된 사람의 자세를 추정하는 기술에 관한 것이다. The described embodiment relates to a technique for estimating a posture of a person included in an image.
통상적인 영상 기반 휴먼 자세 추정을 위해 학습되는 모델은 사람 영상을 입력받아 사람의 각 바디 파트, 예컨대, 코, 목, 팔꿈치, 손목의 위치를 추정하도록 학습된다. A model trained for estimating a typical image-based human posture is trained to receive a human image and estimate the position of each body part of a person, for example, a nose, a neck, an elbow, and a wrist.
그런데, 자세 추정 모델의 인식 결과는 학습 데이터의 특성에 의존적이게 된다. 만약 자세 추정 모델이 똑바로 서 있는 사람의 영상만이 존재하는 학습 데이터로 학습될 경우, 서 있는 사람에 대한 인식률을 높을 수 있어도 누워 있거나 앉아 있는 자세의 영상에 대해서는 인식률이 낮을 수 있다. However, the recognition result of the posture estimation model is dependent on the characteristics of the learning data. If the posture estimation model is trained with training data in which only images of a person standing upright exist, the recognition rate for a standing person may be high, but a recognition rate for an image of a lying or sitting posture may be low.
즉, 학습 기반의 자세 추정 모델은 학습에 사용하는 데이터의 분포에 영향을 받게 되므로 학습 데이터에 다수 포함되는 일반적인 자세는 인식률이 높으나, 학습 데이터에 소수만 존재하는 특수한 자세에 대해서는 그 인식률이 낮을 수 있다. In other words, since the learning-based posture estimation model is affected by the distribution of data used for learning, the recognition rate of general postures included in a large number of learning data is high, but the recognition rate may be low for special postures where only a few exist in the learning data. .
기재된 실시예는 영상에 포함된 사람이 취하는 특수한 자세도 정확히 인식할 수 있도록 하는데 그 목적이 있다. The purpose of the described embodiment is to accurately recognize a special posture taken by a person included in an image.
실시예에 따른 휴먼 자세 추정 장치는, 적어도 하나의 프로그램 및 복수의 자세 추정 모델들이 기록된 메모리 및 프로그램을 실행하는 프로세서를 포함하며, 프로그램은, 입력 영상에서 샘플 영상을 추출하는 단계, 추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계, 복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계 및 선택된 자세 추정 모델로 입력 영상의 자세를 추정하는 단계를 수행하되, 복수의 자세 추정 모델들 각각은, 각각 상이한 조건에서 촬영된 영상 데이터 셋에 의해 미리 훈련된 것일 수 있다. An apparatus for estimating human posture according to an embodiment includes a memory in which at least one program and a plurality of posture estimation models are recorded, and a processor executing the program, the program comprising: extracting a sample image from an input image; Estimating a posture by inputting an image to each of the plurality of posture estimation models, selecting one posture estimation model based on joint position confidence of the posture estimated by each of the plurality of posture estimation models, and The step of estimating the posture of the input image with the posture estimation model is performed, and each of the plurality of posture estimation models may be pre-trained by image data sets captured under different conditions.
실시예에 따라, 영상에 포함된 사람이 취하는 특수한 자세도 정확히 인식할 수 있도록 하는데 그 목적이 있다. According to an embodiment, the purpose is to accurately recognize a special posture taken by a person included in an image.
도 1은 실시예에 따른 휴먼 자세 추정 장치를 설명하기 위한 도면이다.
도 2는 실시예에 따른 복수의 자세 추정 모델들을 설명하기 위한 도면이다.
도 3은 실시예에 따른 휴먼 자세 추정 방법을 설명하기 위한 순서도이다.
도 4는 실시예에 따른 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면의 예시도이다.
도 5는 실시예에 따른 자세 추정 모델 선택을 설명하기 위한 예시도이다.
도 6은 실시예에 따른 샘플 영상 추출 단계를 설명하기 위한 도면이다.
도 7은 실시예에 따른 컴퓨터 시스템 구성을 나타낸 도면이다.1 is a diagram for explaining an apparatus for estimating a human posture according to an embodiment.
2 is a diagram for describing a plurality of posture estimation models according to an embodiment.
3 is a flowchart illustrating a method for estimating a human posture according to an embodiment.
4 is an exemplary diagram of a recognition result output screen for each posture estimation model with respect to a sample image according to an embodiment.
5 is an exemplary diagram for explaining selection of a posture estimation model according to an embodiment.
6 is a diagram for explaining a step of extracting a sample image according to an embodiment.
7 is a diagram showing the configuration of a computer system according to an embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.
비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있다.Although "first" or "second" is used to describe various elements, these elements are not limited by the above terms. Such terms may only be used to distinguish one component from another. Accordingly, the first component mentioned below may be the second component within the spirit of the present invention.
본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.The terminology used herein is for the purpose of describing the embodiment and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” or “comprising” implies that the stated component or step does not exclude the presence or addition of one or more other components or steps.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used herein may be interpreted with meanings commonly understood by those of ordinary skill in the art to which the present invention pertains. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.
이하에서는, 도 1 내지 도 7을 참조하여 실시예에 따른 휴먼 자세 추정 장치 및 방법이 상세히 설명된다.Hereinafter, an apparatus and method for estimating a human posture according to an embodiment will be described in detail with reference to FIGS. 1 to 7 .
도 1은 실시예에 따른 휴먼 자세 추정 장치를 설명하기 위한 도면이고, 도 2는 실시예에 따른 복수의 자세 추정 모델들을 설명하기 위한 도면이다. FIG. 1 is a diagram for explaining an apparatus for estimating a human posture according to an embodiment, and FIG. 2 is a diagram for explaining a plurality of posture estimation models according to the embodiment.
도 1을 참조하면, 실시예에 따른 휴먼 자세 추정 장치(1)는, 사람의 영상을 입력받아 사람의 관절 위치를 추정하는 것일 수 있다. 이를 위해, 휴먼 자세 추정 장치(1)는 사람의 영상 및 사람의 영상의 관절 위치를 정답값으로 하여 미리 학습된 휴먼 자세 추정 모델을 기반으로 사람의 관절 위치를 추정할 수 있다. Referring to FIG. 1 , an
이때, 실시예에 따라 휴먼 자세 추정 장치(1)는, 도 2에 도시된 바와 같이, 미리 학습된 복수의 자세 추정 모델들(10)을 포함할 수 있다. In this case, according to an embodiment, the human
도 2를 참조하면, 자세 추정 모델들(10) 각각은 다수의 (영상, 관절 위치) 쌍으로 이루어진 데이터 셋을 이용하여, 입력된 영상이 쌍을 이루는 관절 위치를 추정하도록 신경망(Neural Network)의 가중치를 역전파 방식으로 업데이트하면서 학습된다. Referring to FIG. 2 , each of the
이때, 실시예에 따라, 복수의 자세 추정 모델들(10) 각각은 서로 상이한 특성을 가지는 데이터 셋들(20)에 의해 학습될 수 있다. In this case, according to an embodiment, each of the plurality of
이때, 서로 상이한 데이터셋들(20)은 휴먼 자세 뿐만 아니라 촬영 환경에 의해서도 구별될 수 있다. In this case, the
예컨대, 데이터셋 1은 요가 자세에 대한 영상의 분포 비율이 클 수 있고, 데이터셋 2는 사람을 위에서 촬영한 영상의 분포 비율이 클 수 있고, 데이터셋 3은 저조도 환경에서 촬영된 영상의 분포 비율이 클 수 있다. For example,
따라서, 데이터 셋 1으로 학습된 자세 추정 모델 1은 요가 자세에 대한 자세 인식률이 높을 수 있고, 데이터 셋 2로 학습된 자세 추정 모델 2는 위에서 촬영한 영상에 대한 사람의 자세 인식률이 높을 수 있고, 데이터 셋 3으로 학습된 자세 추정 모델 3는 저조도 환경의 영상에 대한 인식률이 높을 수 있다. Therefore, the
따라서, 실시예에 따른 휴먼 자세 추정 장치(10)는 복수의 자세 추정 모델들(10) 중 인식 대상 영상이 촬영된 환경 조건에 가장 적합한 자세 추정 모델을 선별하여 인식 대상 영상에서의 사람의 자세를 추정해낸다. 이로써, 일반적이지 않은 특수한 자세에 대해서도 정확히 인식해낼 수 있다. Accordingly, the human
그러면, 휴먼 자세 추정 장치(10)에 의한 휴먼 자세 추정 방법에 대해 도 3 내지 도 6을 참조하여 상세히 설명하기로 한다. Then, a method for estimating a human posture by the human
도 3은 실시예에 따른 휴먼 자세 추정 방법을 설명하기 위한 순서도이고, 도 4는 실시예에 따른 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면의 예시도이고, 도 5는 실시예에 따른 자세 추정 모델 선택을 설명하기 위한 예시도이고, 도 6은 실시예에 따른 샘플 영상 추출 단계를 설명하기 위한 도면이다. 3 is a flowchart for explaining a human posture estimation method according to an embodiment, FIG. 4 is an exemplary view of a recognition result output screen for each posture estimation model for a sample image according to an embodiment, and FIG. 5 is a posture according to the embodiment It is an exemplary diagram for explaining selection of an estimation model, and FIG. 6 is a diagram for explaining a step of extracting a sample image according to an embodiment.
도 3을 참조하면, 실시예에 따른 휴먼 자세 추정 방법은 입력 영상에서 샘플 영상을 추출하는 단계(S110), 추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계(S120), 복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계(S130) 및 선택된 자세 추정 모델로 입력 영상의 자세를 추정하는 단계(S140)를 수행할 수 있다. Referring to FIG. 3 , the human posture estimation method according to the embodiment includes extracting a sample image from an input image ( S110 ), and estimating the posture by inputting the extracted sample image to each of a plurality of posture estimation models ( S120 ). ), selecting one posture estimation model based on the joint position confidence of the posture estimated by each of the plurality of posture estimation models (S130) and estimating the posture of the input image with the selected posture estimation model ( S140) may be performed.
실시예에 따른 입력 영상에서 샘플 영상을 추출하는 단계(S110)에서, 입력 영상으로부터 M개의 샘플 영상을 추출한다. In the step of extracting the sample image from the input image according to the embodiment ( S110 ), M sample images are extracted from the input image.
이때, 입력 영상은, 사용자로부터 자세 추정 기술을 사용하고자 하는 환경에서 촬영된 영상 또는 유사한 환경의 영상일 수 있다. 이때, M은 적어도 하나 이상일 수 있고, 소정 주기로 추출된 것일 수 있다. In this case, the input image may be an image captured in an environment in which the user intends to use the posture estimation technique or an image in a similar environment. In this case, M may be at least one or more, and may be extracted at a predetermined period.
실시예에 따른 자세를 추정하는 단계(S120)에서, 추출된 M개의 샘플 영상들 을 N개의 자세 추정 모델들(20) 각각에 입력하여, M개의 영상들 에 각각에 대한 자세를 추정한다(S120).In the step of estimating the posture (S120) according to the embodiment, the extracted M sample images is input to each of the N
이때, M 개의 샘플 영상들 중에서 i 번째 영상 에 대해서 N개의 자세 추정 모델들 중 j번째 자세 추정 모델 로 추정된 자세 는 다음의 <수학식 1>과 같이 표현될 수 있다. In this case, the i-th image among M sample images The j-th posture estimation model among the N posture estimation models for posture presumed to be can be expressed as in the following <
이때, 자세 는 다음의 <수학식 2>와 같이 K개 관절들 각각의 위치, 좌표 (x, y)와 신뢰도(confidence)로 이루질 수 있다. 이때, 신뢰도(confidence)는 관절 위치 추정의 정확도이다At this time, posture may be composed of the position, coordinates (x, y) and confidence of each of the K joints as shown in Equation 2 below. In this case, confidence is the accuracy of joint position estimation.
실시예에 따른 자세 추정 모델을 선택하는 단계(S130)에서, S120에 의한 자세 추정 결과를 기반으로 최적의 자세 추정 모델을 선택하는데, 다음의 두 가지 실시예들이 있을 수 있다. In the step of selecting the posture estimation model according to the embodiment ( S130 ), an optimal posture estimation model is selected based on the result of the posture estimation by S120 , and there may be two embodiments below.
일 실시예에 따라, 휴먼 자세 추정 장치(1)는, S120에서 산출된 신뢰도(confidence) 값을 기반으로 자세 추정 모델들(20) 중 하나를 자동 선택할 수 있다(S131). According to an embodiment, the human
즉, 휴먼 자세 추정 장치(1)는, <수학식 3>과 같이 자세 추정 모델들 별 신뢰도(confidence)의 총합을 산출하고, <수학식 4>와 같이 신뢰도 총합이 최 상위인 자세 추정 모델을 선택한다. That is, the human
다른 실시예에 따라, 휴먼 자세 추정 장치(1)는, 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면을 생성하여 디스플레인 한 후, 사용자로부터 자세 추정 모델을 선택받을 수 있다(S133~S135). According to another embodiment, the human
예컨대, 도 4를 참조하면, 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면에는 샘플 영상에 대한 자세 추정 모델들 각각의 관절 위치 추정 결과가 표시될 수 있다. 도 4에서 각 모델들의 관절 위치 추정 결과는 상이한데, 모델 1이 추정한 팔꿈치(401a)와 모델 2가 추정한 팔꿈치(401b)가 상이한 추정 결과를 나타냄을 알 수 있다. 또한, 모델 4가 추정한 골반(402a)와 모델 6이 추정한 골반(402b)이 상이한 추정 결과를 나타낼 수 있다. For example, referring to FIG. 4 , the joint position estimation result of each of the posture estimation models for the sample image may be displayed on the recognition result output screen for each posture estimation model for the sample image. In FIG. 4 , the joint position estimation results of each model are different, and it can be seen that the
이때, 휴먼 자세 추정 장치(1)는, 화면에 출력되는 자세 추정 모델들을 를 기준으로 정렬하여 출력할 수 있다(S133). At this time, the human
그러면, 사용자는 디스플레이된 자세 추정 모델들 각각의 인식 결과를 확인한 후, 하나의 자세 추정 모델을 선택할 수 있게 된다(S135). Then, after checking the recognition result of each of the displayed posture estimation models, the user can select one posture estimation model ( S135 ).
전술한 바와 같이 최적의 자세 추정 모델이 선택되면, 휴먼 자세 추정 장치(1)는, 입력된 영상을 선택된 자세 추정 모델에만 입력시켜 자세 추정 결과를 얻는다(S140). 즉, 도 5에 도시된 바와 같이, 입력 영상을 선택된 자세 추정 모델(11)에 입력시켜 자세 추정 결과를 획득한다. When the optimal posture estimation model is selected as described above, the human
한편, 전술한 바와 같이 초기에 최적의 자세 추정 모델을 선택되더라도 시간이 경과됨에 따라, 입력 영상의 촬영 환경이 변화될 수 있다. 예컨대, 영상이 실내에서 촬영되다가 그 촬영 장소가 실외로 이동될 수 있다. 이럴 경우, 실내 조도에 촬영된 영상에 적합한 자세 추정 모델은 실외 조도에서 촬영된 영상에 대해서는 정확히 인식하지 못할 수 있다. 따라서, 실시예에 따른 휴먼 자세 추정 방법은 자세 추정 모델을 재선택하는 단계를 더 포함할 수 있다. Meanwhile, as described above, even if the optimal posture estimation model is initially selected, as time passes, the capturing environment of the input image may change. For example, an image may be captured indoors, and then the filming location may be moved outdoors. In this case, a posture estimation model suitable for an image captured in indoor illuminance may not accurately recognize an image captured in outdoor illuminance. Accordingly, the human posture estimation method according to the embodiment may further include reselecting the posture estimation model.
즉, 도 3을 참조하면, 휴먼 자세 추정 장치(1)는, 주기가 도래하는지를 판단한다(S150). That is, referring to FIG. 3 , the human
이때, 주기 T는 도 6에 도시된 바와 같이 일정할 수도 있으나, 설정에 따라 무작위로 설정될 수도 있다. In this case, the period T may be constant as shown in FIG. 6 or may be set randomly according to settings.
휴먼 자세 추정 장치(1)는, 주기가 도래하고, 영상 추정이 완료되지 않았을 경우(S160), S110 내지 S140을 재수행한다. 이때, 초기에 무작위로 샘플 영상들이 추출되어 저장되어 있는 경우, 입력 영상에서 샘플 영상을 추출하는 단계(110)의 반복은 생략될 수 있다. The human
도 7은 실시예에 따른 컴퓨터 시스템 구성을 나타낸 도면이다.7 is a diagram showing the configuration of a computer system according to an embodiment.
실시예에 따른 휴먼 자세 추정 장치는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1000)에서 구현될 수 있다.The apparatus for estimating human posture according to the embodiment may be implemented in the
컴퓨터 시스템(1000)은 버스(1020)를 통하여 서로 통신하는 하나 이상의 프로세서(1010), 메모리(1030), 사용자 인터페이스 입력 장치(1040), 사용자 인터페이스 출력 장치(1050) 및 스토리지(1060)를 포함할 수 있다. 또한, 컴퓨터 시스템(1000)은 네트워크(1080)에 연결되는 네트워크 인터페이스(1070)를 더 포함할 수 있다. 프로세서(1010)는 중앙 처리 장치 또는 메모리(1030)나 스토리지(1060)에 저장된 프로그램 또는 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1030) 및 스토리지(1060)는 휘발성 매체, 비휘발성 매체, 분리형 매체, 비분리형 매체, 통신 매체, 또는 정보 전달 매체 중에서 적어도 하나 이상을 포함하는 저장 매체일 수 있다. 예를 들어, 메모리(1030)는 ROM(1031)이나 RAM(1032)을 포함할 수 있다.
이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described with reference to the accompanying drawings in the above, those of ordinary skill in the art to which the present invention pertains can implement the present invention in other specific forms without changing the technical spirit or essential features. You can understand that there is Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.
1 : 휴먼 자세 추정 장치
10 : 자세 추정 모델들1: Human posture estimation device
10: Posture estimation models
Claims (1)
프로그램을 실행하는 프로세서를 포함하며,
프로그램은,
입력 영상에서 샘플 영상을 추출하는 단계;
추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계;
복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계; 및
선택된 자세 추정 모델로 입력 영상의 자세를 추정하는 단계를 포함하되,
복수의 자세 추정 모델들 각각은,
각각 상이한 조건에서 촬영된 영상 데이터 셋에 의해 미리 훈련된 것인, 휴먼 자세 추정 장치.a memory in which at least one program and a plurality of posture estimation models are recorded; and
including a processor executing a program;
program,
extracting a sample image from the input image;
estimating the posture by inputting the extracted sample image to each of the plurality of posture estimation models;
selecting one posture estimation model based on joint position confidence of the posture estimated by each of the plurality of posture estimation models; and
Including the step of estimating the posture of the input image with the selected posture estimation model,
Each of the plurality of posture estimation models,
A human posture estimating device that is pre-trained by image data sets taken under different conditions, respectively.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200105426A KR102591325B1 (en) | 2020-08-21 | 2020-08-21 | Apparatus and Method for Estimating Human Pose |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200105426A KR102591325B1 (en) | 2020-08-21 | 2020-08-21 | Apparatus and Method for Estimating Human Pose |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220023553A true KR20220023553A (en) | 2022-03-02 |
KR102591325B1 KR102591325B1 (en) | 2023-10-20 |
Family
ID=80815570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200105426A KR102591325B1 (en) | 2020-08-21 | 2020-08-21 | Apparatus and Method for Estimating Human Pose |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102591325B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140095601A (en) * | 2013-01-18 | 2014-08-04 | 삼성전자주식회사 | Pose classification apparatus and pose classification method |
KR20140142037A (en) * | 2013-06-03 | 2014-12-11 | 삼성전자주식회사 | Method and apparatus for estimating pose |
KR101758064B1 (en) * | 2013-06-05 | 2017-07-14 | 삼성전자주식회사 | Estimator learning method and pose estimation mehtod using a depth image |
JP2019087229A (en) * | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | Information processing device, control method of information processing device and program |
JP2019219989A (en) * | 2018-06-21 | 2019-12-26 | 日本電信電話株式会社 | Posture estimation device, posture estimation method, and program |
-
2020
- 2020-08-21 KR KR1020200105426A patent/KR102591325B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140095601A (en) * | 2013-01-18 | 2014-08-04 | 삼성전자주식회사 | Pose classification apparatus and pose classification method |
KR20140142037A (en) * | 2013-06-03 | 2014-12-11 | 삼성전자주식회사 | Method and apparatus for estimating pose |
KR101758064B1 (en) * | 2013-06-05 | 2017-07-14 | 삼성전자주식회사 | Estimator learning method and pose estimation mehtod using a depth image |
JP2019087229A (en) * | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | Information processing device, control method of information processing device and program |
JP2019219989A (en) * | 2018-06-21 | 2019-12-26 | 日本電信電話株式会社 | Posture estimation device, posture estimation method, and program |
Also Published As
Publication number | Publication date |
---|---|
KR102591325B1 (en) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110941990A (en) | Method and device for evaluating human body actions based on skeleton key points | |
CN109101865A (en) | A kind of recognition methods again of the pedestrian based on deep learning | |
KR101872635B1 (en) | Automatic make-up evaluation system and operating method thereof | |
WO2021217848A1 (en) | Human body falling detection method and apparatus, and computer device and storage medium | |
CN110490109B (en) | Monocular vision-based online human body rehabilitation action recognition method | |
CN111191599A (en) | Gesture recognition method, device, equipment and storage medium | |
WO2019114726A1 (en) | Image recognition method and device, electronic apparatus, and readable storage medium | |
CN110263768A (en) | A kind of face identification method based on depth residual error network | |
CN110717392B (en) | Sitting posture detection and correction method and device | |
JP7422456B2 (en) | Image processing device, image processing method and program | |
CN110688929A (en) | Human skeleton joint point positioning method and device | |
CN109117753A (en) | Position recognition methods, device, terminal and storage medium | |
CN112597814A (en) | Improved Openpos classroom multi-person abnormal behavior and mask wearing detection method | |
CN110147833A (en) | Facial image processing method, apparatus, system and readable storage medium storing program for executing | |
CN112200138B (en) | Classroom learning situation analysis method based on computer vision | |
CN113920326A (en) | Tumble behavior identification method based on human skeleton key point detection | |
US8817125B2 (en) | Gesture recognition using chroma-keying | |
CN113239220A (en) | Image recommendation method and device, terminal and readable storage medium | |
Goyal et al. | Yoga pose perfection using deep learning: An algorithm to estimate the error in yogic poses | |
CN112329571B (en) | Self-adaptive human body posture optimization method based on posture quality evaluation | |
CN109986553B (en) | Active interaction robot, system, method and storage device | |
CN109993116A (en) | A kind of pedestrian mutually learnt based on skeleton recognition methods again | |
KR102591325B1 (en) | Apparatus and Method for Estimating Human Pose | |
Zhou et al. | Pose comparison based on part affinity fields | |
CN114092863A (en) | Human body motion evaluation method for multi-view video image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |