KR102591325B1 - Apparatus and Method for Estimating Human Pose - Google Patents
Apparatus and Method for Estimating Human Pose Download PDFInfo
- Publication number
- KR102591325B1 KR102591325B1 KR1020200105426A KR20200105426A KR102591325B1 KR 102591325 B1 KR102591325 B1 KR 102591325B1 KR 1020200105426 A KR1020200105426 A KR 1020200105426A KR 20200105426 A KR20200105426 A KR 20200105426A KR 102591325 B1 KR102591325 B1 KR 102591325B1
- Authority
- KR
- South Korea
- Prior art keywords
- posture estimation
- posture
- estimation model
- models
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 230000036544 posture Effects 0.000 description 87
- 238000010586 diagram Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 210000004197 pelvis Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
휴먼 자세 추정 장치 및 방법이 개시된다. 본 발명의 실시예에 따른 실시예에 따른 휴먼 자세 추정 장치는, 적어도 하나의 프로그램 및 복수의 자세 추정 모델들이 기록된 메모리 및 프로그램을 실행하는 프로세서를 포함하며, 프로그램은, 입력 영상에서 샘플 영상을 추출하는 단계, 추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계, 복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계 및 선택된 자세 추정 모델로 입력 영상의 자세를 추정하는 단계를 수행하되, 복수의 자세 추정 모델들 각각은, 각각 상이한 조건에서 촬영된 영상 데이터 셋에 의해 미리 훈련된 것일 수 있다. An apparatus and method for estimating human posture are disclosed. A human posture estimation device according to an embodiment of the present invention includes a memory in which at least one program and a plurality of posture estimation models are recorded, and a processor that executes the program, and the program selects a sample image from an input image. Extracting, estimating the posture by inputting the extracted sample image into each of a plurality of posture estimation models, estimating a posture based on the joint position confidence of the posture estimated by each of the plurality of posture estimation models. A step of selecting a model and a step of estimating the pose of the input image using the selected pose estimation model are performed, and each of the plurality of pose estimation models may be trained in advance using image data sets captured under different conditions.
Description
기재된 실시예는 영상에 포함된 사람의 자세를 추정하는 기술에 관한 것이다. The described embodiment relates to technology for estimating the posture of a person included in an image.
통상적인 영상 기반 휴먼 자세 추정을 위해 학습되는 모델은 사람 영상을 입력받아 사람의 각 바디 파트, 예컨대, 코, 목, 팔꿈치, 손목의 위치를 추정하도록 학습된다. A model learned for typical image-based human posture estimation receives human images as input and is trained to estimate the positions of each human body part, such as the nose, neck, elbow, and wrist.
그런데, 자세 추정 모델의 인식 결과는 학습 데이터의 특성에 의존적이게 된다. 만약 자세 추정 모델이 똑바로 서 있는 사람의 영상만이 존재하는 학습 데이터로 학습될 경우, 서 있는 사람에 대한 인식률을 높을 수 있어도 누워 있거나 앉아 있는 자세의 영상에 대해서는 인식률이 낮을 수 있다. However, the recognition result of the posture estimation model is dependent on the characteristics of the learning data. If the posture estimation model is learned with training data that contains only images of people standing upright, the recognition rate may be high for standing people, but the recognition rate may be low for images of lying or sitting postures.
즉, 학습 기반의 자세 추정 모델은 학습에 사용하는 데이터의 분포에 영향을 받게 되므로 학습 데이터에 다수 포함되는 일반적인 자세는 인식률이 높으나, 학습 데이터에 소수만 존재하는 특수한 자세에 대해서는 그 인식률이 낮을 수 있다. In other words, the learning-based posture estimation model is affected by the distribution of data used for learning, so the recognition rate is high for general postures that are included in the learning data, but the recognition rate may be low for special postures that only exist in a small number in the learning data. .
기재된 실시예는 영상에 포함된 사람이 취하는 특수한 자세도 정확히 인식할 수 있도록 하는데 그 목적이 있다. The purpose of the described embodiment is to enable accurate recognition of special postures taken by people included in the video.
실시예에 따른 휴먼 자세 추정 장치는, 적어도 하나의 프로그램 및 복수의 자세 추정 모델들이 기록된 메모리 및 프로그램을 실행하는 프로세서를 포함하며, 프로그램은, 입력 영상에서 샘플 영상을 추출하는 단계, 추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계, 복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계 및 선택된 자세 추정 모델로 입력 영상의 자세를 추정하는 단계를 수행하되, 복수의 자세 추정 모델들 각각은, 각각 상이한 조건에서 촬영된 영상 데이터 셋에 의해 미리 훈련된 것일 수 있다. A human posture estimation device according to an embodiment includes a memory in which at least one program and a plurality of posture estimation models are recorded, and a processor for executing the program, the program comprising: extracting a sample image from an input image, the extracted sample Estimating the posture by inputting an image into each of a plurality of posture estimation models, selecting one posture estimation model based on the joint position confidence of the posture estimated by each of the plurality of posture estimation models, and selecting the selected posture estimation model. A step of estimating the pose of an input image is performed using a pose estimation model, but each of the plurality of pose estimation models may be trained in advance using image data sets captured under different conditions.
실시예에 따라, 영상에 포함된 사람이 취하는 특수한 자세도 정확히 인식할 수 있도록 하는데 그 목적이 있다. Depending on the embodiment, the purpose is to accurately recognize the special posture taken by a person included in the video.
도 1은 실시예에 따른 휴먼 자세 추정 장치를 설명하기 위한 도면이다.
도 2는 실시예에 따른 복수의 자세 추정 모델들을 설명하기 위한 도면이다.
도 3은 실시예에 따른 휴먼 자세 추정 방법을 설명하기 위한 순서도이다.
도 4는 실시예에 따른 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면의 예시도이다.
도 5는 실시예에 따른 자세 추정 모델 선택을 설명하기 위한 예시도이다.
도 6은 실시예에 따른 샘플 영상 추출 단계를 설명하기 위한 도면이다.
도 7은 실시예에 따른 컴퓨터 시스템 구성을 나타낸 도면이다.1 is a diagram for explaining a human posture estimation device according to an embodiment.
Figure 2 is a diagram for explaining a plurality of posture estimation models according to an embodiment.
Figure 3 is a flowchart for explaining a human posture estimation method according to an embodiment.
Figure 4 is an example of a recognition result output screen for each posture estimation model for a sample image according to an embodiment.
Figure 5 is an example diagram for explaining the selection of a posture estimation model according to an embodiment.
Figure 6 is a diagram for explaining a sample image extraction step according to an embodiment.
Figure 7 is a diagram showing the configuration of a computer system according to an embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms. The present embodiments only serve to ensure that the disclosure of the present invention is complete and that common knowledge in the technical field to which the present invention pertains is not limited. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있다.Although terms such as “first” or “second” are used to describe various components, these components are not limited by the above terms. The above terms may be used only to distinguish one component from another component. Accordingly, the first component mentioned below may also be the second component within the technical spirit of the present invention.
본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.The terms used in this specification are for describing embodiments and are not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” or “comprising” implies that the mentioned element or step does not exclude the presence or addition of one or more other elements or steps.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in this specification can be interpreted as meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.
이하에서는, 도 1 내지 도 7을 참조하여 실시예에 따른 휴먼 자세 추정 장치 및 방법이 상세히 설명된다.Hereinafter, an apparatus and method for estimating human posture according to an embodiment will be described in detail with reference to FIGS. 1 to 7 .
도 1은 실시예에 따른 휴먼 자세 추정 장치를 설명하기 위한 도면이고, 도 2는 실시예에 따른 복수의 자세 추정 모델들을 설명하기 위한 도면이다. FIG. 1 is a diagram illustrating a human posture estimation device according to an embodiment, and FIG. 2 is a diagram illustrating a plurality of posture estimation models according to an embodiment.
도 1을 참조하면, 실시예에 따른 휴먼 자세 추정 장치(1)는, 사람의 영상을 입력받아 사람의 관절 위치를 추정하는 것일 수 있다. 이를 위해, 휴먼 자세 추정 장치(1)는 사람의 영상 및 사람의 영상의 관절 위치를 정답값으로 하여 미리 학습된 휴먼 자세 추정 모델을 기반으로 사람의 관절 위치를 추정할 수 있다. Referring to FIG. 1, the human
이때, 실시예에 따라 휴먼 자세 추정 장치(1)는, 도 2에 도시된 바와 같이, 미리 학습된 복수의 자세 추정 모델들(10)을 포함할 수 있다. At this time, depending on the embodiment, the human
도 2를 참조하면, 자세 추정 모델들(10) 각각은 다수의 (영상, 관절 위치) 쌍으로 이루어진 데이터 셋을 이용하여, 입력된 영상이 쌍을 이루는 관절 위치를 추정하도록 신경망(Neural Network)의 가중치를 역전파 방식으로 업데이트하면서 학습된다. Referring to FIG. 2, each of the
이때, 실시예에 따라, 복수의 자세 추정 모델들(10) 각각은 서로 상이한 특성을 가지는 데이터 셋들(20)에 의해 학습될 수 있다. At this time, depending on the embodiment, each of the plurality of
이때, 서로 상이한 데이터셋들(20)은 휴먼 자세 뿐만 아니라 촬영 환경에 의해서도 구별될 수 있다. At this time,
예컨대, 데이터셋 1은 요가 자세에 대한 영상의 분포 비율이 클 수 있고, 데이터셋 2는 사람을 위에서 촬영한 영상의 분포 비율이 클 수 있고, 데이터셋 3은 저조도 환경에서 촬영된 영상의 분포 비율이 클 수 있다. For example, Dataset 1 may have a large distribution ratio of images of yoga postures, Dataset 2 may have a large distribution ratio of images taken of people from above, and Dataset 3 may have a large distribution ratio of images taken in a low-light environment. This can be big.
따라서, 데이터 셋 1으로 학습된 자세 추정 모델 1은 요가 자세에 대한 자세 인식률이 높을 수 있고, 데이터 셋 2로 학습된 자세 추정 모델 2는 위에서 촬영한 영상에 대한 사람의 자세 인식률이 높을 수 있고, 데이터 셋 3으로 학습된 자세 추정 모델 3는 저조도 환경의 영상에 대한 인식률이 높을 수 있다. Therefore,
따라서, 실시예에 따른 휴먼 자세 추정 장치(10)는 복수의 자세 추정 모델들(10) 중 인식 대상 영상이 촬영된 환경 조건에 가장 적합한 자세 추정 모델을 선별하여 인식 대상 영상에서의 사람의 자세를 추정해낸다. 이로써, 일반적이지 않은 특수한 자세에 대해서도 정확히 인식해낼 수 있다. Therefore, the human
그러면, 휴먼 자세 추정 장치(10)에 의한 휴먼 자세 추정 방법에 대해 도 3 내지 도 6을 참조하여 상세히 설명하기로 한다. Then, the human posture estimation method using the human
도 3은 실시예에 따른 휴먼 자세 추정 방법을 설명하기 위한 순서도이고, 도 4는 실시예에 따른 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면의 예시도이고, 도 5는 실시예에 따른 자세 추정 모델 선택을 설명하기 위한 예시도이고, 도 6은 실시예에 따른 샘플 영상 추출 단계를 설명하기 위한 도면이다. FIG. 3 is a flowchart for explaining a human posture estimation method according to an embodiment, FIG. 4 is an example of a recognition result output screen for each posture estimation model for a sample image according to an embodiment, and FIG. 5 is a posture diagram according to an embodiment. This is an example diagram for explaining selection of an estimation model, and FIG. 6 is a diagram for explaining a sample image extraction step according to an embodiment.
도 3을 참조하면, 실시예에 따른 휴먼 자세 추정 방법은 입력 영상에서 샘플 영상을 추출하는 단계(S110), 추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계(S120), 복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계(S130) 및 선택된 자세 추정 모델로 입력 영상의 자세를 추정하는 단계(S140)를 수행할 수 있다. Referring to FIG. 3, the human posture estimation method according to the embodiment includes extracting a sample image from an input image (S110), and inputting the extracted sample image into each of a plurality of posture estimation models to estimate the posture (S120). ), selecting one pose estimation model based on the joint position confidence (Confidence) of the pose estimated by each of the plurality of pose estimation models (S130), and estimating the pose of the input image with the selected pose estimation model ( S140) can be performed.
실시예에 따른 입력 영상에서 샘플 영상을 추출하는 단계(S110)에서, 입력 영상으로부터 M개의 샘플 영상을 추출한다. In the step of extracting sample images from the input image according to the embodiment (S110), M sample images are extracted from the input image.
이때, 입력 영상은, 사용자로부터 자세 추정 기술을 사용하고자 하는 환경에서 촬영된 영상 또는 유사한 환경의 영상일 수 있다. 이때, M은 적어도 하나 이상일 수 있고, 소정 주기로 추출된 것일 수 있다. At this time, the input image may be an image captured in an environment in which the user wants to use posture estimation technology, or an image in a similar environment. At this time, M may be at least one or more and may be extracted at a predetermined period.
실시예에 따른 자세를 추정하는 단계(S120)에서, 추출된 M개의 샘플 영상들 을 N개의 자세 추정 모델들(20) 각각에 입력하여, M개의 영상들 에 각각에 대한 자세를 추정한다(S120).In the step of estimating the posture according to the embodiment (S120), M sample images extracted is input to each of the N
이때, M 개의 샘플 영상들 중에서 i 번째 영상 에 대해서 N개의 자세 추정 모델들 중 j번째 자세 추정 모델 로 추정된 자세 는 다음의 <수학식 1>과 같이 표현될 수 있다. At this time, the ith image among M sample images The jth pose estimation model among the N pose estimation models. posture estimated to be Can be expressed as the following <
이때, 자세 는 다음의 <수학식 2>와 같이 K개 관절들 각각의 위치, 좌표 (x, y)와 신뢰도(confidence)로 이루질 수 있다. 이때, 신뢰도(confidence)는 관절 위치 추정의 정확도이다At this time, posture Can be composed of the position, coordinates (x, y), and confidence of each of the K joints, as shown in Equation 2 below. At this time, confidence is the accuracy of joint position estimation.
실시예에 따른 자세 추정 모델을 선택하는 단계(S130)에서, S120에 의한 자세 추정 결과를 기반으로 최적의 자세 추정 모델을 선택하는데, 다음의 두 가지 실시예들이 있을 수 있다. In the step of selecting a posture estimation model according to an embodiment (S130), an optimal posture estimation model is selected based on the posture estimation result in S120. There may be the following two embodiments.
일 실시예에 따라, 휴먼 자세 추정 장치(1)는, S120에서 산출된 신뢰도(confidence) 값을 기반으로 자세 추정 모델들(20) 중 하나를 자동 선택할 수 있다(S131). According to one embodiment, the human
즉, 휴먼 자세 추정 장치(1)는, <수학식 3>과 같이 자세 추정 모델들 별 신뢰도(confidence)의 총합을 산출하고, <수학식 4>와 같이 신뢰도 총합이 최 상위인 자세 추정 모델을 선택한다. That is, the human
다른 실시예에 따라, 휴먼 자세 추정 장치(1)는, 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면을 생성하여 디스플레인 한 후, 사용자로부터 자세 추정 모델을 선택받을 수 있다(S133~S135). According to another embodiment, the human
예컨대, 도 4를 참조하면, 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면에는 샘플 영상에 대한 자세 추정 모델들 각각의 관절 위치 추정 결과가 표시될 수 있다. 도 4에서 각 모델들의 관절 위치 추정 결과는 상이한데, 모델 1이 추정한 팔꿈치(401a)와 모델 2가 추정한 팔꿈치(401b)가 상이한 추정 결과를 나타냄을 알 수 있다. 또한, 모델 4가 추정한 골반(402a)와 모델 6이 추정한 골반(402b)이 상이한 추정 결과를 나타낼 수 있다. For example, referring to FIG. 4 , the joint position estimation results of each of the pose estimation models for the sample image may be displayed on the recognition result output screen for each pose estimation model for the sample image. In Figure 4, the joint position estimation results of each model are different, and it can be seen that the
이때, 휴먼 자세 추정 장치(1)는, 화면에 출력되는 자세 추정 모델들을 를 기준으로 정렬하여 출력할 수 있다(S133). At this time, the human
그러면, 사용자는 디스플레이된 자세 추정 모델들 각각의 인식 결과를 확인한 후, 하나의 자세 추정 모델을 선택할 수 있게 된다(S135). Then, the user can check the recognition results of each of the displayed posture estimation models and then select one posture estimation model (S135).
전술한 바와 같이 최적의 자세 추정 모델이 선택되면, 휴먼 자세 추정 장치(1)는, 입력된 영상을 선택된 자세 추정 모델에만 입력시켜 자세 추정 결과를 얻는다(S140). 즉, 도 5에 도시된 바와 같이, 입력 영상을 선택된 자세 추정 모델(11)에 입력시켜 자세 추정 결과를 획득한다. As described above, when the optimal posture estimation model is selected, the human
한편, 전술한 바와 같이 초기에 최적의 자세 추정 모델을 선택되더라도 시간이 경과됨에 따라, 입력 영상의 촬영 환경이 변화될 수 있다. 예컨대, 영상이 실내에서 촬영되다가 그 촬영 장소가 실외로 이동될 수 있다. 이럴 경우, 실내 조도에 촬영된 영상에 적합한 자세 추정 모델은 실외 조도에서 촬영된 영상에 대해서는 정확히 인식하지 못할 수 있다. 따라서, 실시예에 따른 휴먼 자세 추정 방법은 자세 추정 모델을 재선택하는 단계를 더 포함할 수 있다. Meanwhile, as described above, even if the optimal posture estimation model is initially selected, the shooting environment of the input image may change as time passes. For example, an image may be filmed indoors and then the filming location may be moved to outdoors. In this case, a pose estimation model suitable for images captured in indoor illumination may not accurately recognize images captured in outdoor illumination. Accordingly, the human posture estimation method according to the embodiment may further include the step of reselecting the posture estimation model.
즉, 도 3을 참조하면, 휴먼 자세 추정 장치(1)는, 주기가 도래하는지를 판단한다(S150). That is, referring to FIG. 3, the human
이때, 주기 T는 도 6에 도시된 바와 같이 일정할 수도 있으나, 설정에 따라 무작위로 설정될 수도 있다. At this time, the period T may be constant as shown in FIG. 6, but may be set randomly depending on the setting.
휴먼 자세 추정 장치(1)는, 주기가 도래하고, 영상 추정이 완료되지 않았을 경우(S160), S110 내지 S140을 재수행한다. 이때, 초기에 무작위로 샘플 영상들이 추출되어 저장되어 있는 경우, 입력 영상에서 샘플 영상을 추출하는 단계(110)의 반복은 생략될 수 있다. When the period arrives and image estimation is not completed (S160), the human
도 7은 실시예에 따른 컴퓨터 시스템 구성을 나타낸 도면이다.Figure 7 is a diagram showing the configuration of a computer system according to an embodiment.
실시예에 따른 휴먼 자세 추정 장치는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1000)에서 구현될 수 있다.The human posture estimation device according to the embodiment may be implemented in a
컴퓨터 시스템(1000)은 버스(1020)를 통하여 서로 통신하는 하나 이상의 프로세서(1010), 메모리(1030), 사용자 인터페이스 입력 장치(1040), 사용자 인터페이스 출력 장치(1050) 및 스토리지(1060)를 포함할 수 있다. 또한, 컴퓨터 시스템(1000)은 네트워크(1080)에 연결되는 네트워크 인터페이스(1070)를 더 포함할 수 있다. 프로세서(1010)는 중앙 처리 장치 또는 메모리(1030)나 스토리지(1060)에 저장된 프로그램 또는 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1030) 및 스토리지(1060)는 휘발성 매체, 비휘발성 매체, 분리형 매체, 비분리형 매체, 통신 매체, 또는 정보 전달 매체 중에서 적어도 하나 이상을 포함하는 저장 매체일 수 있다. 예를 들어, 메모리(1030)는 ROM(1031)이나 RAM(1032)을 포함할 수 있다.
이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features. You will understand that it exists. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.
1 : 휴먼 자세 추정 장치
10 : 자세 추정 모델들1: Human posture estimation device
10: Pose estimation models
Claims (10)
프로그램을 실행하는 프로세서를 포함하며,
프로그램은,
입력 영상에서 샘플 영상을 추출하는 단계;
추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계;
복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계; 및
선택된 하나의 자세 추정 모델만을 이용하여 입력 영상의 자세를 추정하는 단계를 포함하되,
소정 주기가 도래하고, 영상 추정이 완료되지 않았을 경우,
상기 입력 영상에서 샘플 영상을 추출하는 단계;
추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계;
복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계; 및
선택된 하나의 자세 추정 모델만을 이용하여 입력 영상의 자세를 추정하는 단계를 반복 수행하되,
상기 소정 주기는,
일정하거나 무작위로 설정되고,
복수의 자세 추정 모델들 각각은,
각각 상이한 조건에서 촬영된 영상 데이터 셋에 의해 미리 훈련된 것인, 휴먼 자세 추정 장치.a memory in which at least one program and a plurality of posture estimation models are recorded; and
Contains a processor that executes a program,
The program is,
Extracting a sample image from an input image;
estimating a posture by inputting the extracted sample image into each of a plurality of posture estimation models;
Selecting one posture estimation model based on joint position confidence estimated by each of the plurality of posture estimation models; and
Including the step of estimating the pose of the input image using only one selected pose estimation model,
When a certain period has arrived and image estimation has not been completed,
extracting a sample image from the input image;
estimating a posture by inputting the extracted sample image into each of a plurality of posture estimation models;
Selecting one posture estimation model based on joint position confidence estimated by each of the plurality of posture estimation models; and
Repeat the step of estimating the pose of the input image using only one selected pose estimation model,
The predetermined period is,
set constant or random,
Each of the plurality of posture estimation models is,
A human posture estimation device that is pre-trained using image data sets captured under different conditions.
자세 추정 모델들 별 신뢰도(confidence)의 총합을 산출하고, 신뢰도 총합이 최 상위인 자세 추정 모델을 선택하는, 휴먼 자세 추정 장치.The method of claim 1, wherein selecting a posture estimation model comprises:
A human posture estimation device that calculates the total confidence of each posture estimation model and selects the posture estimation model with the highest total confidence.
샘플 영상에 대한 자세 추정 모델들 각각의 관절 위치 추정 결과가 표시된 인식 결과 출력 화면을 생성하여 디스플레이 한 후, 사용자로부터 자세 추정 모델을 선택받는, 휴먼 자세 추정 장치.The method of claim 1, wherein selecting a posture estimation model comprises:
A human posture estimation device that generates and displays a recognition result output screen showing the joint position estimation results of each of the posture estimation models for the sample image and then selects a posture estimation model from the user.
자세 추정 모델들 별 신뢰도(confidence)의 총합을 산출하고, 인식 결과 출력 화면에 신뢰도 총합을 기준으로 자세 추정 모델들 각각의 관절 위치 추정 결과를 정렬하여 디스플레이하는, 휴먼 자세 추정 장치.The method of claim 3, wherein the step of selecting a posture estimation model includes:
A human posture estimation device that calculates the total confidence of each posture estimation model and sorts and displays the joint position estimation results of each posture estimation model based on the total confidence on the recognition result output screen.
추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계;
복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계; 및
선택된 하나의 자세 추정 모델만을 이용하여 입력 영상의 자세를 추정하는 단계를 포함하되,
소정 주기가 도래하고, 영상 추정이 완료되지 않았을 경우,
상기 입력 영상에서 샘플 영상을 추출하는 단계;
추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계;
복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계; 및
선택된 하나의 자세 추정 모델만을 이용하여 입력 영상의 자세를 추정하는 단계를 반복 수행하되,
상기 소정 주기는,
일정하거나 무작위로 설정되고,
복수의 자세 추정 모델들 각각은,
각각 상이한 조건에서 촬영된 영상 데이터 셋에 의해 미리 훈련된 것인, 휴먼 자세 추정 방법.Extracting a sample image from an input image;
estimating a posture by inputting the extracted sample image into each of a plurality of posture estimation models;
Selecting one posture estimation model based on joint position confidence estimated by each of the plurality of posture estimation models; and
Including the step of estimating the pose of the input image using only one selected pose estimation model,
When a certain period has arrived and image estimation has not been completed,
extracting a sample image from the input image;
estimating a posture by inputting the extracted sample image into each of a plurality of posture estimation models;
Selecting one posture estimation model based on joint position confidence estimated by each of the plurality of posture estimation models; and
Repeat the step of estimating the pose of the input image using only one selected pose estimation model,
The predetermined period is,
set constant or random,
Each of the plurality of posture estimation models is,
A human pose estimation method that is pre-trained using image data sets captured under different conditions.
자세 추정 모델들 별 신뢰도(confidence)의 총합을 산출하고, 신뢰도 총합이 최 상위인 자세 추정 모델을 선택하는, 휴먼 자세 추정 방법.The method of claim 6, wherein the step of selecting a posture estimation model includes:
A human posture estimation method that calculates the total confidence of each posture estimation model and selects the posture estimation model with the highest total confidence.
샘플 영상에 대한 자세 추정 모델들 각각의 관절 위치 추정 결과가 표시된 인식 결과 출력 화면을 생성하여 디스플레이 한 후, 사용자로부터 자세 추정 모델을 선택받는, 휴먼 자세 추정 방법.The method of claim 6, wherein the step of selecting a posture estimation model includes:
A human posture estimation method that generates and displays a recognition result output screen showing the joint position estimation results of each of the posture estimation models for the sample image, and then selects a posture estimation model from the user.
자세 추정 모델들 별 신뢰도(confidence)의 총합을 산출하고, 인식 결과 출력 화면에 신뢰도 총합을 기준으로 자세 추정 모델들 각각의 관절 위치 추정 결과를 정렬하여 디스플레이하는, 휴먼 자세 추정 방법.The method of claim 8, wherein the step of selecting a posture estimation model includes:
A human posture estimation method that calculates the total confidence of each posture estimation model and sorts and displays the joint position estimation results of each posture estimation model based on the total confidence on the recognition result output screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200105426A KR102591325B1 (en) | 2020-08-21 | 2020-08-21 | Apparatus and Method for Estimating Human Pose |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200105426A KR102591325B1 (en) | 2020-08-21 | 2020-08-21 | Apparatus and Method for Estimating Human Pose |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220023553A KR20220023553A (en) | 2022-03-02 |
KR102591325B1 true KR102591325B1 (en) | 2023-10-20 |
Family
ID=80815570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200105426A KR102591325B1 (en) | 2020-08-21 | 2020-08-21 | Apparatus and Method for Estimating Human Pose |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102591325B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101758064B1 (en) | 2013-06-05 | 2017-07-14 | 삼성전자주식회사 | Estimator learning method and pose estimation mehtod using a depth image |
JP2019087229A (en) * | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | Information processing device, control method of information processing device and program |
JP2019219989A (en) * | 2018-06-21 | 2019-12-26 | 日本電信電話株式会社 | Posture estimation device, posture estimation method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140095601A (en) * | 2013-01-18 | 2014-08-04 | 삼성전자주식회사 | Pose classification apparatus and pose classification method |
KR101933921B1 (en) * | 2013-06-03 | 2018-12-31 | 삼성전자주식회사 | Method and apparatus for estimating pose |
-
2020
- 2020-08-21 KR KR1020200105426A patent/KR102591325B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101758064B1 (en) | 2013-06-05 | 2017-07-14 | 삼성전자주식회사 | Estimator learning method and pose estimation mehtod using a depth image |
JP2019087229A (en) * | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | Information processing device, control method of information processing device and program |
JP2019219989A (en) * | 2018-06-21 | 2019-12-26 | 日本電信電話株式会社 | Posture estimation device, posture estimation method, and program |
Also Published As
Publication number | Publication date |
---|---|
KR20220023553A (en) | 2022-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109101865A (en) | A kind of recognition methods again of the pedestrian based on deep learning | |
Minut et al. | A reinforcement learning model of selective visual attention | |
CN113850248B (en) | Motion attitude evaluation method and device, edge calculation server and storage medium | |
CN110490109B (en) | Monocular vision-based online human body rehabilitation action recognition method | |
WO2019114726A1 (en) | Image recognition method and device, electronic apparatus, and readable storage medium | |
CN110263768A (en) | A kind of face identification method based on depth residual error network | |
CN112287777B (en) | Student state classroom monitoring method based on edge intelligence | |
CN112597814A (en) | Improved Openpos classroom multi-person abnormal behavior and mask wearing detection method | |
CN113673354B (en) | Human body key point detection method based on context information and joint embedding | |
CN112200138B (en) | Classroom learning situation analysis method based on computer vision | |
CN110163567A (en) | Classroom roll calling system based on multitask concatenated convolutional neural network | |
CN110147833A (en) | Facial image processing method, apparatus, system and readable storage medium storing program for executing | |
JP2021086322A (en) | Image processing device, image processing method, and program | |
CN114783043B (en) | Child behavior track positioning method and system | |
CN115205543A (en) | Intelligent manufacturing method and system of stainless steel cabinet | |
CN113705510A (en) | Target identification tracking method, device, equipment and storage medium | |
CN113239220A (en) | Image recommendation method and device, terminal and readable storage medium | |
CN112329571B (en) | Self-adaptive human body posture optimization method based on posture quality evaluation | |
KR102591325B1 (en) | Apparatus and Method for Estimating Human Pose | |
CN110471886A (en) | For based on detection desk around file and people come the system of search file and people | |
JP2021077218A (en) | Information processing device, information processing method, and information processing program | |
CN113869127A (en) | Human behavior detection method, monitoring device, electronic device, and medium | |
CN110610173A (en) | Badminton motion analysis system and method based on Mobilenet | |
KR102568538B1 (en) | Apparatus and Method for Estimating Human Motion using Mobile Robot | |
WO2023209809A1 (en) | Information processing device, information processing method, information processing system, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |