KR20220023553A - Apparatus and Method for Estimating Human Pose - Google Patents

Apparatus and Method for Estimating Human Pose Download PDF

Info

Publication number
KR20220023553A
KR20220023553A KR1020200105426A KR20200105426A KR20220023553A KR 20220023553 A KR20220023553 A KR 20220023553A KR 1020200105426 A KR1020200105426 A KR 1020200105426A KR 20200105426 A KR20200105426 A KR 20200105426A KR 20220023553 A KR20220023553 A KR 20220023553A
Authority
KR
South Korea
Prior art keywords
posture
posture estimation
estimating
image
pose
Prior art date
Application number
KR1020200105426A
Other languages
Korean (ko)
Other versions
KR102591325B1 (en
Inventor
윤영우
김도형
김재홍
이재연
장민수
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200105426A priority Critical patent/KR102591325B1/en
Publication of KR20220023553A publication Critical patent/KR20220023553A/en
Application granted granted Critical
Publication of KR102591325B1 publication Critical patent/KR102591325B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are an apparatus and method for estimating a human pose. An apparatus for estimating a human pose according to an embodiment of the present invention includes a memory in which at least one program and a plurality of pose estimation models are recorded, and a processor executing the program. The program includes the steps of: extracting a sample image from the input image; estimating the pose by inputting the extracted sample image to each of the plurality of pose estimation models; selecting one pose estimation model based on the joint position confidence of the pose estimated by each of the plurality of pose estimation models; and estimating the pose of an input image with the selected pose estimation model. Each of the plurality of pose estimation models may be pre-trained by an image data set captured under different conditions, respectively.

Description

휴먼 자세 추정 장치 및 방법{Apparatus and Method for Estimating Human Pose} Apparatus and Method for Estimating Human Pose

기재된 실시예는 영상에 포함된 사람의 자세를 추정하는 기술에 관한 것이다. The described embodiment relates to a technique for estimating a posture of a person included in an image.

통상적인 영상 기반 휴먼 자세 추정을 위해 학습되는 모델은 사람 영상을 입력받아 사람의 각 바디 파트, 예컨대, 코, 목, 팔꿈치, 손목의 위치를 추정하도록 학습된다. A model trained for estimating a typical image-based human posture is trained to receive a human image and estimate the position of each body part of a person, for example, a nose, a neck, an elbow, and a wrist.

그런데, 자세 추정 모델의 인식 결과는 학습 데이터의 특성에 의존적이게 된다. 만약 자세 추정 모델이 똑바로 서 있는 사람의 영상만이 존재하는 학습 데이터로 학습될 경우, 서 있는 사람에 대한 인식률을 높을 수 있어도 누워 있거나 앉아 있는 자세의 영상에 대해서는 인식률이 낮을 수 있다. However, the recognition result of the posture estimation model is dependent on the characteristics of the learning data. If the posture estimation model is trained with training data in which only images of a person standing upright exist, the recognition rate for a standing person may be high, but a recognition rate for an image of a lying or sitting posture may be low.

즉, 학습 기반의 자세 추정 모델은 학습에 사용하는 데이터의 분포에 영향을 받게 되므로 학습 데이터에 다수 포함되는 일반적인 자세는 인식률이 높으나, 학습 데이터에 소수만 존재하는 특수한 자세에 대해서는 그 인식률이 낮을 수 있다. In other words, since the learning-based posture estimation model is affected by the distribution of data used for learning, the recognition rate of general postures included in a large number of learning data is high, but the recognition rate may be low for special postures where only a few exist in the learning data. .

기재된 실시예는 영상에 포함된 사람이 취하는 특수한 자세도 정확히 인식할 수 있도록 하는데 그 목적이 있다. The purpose of the described embodiment is to accurately recognize a special posture taken by a person included in an image.

실시예에 따른 휴먼 자세 추정 장치는, 적어도 하나의 프로그램 및 복수의 자세 추정 모델들이 기록된 메모리 및 프로그램을 실행하는 프로세서를 포함하며, 프로그램은, 입력 영상에서 샘플 영상을 추출하는 단계, 추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계, 복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계 및 선택된 자세 추정 모델로 입력 영상의 자세를 추정하는 단계를 수행하되, 복수의 자세 추정 모델들 각각은, 각각 상이한 조건에서 촬영된 영상 데이터 셋에 의해 미리 훈련된 것일 수 있다. An apparatus for estimating human posture according to an embodiment includes a memory in which at least one program and a plurality of posture estimation models are recorded, and a processor executing the program, the program comprising: extracting a sample image from an input image; Estimating a posture by inputting an image to each of the plurality of posture estimation models, selecting one posture estimation model based on joint position confidence of the posture estimated by each of the plurality of posture estimation models, and The step of estimating the posture of the input image with the posture estimation model is performed, and each of the plurality of posture estimation models may be pre-trained by image data sets captured under different conditions.

실시예에 따라, 영상에 포함된 사람이 취하는 특수한 자세도 정확히 인식할 수 있도록 하는데 그 목적이 있다. According to an embodiment, the purpose is to accurately recognize a special posture taken by a person included in an image.

도 1은 실시예에 따른 휴먼 자세 추정 장치를 설명하기 위한 도면이다.
도 2는 실시예에 따른 복수의 자세 추정 모델들을 설명하기 위한 도면이다.
도 3은 실시예에 따른 휴먼 자세 추정 방법을 설명하기 위한 순서도이다.
도 4는 실시예에 따른 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면의 예시도이다.
도 5는 실시예에 따른 자세 추정 모델 선택을 설명하기 위한 예시도이다.
도 6은 실시예에 따른 샘플 영상 추출 단계를 설명하기 위한 도면이다.
도 7은 실시예에 따른 컴퓨터 시스템 구성을 나타낸 도면이다.
1 is a diagram for explaining an apparatus for estimating a human posture according to an embodiment.
2 is a diagram for describing a plurality of posture estimation models according to an embodiment.
3 is a flowchart illustrating a method for estimating a human posture according to an embodiment.
4 is an exemplary diagram of a recognition result output screen for each posture estimation model with respect to a sample image according to an embodiment.
5 is an exemplary diagram for explaining selection of a posture estimation model according to an embodiment.
6 is a diagram for explaining a step of extracting a sample image according to an embodiment.
7 is a diagram showing the configuration of a computer system according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있다.Although "first" or "second" is used to describe various elements, these elements are not limited by the above terms. Such terms may only be used to distinguish one component from another. Accordingly, the first component mentioned below may be the second component within the spirit of the present invention.

본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.The terminology used herein is for the purpose of describing the embodiment and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” or “comprising” implies that the stated component or step does not exclude the presence or addition of one or more other components or steps.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used herein may be interpreted with meanings commonly understood by those of ordinary skill in the art to which the present invention pertains. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하에서는, 도 1 내지 도 7을 참조하여 실시예에 따른 휴먼 자세 추정 장치 및 방법이 상세히 설명된다.Hereinafter, an apparatus and method for estimating a human posture according to an embodiment will be described in detail with reference to FIGS. 1 to 7 .

도 1은 실시예에 따른 휴먼 자세 추정 장치를 설명하기 위한 도면이고, 도 2는 실시예에 따른 복수의 자세 추정 모델들을 설명하기 위한 도면이다. FIG. 1 is a diagram for explaining an apparatus for estimating a human posture according to an embodiment, and FIG. 2 is a diagram for explaining a plurality of posture estimation models according to the embodiment.

도 1을 참조하면, 실시예에 따른 휴먼 자세 추정 장치(1)는, 사람의 영상을 입력받아 사람의 관절 위치를 추정하는 것일 수 있다. 이를 위해, 휴먼 자세 추정 장치(1)는 사람의 영상 및 사람의 영상의 관절 위치를 정답값으로 하여 미리 학습된 휴먼 자세 추정 모델을 기반으로 사람의 관절 위치를 추정할 수 있다. Referring to FIG. 1 , an apparatus 1 for estimating a human posture according to an embodiment may receive an image of a person and estimate the joint position of the person. To this end, the human posture estimation apparatus 1 may estimate the joint position of the person based on a pre-learned human posture estimation model by using the human image and the joint positions of the human image as correct values.

이때, 실시예에 따라 휴먼 자세 추정 장치(1)는, 도 2에 도시된 바와 같이, 미리 학습된 복수의 자세 추정 모델들(10)을 포함할 수 있다. In this case, according to an embodiment, the human posture estimation apparatus 1 may include a plurality of pre-trained posture estimation models 10 as shown in FIG. 2 .

도 2를 참조하면, 자세 추정 모델들(10) 각각은 다수의 (영상, 관절 위치) 쌍으로 이루어진 데이터 셋을 이용하여, 입력된 영상이 쌍을 이루는 관절 위치를 추정하도록 신경망(Neural Network)의 가중치를 역전파 방식으로 업데이트하면서 학습된다. Referring to FIG. 2 , each of the posture estimation models 10 uses a data set consisting of a plurality of (image, joint position) pairs to estimate the joint position in which the input image is a pair. It is learned by updating the weights using a backpropagation method.

이때, 실시예에 따라, 복수의 자세 추정 모델들(10) 각각은 서로 상이한 특성을 가지는 데이터 셋들(20)에 의해 학습될 수 있다. In this case, according to an embodiment, each of the plurality of posture estimation models 10 may be learned from data sets 20 having different characteristics.

이때, 서로 상이한 데이터셋들(20)은 휴먼 자세 뿐만 아니라 촬영 환경에 의해서도 구별될 수 있다. In this case, the different datasets 20 may be distinguished not only by the human posture but also by the photographing environment.

예컨대, 데이터셋 1은 요가 자세에 대한 영상의 분포 비율이 클 수 있고, 데이터셋 2는 사람을 위에서 촬영한 영상의 분포 비율이 클 수 있고, 데이터셋 3은 저조도 환경에서 촬영된 영상의 분포 비율이 클 수 있다. For example, dataset 1 may have a large distribution ratio of images for yoga postures, dataset 2 may have a large distribution ratio of images photographed from above, and dataset 3 may have a large distribution ratio of images taken in a low-light environment This can be large.

따라서, 데이터 셋 1으로 학습된 자세 추정 모델 1은 요가 자세에 대한 자세 인식률이 높을 수 있고, 데이터 셋 2로 학습된 자세 추정 모델 2는 위에서 촬영한 영상에 대한 사람의 자세 인식률이 높을 수 있고, 데이터 셋 3으로 학습된 자세 추정 모델 3는 저조도 환경의 영상에 대한 인식률이 높을 수 있다. Therefore, the posture estimation model 1 learned with data set 1 may have a high posture recognition rate for yoga postures, and posture estimation model 2 learned with data set 2 may have a high posture recognition rate of a person with respect to the image taken above, The posture estimation model 3 trained with data set 3 may have a high recognition rate for images in a low-light environment.

따라서, 실시예에 따른 휴먼 자세 추정 장치(10)는 복수의 자세 추정 모델들(10) 중 인식 대상 영상이 촬영된 환경 조건에 가장 적합한 자세 추정 모델을 선별하여 인식 대상 영상에서의 사람의 자세를 추정해낸다. 이로써, 일반적이지 않은 특수한 자세에 대해서도 정확히 인식해낼 수 있다. Accordingly, the human posture estimating apparatus 10 according to the embodiment selects a posture estimation model most suitable for the environmental condition in which the recognition target image is captured from among the plurality of posture estimation models 10 to determine the posture of the person in the recognition target image. estimate In this way, even a special posture that is not common can be accurately recognized.

그러면, 휴먼 자세 추정 장치(10)에 의한 휴먼 자세 추정 방법에 대해 도 3 내지 도 6을 참조하여 상세히 설명하기로 한다. Then, a method for estimating a human posture by the human posture estimating apparatus 10 will be described in detail with reference to FIGS. 3 to 6 .

도 3은 실시예에 따른 휴먼 자세 추정 방법을 설명하기 위한 순서도이고, 도 4는 실시예에 따른 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면의 예시도이고, 도 5는 실시예에 따른 자세 추정 모델 선택을 설명하기 위한 예시도이고, 도 6은 실시예에 따른 샘플 영상 추출 단계를 설명하기 위한 도면이다. 3 is a flowchart for explaining a human posture estimation method according to an embodiment, FIG. 4 is an exemplary view of a recognition result output screen for each posture estimation model for a sample image according to an embodiment, and FIG. 5 is a posture according to the embodiment It is an exemplary diagram for explaining selection of an estimation model, and FIG. 6 is a diagram for explaining a step of extracting a sample image according to an embodiment.

도 3을 참조하면, 실시예에 따른 휴먼 자세 추정 방법은 입력 영상에서 샘플 영상을 추출하는 단계(S110), 추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계(S120), 복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계(S130) 및 선택된 자세 추정 모델로 입력 영상의 자세를 추정하는 단계(S140)를 수행할 수 있다. Referring to FIG. 3 , the human posture estimation method according to the embodiment includes extracting a sample image from an input image ( S110 ), and estimating the posture by inputting the extracted sample image to each of a plurality of posture estimation models ( S120 ). ), selecting one posture estimation model based on the joint position confidence of the posture estimated by each of the plurality of posture estimation models (S130) and estimating the posture of the input image with the selected posture estimation model ( S140) may be performed.

실시예에 따른 입력 영상에서 샘플 영상을 추출하는 단계(S110)에서, 입력 영상으로부터 M개의 샘플 영상을 추출한다. In the step of extracting the sample image from the input image according to the embodiment ( S110 ), M sample images are extracted from the input image.

이때, 입력 영상은, 사용자로부터 자세 추정 기술을 사용하고자 하는 환경에서 촬영된 영상 또는 유사한 환경의 영상일 수 있다. 이때, M은 적어도 하나 이상일 수 있고, 소정 주기로 추출된 것일 수 있다. In this case, the input image may be an image captured in an environment in which the user intends to use the posture estimation technique or an image in a similar environment. In this case, M may be at least one or more, and may be extracted at a predetermined period.

실시예에 따른 자세를 추정하는 단계(S120)에서, 추출된 M개의 샘플 영상들

Figure pat00001
을 N개의 자세 추정 모델들(20) 각각에 입력하여, M개의 영상들
Figure pat00002
에 각각에 대한 자세를 추정한다(S120).In the step of estimating the posture (S120) according to the embodiment, the extracted M sample images
Figure pat00001
is input to each of the N posture estimation models 20, and M images are
Figure pat00002
Estimate the posture for each in (S120).

이때, M 개의 샘플 영상들 중에서 i 번째 영상

Figure pat00003
에 대해서 N개의 자세 추정 모델들 중 j번째 자세 추정 모델
Figure pat00004
로 추정된 자세
Figure pat00005
는 다음의 <수학식 1>과 같이 표현될 수 있다. In this case, the i-th image among M sample images
Figure pat00003
The j-th posture estimation model among the N posture estimation models for
Figure pat00004
posture presumed to be
Figure pat00005
can be expressed as in the following <Equation 1>.

Figure pat00006
Figure pat00006

이때, 자세

Figure pat00007
는 다음의 <수학식 2>와 같이 K개 관절들 각각의 위치, 좌표 (x, y)와 신뢰도(confidence)로 이루질 수 있다. 이때, 신뢰도(confidence)는 관절 위치 추정의 정확도이다At this time, posture
Figure pat00007
may be composed of the position, coordinates (x, y) and confidence of each of the K joints as shown in Equation 2 below. In this case, confidence is the accuracy of joint position estimation.

Figure pat00008
Figure pat00008

실시예에 따른 자세 추정 모델을 선택하는 단계(S130)에서, S120에 의한 자세 추정 결과를 기반으로 최적의 자세 추정 모델을 선택하는데, 다음의 두 가지 실시예들이 있을 수 있다. In the step of selecting the posture estimation model according to the embodiment ( S130 ), an optimal posture estimation model is selected based on the result of the posture estimation by S120 , and there may be two embodiments below.

일 실시예에 따라, 휴먼 자세 추정 장치(1)는, S120에서 산출된 신뢰도(confidence) 값을 기반으로 자세 추정 모델들(20) 중 하나를 자동 선택할 수 있다(S131). According to an embodiment, the human posture estimation apparatus 1 may automatically select one of the posture estimation models 20 based on the confidence value calculated in S120 ( S131 ).

즉, 휴먼 자세 추정 장치(1)는, <수학식 3>과 같이 자세 추정 모델들 별 신뢰도(confidence)의 총합을 산출하고, <수학식 4>와 같이 신뢰도 총합이 최 상위인 자세 추정 모델을 선택한다. That is, the human posture estimating device 1 calculates the total of confidence for each posture estimation model as shown in <Equation 3>, and uses the posture estimation model having the highest total reliability as shown in <Equation 4>. choose

Figure pat00009
Figure pat00009

Figure pat00010
Figure pat00010

다른 실시예에 따라, 휴먼 자세 추정 장치(1)는, 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면을 생성하여 디스플레인 한 후, 사용자로부터 자세 추정 모델을 선택받을 수 있다(S133~S135). According to another embodiment, the human posture estimating apparatus 1 may generate and display a recognition result output screen for each posture estimation model with respect to a sample image, and then receive a selection of a posture estimation model from the user (S133 to S135). .

예컨대, 도 4를 참조하면, 샘플 영상에 대한 자세 추정 모델별 인식 결과 출력 화면에는 샘플 영상에 대한 자세 추정 모델들 각각의 관절 위치 추정 결과가 표시될 수 있다. 도 4에서 각 모델들의 관절 위치 추정 결과는 상이한데, 모델 1이 추정한 팔꿈치(401a)와 모델 2가 추정한 팔꿈치(401b)가 상이한 추정 결과를 나타냄을 알 수 있다. 또한, 모델 4가 추정한 골반(402a)와 모델 6이 추정한 골반(402b)이 상이한 추정 결과를 나타낼 수 있다. For example, referring to FIG. 4 , the joint position estimation result of each of the posture estimation models for the sample image may be displayed on the recognition result output screen for each posture estimation model for the sample image. In FIG. 4 , the joint position estimation results of each model are different, and it can be seen that the elbow 401a estimated by Model 1 and the elbow 401b estimated by Model 2 show different estimation results. Also, the pelvis 402a estimated by the model 4 and the pelvis 402b estimated by the model 6 may represent different estimation results.

이때, 휴먼 자세 추정 장치(1)는, 화면에 출력되는 자세 추정 모델들을

Figure pat00011
를 기준으로 정렬하여 출력할 수 있다(S133). At this time, the human posture estimating apparatus 1 calculates the posture estimation models output on the screen.
Figure pat00011
It can be output by sorting based on the (S133).

그러면, 사용자는 디스플레이된 자세 추정 모델들 각각의 인식 결과를 확인한 후, 하나의 자세 추정 모델을 선택할 수 있게 된다(S135). Then, after checking the recognition result of each of the displayed posture estimation models, the user can select one posture estimation model ( S135 ).

전술한 바와 같이 최적의 자세 추정 모델이 선택되면, 휴먼 자세 추정 장치(1)는, 입력된 영상을 선택된 자세 추정 모델에만 입력시켜 자세 추정 결과를 얻는다(S140). 즉, 도 5에 도시된 바와 같이, 입력 영상을 선택된 자세 추정 모델(11)에 입력시켜 자세 추정 결과를 획득한다. When the optimal posture estimation model is selected as described above, the human posture estimation apparatus 1 inputs the input image only to the selected posture estimation model to obtain a posture estimation result ( S140 ). That is, as shown in FIG. 5 , a posture estimation result is obtained by inputting an input image to the selected posture estimation model 11 .

한편, 전술한 바와 같이 초기에 최적의 자세 추정 모델을 선택되더라도 시간이 경과됨에 따라, 입력 영상의 촬영 환경이 변화될 수 있다. 예컨대, 영상이 실내에서 촬영되다가 그 촬영 장소가 실외로 이동될 수 있다. 이럴 경우, 실내 조도에 촬영된 영상에 적합한 자세 추정 모델은 실외 조도에서 촬영된 영상에 대해서는 정확히 인식하지 못할 수 있다. 따라서, 실시예에 따른 휴먼 자세 추정 방법은 자세 추정 모델을 재선택하는 단계를 더 포함할 수 있다. Meanwhile, as described above, even if the optimal posture estimation model is initially selected, as time passes, the capturing environment of the input image may change. For example, an image may be captured indoors, and then the filming location may be moved outdoors. In this case, a posture estimation model suitable for an image captured in indoor illuminance may not accurately recognize an image captured in outdoor illuminance. Accordingly, the human posture estimation method according to the embodiment may further include reselecting the posture estimation model.

즉, 도 3을 참조하면, 휴먼 자세 추정 장치(1)는, 주기가 도래하는지를 판단한다(S150). That is, referring to FIG. 3 , the human posture estimating apparatus 1 determines whether a period arrives ( S150 ).

이때, 주기 T는 도 6에 도시된 바와 같이 일정할 수도 있으나, 설정에 따라 무작위로 설정될 수도 있다. In this case, the period T may be constant as shown in FIG. 6 or may be set randomly according to settings.

휴먼 자세 추정 장치(1)는, 주기가 도래하고, 영상 추정이 완료되지 않았을 경우(S160), S110 내지 S140을 재수행한다. 이때, 초기에 무작위로 샘플 영상들이 추출되어 저장되어 있는 경우, 입력 영상에서 샘플 영상을 추출하는 단계(110)의 반복은 생략될 수 있다. The human posture estimating apparatus 1 re-performs S110 to S140 when the cycle arrives and the image estimation is not completed (S160). In this case, if sample images are initially randomly extracted and stored, the repetition of extracting the sample image from the input image 110 may be omitted.

도 7은 실시예에 따른 컴퓨터 시스템 구성을 나타낸 도면이다.7 is a diagram showing the configuration of a computer system according to an embodiment.

실시예에 따른 휴먼 자세 추정 장치는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1000)에서 구현될 수 있다.The apparatus for estimating human posture according to the embodiment may be implemented in the computer system 1000 such as a computer-readable recording medium.

컴퓨터 시스템(1000)은 버스(1020)를 통하여 서로 통신하는 하나 이상의 프로세서(1010), 메모리(1030), 사용자 인터페이스 입력 장치(1040), 사용자 인터페이스 출력 장치(1050) 및 스토리지(1060)를 포함할 수 있다. 또한, 컴퓨터 시스템(1000)은 네트워크(1080)에 연결되는 네트워크 인터페이스(1070)를 더 포함할 수 있다. 프로세서(1010)는 중앙 처리 장치 또는 메모리(1030)나 스토리지(1060)에 저장된 프로그램 또는 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1030) 및 스토리지(1060)는 휘발성 매체, 비휘발성 매체, 분리형 매체, 비분리형 매체, 통신 매체, 또는 정보 전달 매체 중에서 적어도 하나 이상을 포함하는 저장 매체일 수 있다. 예를 들어, 메모리(1030)는 ROM(1031)이나 RAM(1032)을 포함할 수 있다.Computer system 1000 may include one or more processors 1010 , memory 1030 , user interface input device 1040 , user interface output device 1050 , and storage 1060 that communicate with each other via bus 1020 . can Additionally, the computer system 1000 may further include a network interface 1070 coupled to the network 1080 . The processor 1010 may be a central processing unit or a semiconductor device that executes programs or processing instructions stored in the memory 1030 or storage 1060 . The memory 1030 and the storage 1060 may be a storage medium including at least one of a volatile medium, a non-volatile medium, a removable medium, a non-removable medium, a communication medium, and an information delivery medium. For example, the memory 1030 may include a ROM 1031 or a RAM 1032 .

이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described with reference to the accompanying drawings in the above, those of ordinary skill in the art to which the present invention pertains can implement the present invention in other specific forms without changing the technical spirit or essential features. You can understand that there is Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

1 : 휴먼 자세 추정 장치
10 : 자세 추정 모델들
1: Human posture estimation device
10: Posture estimation models

Claims (1)

적어도 하나의 프로그램 및 복수의 자세 추정 모델들이 기록된 메모리; 및
프로그램을 실행하는 프로세서를 포함하며,
프로그램은,
입력 영상에서 샘플 영상을 추출하는 단계;
추출된 샘플 영상을 복수의 자세 추정 모델들 각각에 입력하여 자세를 추정하는 단계;
복수의 자세 추정 모델들 각각이 추정한 자세의 관절 위치 신뢰도(Confidence)를 기반으로 하나의 자세 추정 모델을 선택하는 단계; 및
선택된 자세 추정 모델로 입력 영상의 자세를 추정하는 단계를 포함하되,
복수의 자세 추정 모델들 각각은,
각각 상이한 조건에서 촬영된 영상 데이터 셋에 의해 미리 훈련된 것인, 휴먼 자세 추정 장치.
a memory in which at least one program and a plurality of posture estimation models are recorded; and
including a processor executing a program;
program,
extracting a sample image from the input image;
estimating the posture by inputting the extracted sample image to each of the plurality of posture estimation models;
selecting one posture estimation model based on joint position confidence of the posture estimated by each of the plurality of posture estimation models; and
Including the step of estimating the posture of the input image with the selected posture estimation model,
Each of the plurality of posture estimation models,
A human posture estimating device that is pre-trained by image data sets taken under different conditions, respectively.
KR1020200105426A 2020-08-21 2020-08-21 Apparatus and Method for Estimating Human Pose KR102591325B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200105426A KR102591325B1 (en) 2020-08-21 2020-08-21 Apparatus and Method for Estimating Human Pose

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200105426A KR102591325B1 (en) 2020-08-21 2020-08-21 Apparatus and Method for Estimating Human Pose

Publications (2)

Publication Number Publication Date
KR20220023553A true KR20220023553A (en) 2022-03-02
KR102591325B1 KR102591325B1 (en) 2023-10-20

Family

ID=80815570

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200105426A KR102591325B1 (en) 2020-08-21 2020-08-21 Apparatus and Method for Estimating Human Pose

Country Status (1)

Country Link
KR (1) KR102591325B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140095601A (en) * 2013-01-18 2014-08-04 삼성전자주식회사 Pose classification apparatus and pose classification method
KR20140142037A (en) * 2013-06-03 2014-12-11 삼성전자주식회사 Method and apparatus for estimating pose
KR101758064B1 (en) * 2013-06-05 2017-07-14 삼성전자주식회사 Estimator learning method and pose estimation mehtod using a depth image
JP2019087229A (en) * 2017-11-02 2019-06-06 キヤノン株式会社 Information processing device, control method of information processing device and program
JP2019219989A (en) * 2018-06-21 2019-12-26 日本電信電話株式会社 Posture estimation device, posture estimation method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140095601A (en) * 2013-01-18 2014-08-04 삼성전자주식회사 Pose classification apparatus and pose classification method
KR20140142037A (en) * 2013-06-03 2014-12-11 삼성전자주식회사 Method and apparatus for estimating pose
KR101758064B1 (en) * 2013-06-05 2017-07-14 삼성전자주식회사 Estimator learning method and pose estimation mehtod using a depth image
JP2019087229A (en) * 2017-11-02 2019-06-06 キヤノン株式会社 Information processing device, control method of information processing device and program
JP2019219989A (en) * 2018-06-21 2019-12-26 日本電信電話株式会社 Posture estimation device, posture estimation method, and program

Also Published As

Publication number Publication date
KR102591325B1 (en) 2023-10-20

Similar Documents

Publication Publication Date Title
CN110941990A (en) Method and device for evaluating human body actions based on skeleton key points
CN109101865A (en) A kind of recognition methods again of the pedestrian based on deep learning
KR101872635B1 (en) Automatic make-up evaluation system and operating method thereof
WO2021217848A1 (en) Human body falling detection method and apparatus, and computer device and storage medium
CN110490109B (en) Monocular vision-based online human body rehabilitation action recognition method
CN111191599A (en) Gesture recognition method, device, equipment and storage medium
WO2019114726A1 (en) Image recognition method and device, electronic apparatus, and readable storage medium
CN110263768A (en) A kind of face identification method based on depth residual error network
CN110717392B (en) Sitting posture detection and correction method and device
JP7422456B2 (en) Image processing device, image processing method and program
CN110688929A (en) Human skeleton joint point positioning method and device
CN109117753A (en) Position recognition methods, device, terminal and storage medium
CN112597814A (en) Improved Openpos classroom multi-person abnormal behavior and mask wearing detection method
CN110147833A (en) Facial image processing method, apparatus, system and readable storage medium storing program for executing
CN112200138B (en) Classroom learning situation analysis method based on computer vision
CN113920326A (en) Tumble behavior identification method based on human skeleton key point detection
US8817125B2 (en) Gesture recognition using chroma-keying
CN113239220A (en) Image recommendation method and device, terminal and readable storage medium
Goyal et al. Yoga pose perfection using deep learning: An algorithm to estimate the error in yogic poses
CN112329571B (en) Self-adaptive human body posture optimization method based on posture quality evaluation
CN109986553B (en) Active interaction robot, system, method and storage device
CN109993116A (en) A kind of pedestrian mutually learnt based on skeleton recognition methods again
KR102591325B1 (en) Apparatus and Method for Estimating Human Pose
Zhou et al. Pose comparison based on part affinity fields
CN114092863A (en) Human body motion evaluation method for multi-view video image

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant