KR102459293B1 - Method and apparatus for generating mesh model of human or quadrupeds - Google Patents

Method and apparatus for generating mesh model of human or quadrupeds Download PDF

Info

Publication number
KR102459293B1
KR102459293B1 KR1020220049068A KR20220049068A KR102459293B1 KR 102459293 B1 KR102459293 B1 KR 102459293B1 KR 1020220049068 A KR1020220049068 A KR 1020220049068A KR 20220049068 A KR20220049068 A KR 20220049068A KR 102459293 B1 KR102459293 B1 KR 102459293B1
Authority
KR
South Korea
Prior art keywords
mesh model
model parameter
neural network
artificial neural
parameter estimation
Prior art date
Application number
KR1020220049068A
Other languages
Korean (ko)
Inventor
심성대
오태현
김유왕
김지연
민지홍
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020220049068A priority Critical patent/KR102459293B1/en
Application granted granted Critical
Publication of KR102459293B1 publication Critical patent/KR102459293B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T3/0093
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

According to an embodiment, a method of generating a mesh model performed by an apparatus for generating a mesh model of humans or quadrupeds includes the steps of: extracting a feature vector of an object present in an observation image; classifying a class for the object based on the feature vector; obtaining a 3D linear mesh model parameter of quadrupeds as an output of an artificial neural network for estimating a first mesh model parameter by inputting the feature vector to the pre-learned artificial neural network for estimating the first mesh model parameter; obtaining a 3D linear mesh model parameter of a human as an output of an artificial neural network for estimating a second mesh model parameter by inputting the feature vector to the pre-learned artificial neural network for estimating the second mesh model parameter; selecting one of the 3D linear mesh model parameter of the quadrupeds and the 3D linear mesh model parameter of the human according to a result of classifying the species of the object; and generating a 3D mesh model by using the selected 3D linear mesh model parameter. The present invention can estimate the 3D posture and shape of as many species as possible.

Description

사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치 및 방법{METHOD AND APPARATUS FOR GENERATING MESH MODEL OF HUMAN OR QUADRUPEDS}Apparatus and method for generating mesh models for humans or quadrupedal animals

본 발명은 사람 또는 4족 보행 동물에 대한 메쉬 모델을 생성하는 장치와 이러한 장치가 사람 또는 4족 보행 동물에 대한 메쉬 모델을 생성하는 방법에 관한 것이다.The present invention relates to an apparatus for generating a mesh model for a human or a quadrupedal animal, and a method for such an apparatus to generate a mesh model for a human or a quadrupedal animal.

영상 내 사람, 동물 등의 객체에 대한 3차원 자세 및 형상 추정은 영상 내 등장하는 객체를 인식하고, 각각의 객체에 해당하는 3차원 메쉬, 3차원 자세를 추정하는 것을 목표로 한다. 기존에 존재하는 방법은 사람 단일 종에 대한 3차원 자세 및 형상 추정, 혹은 동물 단일 (혹은 소수) 종에 대한 3차원 자세 및 형상 추정에 국한되어 있다. 이러한 제한적인 종에 대한 3차원 자세 및 형상 추정은 실제 산업에 적용될 때 한계점이 존재한다. 요컨대 자율주행차량은 사람과 동물의 주행로가 구분되지 않은 비포장로 주행 시 예측하지 못한 돌발 물체에 대한 회피 기동 기술이 반드시 고려되어야 한다. 실제로, 3D LiDAR 기반 전방충돌방지(FCA),교차로 상의 전방충돌방지(FCA-JT) 등의 회피 기동이 연구되어 최근 판매된 자율주행차량 모델에 탑재되기도 하였다. 다만, 기존의 방법들은 기존에 학습된 보행자 정보들을 학습에 사용하여 보행자 이외의 야생동물 등 미리 학습되지 않은 객체에 대한 대응에 한계가 존재한다.The three-dimensional posture and shape estimation for objects such as people and animals in an image aims to recognize an object appearing in the image, and to estimate a three-dimensional mesh and three-dimensional posture corresponding to each object. Existing methods are limited to three-dimensional posture and shape estimation for a single human species or three-dimensional posture and shape estimation for a single (or few) animal species. The three-dimensional pose and shape estimation for these limited species has limitations when applied to actual industry. In short, for autonomous vehicles, when driving on an unpaved road where human and animal driving routes are not separated, avoidance maneuvering technology for unexpected unexpected objects must be considered. In fact, evasive maneuvers such as 3D LiDAR-based forward collision avoidance (FCA) and crossroads forward collision avoidance (FCA-JT) have been studied and installed in recently sold autonomous vehicle models. However, existing methods have limitations in responding to unlearned objects such as wild animals other than pedestrians by using previously learned pedestrian information for learning.

한국등록특허 제10-2338491호, 등록일 2021년 12월 8일.Korean Patent Registration No. 10-2338491, registration date December 8, 2021.

일 실시예에 따르면, 관측 영상에 존재하는 객체의 특징 벡터에 대하여 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 사람의 3차원 선형 메쉬 모델 파라미터를 모두 획득한 후 택일적으로 이용하여 3차원 메쉬 모델을 생성함으로써, 최대한 많은 종의 3차원 자세 및 형상을 추정할 수 있도록 하는 메쉬 모델 생성 방법 및 장치를 제공한다.According to an embodiment, with respect to a feature vector of an object present in an observation image, all three-dimensional linear mesh model parameters of a quadruped animal and three-dimensional linear mesh model parameters of a human are acquired and then selectively used to obtain a three-dimensional mesh A method and apparatus for generating a mesh model are provided for estimating the three-dimensional posture and shape of as many species as possible by generating the model.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

제 1 관점에 따라, 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치가 수행하는 메쉬 모델 생성 방법은, 관측 영상에 존재하는 객체의 특징 벡터를 추출하는 단계와, 상기 특징 벡터에 기초하여 상기 객체에 대하여 종(class)을 분류하는 단계와, 상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와, 상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와, 상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하는 단계와, 상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성하는 단계를 포함한다.According to a first aspect, a method for generating a mesh model performed by an apparatus for generating a mesh model for a human or a quadrupedal animal includes extracting a feature vector of an object existing in an observation image, and the object based on the feature vector. Classifying a class with respect to , and inputting the feature vector into a pre-trained first mesh model parameter estimation artificial neural network as an output of the first mesh model parameter estimation artificial neural network three-dimensional linearity of a quadruped animal obtaining a mesh model parameter; and inputting the feature vector into a pre-trained second mesh model parameter estimation artificial neural network to obtain a human three-dimensional linear mesh model parameter as an output of the second mesh model parameter estimation artificial neural network step, selecting any one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human according to the result of classifying the species with respect to the object; and generating a three-dimensional mesh model using the linear mesh model parameters.

제 2 관점에 따른, 메쉬 모델 생성 장치는, 관측 영상을 획득하는 영상 획득부와, 인공신경망을 이용한 연산을 통해 상기 관측 영상에 존재하는 객체의 3차원 선형 메쉬 모델 파라미터를 추정하는 인공신경망 연산부와, 상기 추정된 3차원 선형 메쉬 모델 파라미터를 포함하는 데이터를 처리하는 데이터 처리부를 포함하고, 상기 인공신경망 연산부는, 상기 영상 획득부에 의해 획득된 상기 관측 영상에 존재하는 객체의 특징 벡터를 추출하고, 상기 특징 벡터에 기초하여 상기 객체에 대하여 종을 분류하며, 상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하고, 상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하며, 상기 데이터 처리부는, 상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하고, 상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성한다.According to a second aspect, an apparatus for generating a mesh model includes an image acquisition unit for acquiring an observed image, and an artificial neural network operation unit for estimating a three-dimensional linear mesh model parameter of an object existing in the observed image through an operation using an artificial neural network; , a data processing unit for processing data including the estimated three-dimensional linear mesh model parameter, wherein the artificial neural network operation unit extracts a feature vector of an object present in the observed image obtained by the image acquisition unit, , classifying the species for the object based on the feature vector, inputting the feature vector into a pre-trained first mesh model parameter estimation artificial neural network, and as an output of the first mesh model parameter estimation artificial neural network, a quadruped animal obtain the 3D linear mesh model parameters of , and input the feature vectors to the pre-trained second mesh model parameter estimation artificial neural network to obtain the human 3-dimensional linear mesh model parameters as the output of the second mesh model parameter estimation artificial neural network. obtaining, and the data processing unit selects any one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human according to the result of classifying the species with respect to the object, A 3D mesh model is generated using the 3D linear mesh model parameters.

제 3 관점에 따른 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체는, 상기 컴퓨터 프로그램이, 상기 메쉬 모델 생성 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.The computer-readable recording medium storing the computer program according to the third aspect includes instructions for causing the computer program to cause a processor to perform the mesh model generating method.

제 4 관점에 따른 컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램은, 상기 컴퓨터 프로그램이, 상기 메쉬 모델 생성 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.The computer program stored in the computer-readable recording medium according to the fourth aspect includes instructions for the computer program to cause a processor to perform the mesh model generating method.

실시예에 따르면, 관측 영상에 존재하는 객체의 특징 벡터에 대하여 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 사람의 3차원 선형 메쉬 모델 파라미터를 모두 획득한 후 택일적으로 이용하여 3차원 메쉬 모델을 생성함으로써, 최대한 많은 종의 3차원 자세 및 형상을 추정할 수 있다. 이렇게 최대한 많은 종의 3차원 자세 및 형상을 추정할 수 있기 때문에, 자율주행 차량의 주행 시 회피기동, 일반적인 동물의 행동 분석, 미래 경로 예측 등에 활용이 가능하다. 또한 사전에 학습되지는 않았지만 사람, 개, 소, 말과 형태학적으로 유사한 새로운 2족/4족 보행 객체가 나타났을 때 사전 학습된 종들의 공통 형상 특징을 활용한 3차원 자세 및 형상 추정이 가능하다. 또한 증강현실(AR), 가상현실(VR), 메타버스, 그래픽스 등으로의 응용이 가능하여 많은 컴퓨터 비전 관련 연구에 적용이 가능하다.According to the embodiment, with respect to the feature vector of the object present in the observation image, both the 3D linear mesh model parameter of a quadruped animal and the 3D linear mesh model parameter of a human are acquired and then selectively used as a 3D mesh model By creating , it is possible to estimate the three-dimensional posture and shape of as many species as possible. Since it is possible to estimate the three-dimensional postures and shapes of as many species as possible, it can be used for evasive maneuvers when driving an autonomous vehicle, general animal behavior analysis, and future route prediction. In addition, when a new bipedal or quadrupedal walking object that has not been learned in advance but morphologically similar to a human, dog, cow, or horse appears, it is possible to estimate the three-dimensional posture and shape using the common shape features of the pre-learned species. do. In addition, it can be applied to augmented reality (AR), virtual reality (VR), metaverse, graphics, etc., so it can be applied to many computer vision-related research.

도 1은 본 발명의 일 실시예에 따른 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치의 구성도이다.
도 2는 도 1에 도시된 인공신경망 연산부의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치가 수행하는 메쉬 모델 생성 방법을 설명하기 위한 흐름도이다.
도 4는 4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부-관절(sub-keypoint)을 매칭시킨 예를 나타낸 도면이다.
1 is a block diagram of an apparatus for generating a mesh model for a human or a quadrupedal animal according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of an artificial neural network calculating unit shown in FIG. 1 .
3 is a flowchart illustrating a mesh model generating method performed by the mesh model generating apparatus for a human or quadrupedal animal according to an embodiment of the present invention.
4 is a diagram illustrating an example of matching sub-joints (sub-keypoints) common to a quadrupedal animal mesh model and a human mesh model.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

본 명세서에서 각 필름, 윈도우, 패널, 구조체, 또는 층 등이 각 필름, 윈도우, 패널, 구조체, 또는 층 등의 "상(on)" 또는 "하(under)"에 형성되는 것으로 기재되는 경우에 있어, "상(on)"과 "하(under)"는 "직접(directly)" 또는 "다른 구성요소를 게재하여(indirectly)" 형성되는 것을 모두 포함한다.Where each film, window, panel, structure, or layer, etc. is described herein as being formed "on" or "under" each film, window, panel, structure, or layer, etc. As such, the terms “on” and “under” include both “directly” or “indirectly” being formed.

또한 각 구성요소의 상/하에 대한 기준은 도면을 기준으로 설명한다. 도면에서의 각 구성요소들의 크기는 설명을 위하여 과장될 수 있으며, 실제로 적용되는 크기를 의미하는 것은 아니다. 또한, 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.In addition, the reference for the upper / lower of each component will be described with reference to the drawings. The size of each component in the drawings may be exaggerated for explanation, and does not mean the size actually applied. Also, like reference numerals refer to like elements throughout.

명세서 전체에서 어떤 부분이 어떤 구성요소를 ‘포함’한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. In the entire specification, when a part 'includes' a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated.

본 명세서에서 단수 표현은 특별한 설명이 없으면 문맥상 해석되는 단수 또는 복수를 포함하는 의미로 해석된다.In the present specification, unless otherwise specified, the expression "a" is construed as meaning including the singular or the plural as interpreted in context.

또한, 본 명세서에 기재된 구성성분의 양, 반응 조건 등을 나타내는 모든 숫자 및 표현은 특별한 기재가 없는 한 모든 경우에 “약”이라는 용어로써 수식되는 것으로 이해하여야 한다.In addition, it should be understood that all numbers and expressions indicating amounts of components, reaction conditions, etc. described herein are modified by the term "about" in all cases unless otherwise specified.

본 명세서에서 제1, 제2 등의 용어는 다양한 구성 요소를 설명하기 위해 사용되는 것이고, 상기 구성 요소들은 상기 용어에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로 구별하는 목적으로 사용된다.In this specification, terms such as first, second, etc. are used to describe various components, and the components should not be limited by the terms. The above terms are used for the purpose of distinguishing one component from another component.

또한, 명세서에서 사용되는 ‘부’라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, ‘부’는 어떤 역할들을 수행한다. 그렇지만 ‘부’는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. ‘부’는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 ‘부’는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 ‘부’들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 ‘부’들로 결합되거나 추가적인 구성요소들과 ‘부’들로 더 분리될 수 있다.In addition, the term 'unit' used in the specification means software or hardware components such as FPGA or ASIC, and 'unit' performs certain roles. However, “part” is not meant to be limited to software or hardware. The 'unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and ‘parts’ may be combined into a smaller number of components and ‘parts’ or further divided into additional components and ‘parts’.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the embodiments of the present invention. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description will be omitted.

도 1은 본 발명의 일 실시예에 따른 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치의 구성도이고, 도 2는 도 1에 도시된 인공신경망 연산부의 구성도이다.1 is a block diagram of an apparatus for generating a mesh model for a human or a quadrupedal animal according to an embodiment of the present invention, and FIG. 2 is a block diagram of an artificial neural network operation unit shown in FIG. 1 .

도 1 및 도 2를 참조하면, 메쉬 모델 생성 장치(100)는 영상 획득부(110), 인공신경망 연산부(120) 및 데이터 처리부(130)를 포함한다.1 and 2 , the mesh model generating apparatus 100 includes an image acquisition unit 110 , an artificial neural network operation unit 120 , and a data processing unit 130 .

영상 획득부(110)는 관측 영상을 획득하여 인공신경망 연산부(120)에 제공한다.The image acquisition unit 110 obtains an observation image and provides it to the artificial neural network operation unit 120 .

인공신경망 연산부(120)는 인공신경망을 이용한 연산을 통해 관측 영상에 존재하는 객체의 3차원 선형 메쉬 모델 파라미터를 추정한다. 이러한 인공신경망 연산부(120)는 영상 획득부(110)에 의해 획득된 관측 영상에 존재하는 객체의 특징 벡터를 추출하고, 특징 벡터에 기초하여 객체에 대하여 종을 분류하며, 특징 벡터를 기 학습된 동물용 메쉬 모델 파라미터 추정 인공신경망에 입력하여 동물용 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하고, 상기 특징 벡터를 기 학습된 사람용 메쉬 모델 파라미터 추정 인공신경망에 입력하여 사람용 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하며, 객체에 대한 종 분류 결과와 획득된 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터 및 사람의 3차원 선형 메쉬 모델 파라미터를 데이터 처리부(130)에 제공한다.The artificial neural network calculation unit 120 estimates the 3D linear mesh model parameter of the object present in the observed image through calculation using the artificial neural network. The artificial neural network operation unit 120 extracts a feature vector of an object existing in the observed image acquired by the image acquisition unit 110 , classifies a species for the object based on the feature vector, and uses the feature vector previously learned. estimating mesh model parameters for animals by inputting them into an artificial neural network to estimate the mesh model parameters for animals Obtaining the three-dimensional linear mesh model parameters of a quadrupedal animal as an output of the artificial neural network, and estimating the pre-trained mesh model parameters for humans using the feature vector Estimation of second mesh model parameters for humans by input to the artificial neural network Obtain the human 3D linear mesh model parameters as the output of the artificial neural network, and obtain the species classification results for objects and the obtained 3D linear mesh model parameters of the quadruped animal and human 3D linear mesh model parameters are provided to the data processing unit 130 .

여기서, 인공신경망 연산부(120) 내 동물용 메쉬 모델 파라미터 추정 인공신경망과 사람용 메쉬 모델 파라미터 추정 인공신경망의 학습 시에, 4족 보행 동물과 사람에 대한 전체 관절의 정확성을 평가하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된 것일 수 있다. 또한, 4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부-관절을 매칭시켜서 형태학적 유사성을 학습하는 방향으로 네트워크 파라미터가 학습된 것일 수 있다. 또한, 동물용 메쉬 모델 파라미터 추정 인공신경망과 사람용 메쉬 모델 파라미터 추정 인공신경망이 관측 영상의 동일 프레임으로부터 각각 계산된 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된 것일 수 있다. 또한, 동물용 메쉬 모델 파라미터 추정 인공신경망의 학습 시에, 학습 데이터 세트에 포함된 레이블이 이용된 4족 보행 동물의 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣과 동물용 메쉬 모델 파라미터 추정 인공신경망이 출력한 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 이용된 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣이 최대한 많이 겹치는 방향으로 네트워크 파라미터가 학습된 것일 수 있다. 또한, 동물용 메쉬 모델 파라미터 추정 인공신경망의 학습 시에, 동물용 메쉬 모델 파라미터 추정 인공신경망이 출력하는 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 동물 종 별로 분포 특성이 달라지는 것을 규제(regularize)하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습될 수 있다. 예를 들어, 인공신경망 연산부(120) 내 동물용 메쉬 모델 파라미터 추정 인공신경망과 사람용 메쉬 모델 파라미터 추정 인공신경망은 앞서 열거한 손실 함수들이 하나 이상 반영된 전체 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습될 수 있다.Here, when learning the artificial neural network for animal mesh model parameter estimation artificial neural network and the human mesh model parameter estimation artificial neural network in the artificial neural network operation unit 120 , a loss function for evaluating the accuracy of the entire joint for quadrupedal animals and humans is reduced. It may be that the network parameters are learned in the direction. Also, the network parameters may be learned in the direction of learning morphological similarity by matching the sub-joints that the quadrupedal animal mesh model and the human mesh model have in common. In addition, the mesh model parameter estimation artificial neural network for animals and the artificial neural network for human mesh model parameter estimation may have learned network parameters in a direction to reduce a loss function calculated from the same frame of an observation image, respectively. In addition, when training an artificial neural network for estimating mesh model parameters for animals, when a three-dimensional linear mesh model of a quadruped animal using a label included in the training data set is projected as a two-dimensional image coordinate system, a silhouette and an animal mesh model When the 3D linear mesh model using the 3D linear mesh model parameters of the quadrupedal animal output by the artificial neural network is projected into the 2D image coordinate system, the network parameters may be learned in the direction where the silhouettes overlap as much as possible. . In addition, during training of the artificial neural network for estimating mesh model parameters for animals, it is regulated (regularize) that the distribution characteristics of the three-dimensional linear mesh model parameters of quadruped animals output by the artificial neural network for estimating the mesh model parameters for animals vary by animal species. Network parameters can be learned in the direction of reducing the loss function. For example, the mesh model parameter estimation artificial neural network for animals and the mesh model parameter estimation artificial neural network for humans in the artificial neural network operation unit 120 network parameters are learned in the direction of reducing the overall loss function in which one or more of the loss functions listed above are reflected. can

데이터 처리부(130)는 객체에 대하여 종을 분류한 결과에 따라 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하고, 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성한다.The data processing unit 130 selects any one of a three-dimensional linear mesh model parameter of a quadrupedal animal and a three-dimensional linear mesh model parameter of a human according to the result of classifying the species for the object, and selects the selected three-dimensional linear mesh model Create a 3D mesh model using parameters.

도 3은 본 발명의 일 실시예에 따른 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치(100)가 수행하는 메쉬 모델 생성 방법을 설명하기 위한 흐름도이고, 도 4는 4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부-관절을 매칭시킨 예를 나타낸 도면이다.3 is a flowchart illustrating a mesh model generation method performed by the apparatus 100 for generating a mesh model for a human or a quadruped animal according to an embodiment of the present invention, and FIG. 4 is a mesh model and a quadrupedal animal mesh model. It is a diagram showing an example of matching sub-joints common to human mesh models.

이하, 도 1 내지 도 4를 참조하여 본 발명의 일 실시예에 따른 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치(100)가 수행하는 메쉬 모델 생성 방법에 대해 설명하기로 한다.Hereinafter, a mesh model generating method performed by the mesh model generating apparatus 100 for a human or quadrupedal animal according to an embodiment of the present invention will be described with reference to FIGS. 1 to 4 .

먼저, 메쉬 모델 생성 장치(100)의 영상 획득부(110)는 관측 영상을 획득하여 메쉬 모델 생성 장치(100)의 인공신경망 연산부(120)에 제공한다.First, the image acquisition unit 110 of the mesh model generation apparatus 100 obtains an observation image and provides it to the artificial neural network operation unit 120 of the mesh model generation apparatus 100 .

그러면, 인공신경망 연산부(120)는 관측 영상에 존재하는 객체에 대한 종 분류 결과와 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터 및 사람의 3차원 선형 메쉬 모델 파라미터를 데이터 처리부(130)에 제공한다.Then, the artificial neural network calculation unit 120 provides the species classification result for the object present in the observed image, the 3D linear mesh model parameter of the quadruped animal, and the 3D linear mesh model parameter of the human to the data processing unit 130 . .

예를 들어, 인공신경망 연산부(120)는 도 2에 예시한 바와 같이 변형체 특징 추출기(deformable body feature extractor) 및 변형체 멀티태스크 브랜치(deformable body multi-task branch)를 포함할 수 있다. 이 경우에, 변형체 특징 추출기는 인공신경망을 이용해 관측 영상에 존재하는 객체의 특징 벡터

Figure 112022042556145-pat00001
를 추출하여 변형체 멀티태스크 브랜치에 제공할 수 있고(S310), 변형체 멀티태스크 브랜치는 인공신경망을 이용해 특징 벡터
Figure 112022042556145-pat00002
에 대한 종 분류 결과와 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터 및 사람의 3차원 선형 메쉬 모델 파라미터를 생성하여 데이터 처리부(130)에 제공할 수 있다. 예컨대, 변형체 멀티태스크 브랜치는 종 분류를 위한 인공신경망으로서 분류 알고리즘(classifier)을 포함할 수 있고, 메쉬 모델 파라미터의 추정을 위한 인공신경망으로서 동물용 회귀 알고리즘(skinned multi animal linear mesh model regressor) 및 사람용 회귀 알고리즘(skinned multi person linear mesh model regressor)을 포함할 수 있다.For example, the artificial neural network calculator 120 may include a deformable body feature extractor and a deformable body multi-task branch as illustrated in FIG. 2 . In this case, the deformable feature extractor uses an artificial neural network to obtain feature vectors of objects present in the observed image.
Figure 112022042556145-pat00001
can be extracted and provided to the variant multi-task branch (S310), and the variant multi-task branch is a feature vector using an artificial neural network.
Figure 112022042556145-pat00002
A species classification result for , a three-dimensional linear mesh model parameter of a quadrupedal animal, and a three-dimensional linear mesh model parameter of a human may be generated and provided to the data processing unit 130 . For example, the variant multitask branch may include a classifier as an artificial neural network for classifying a species, and a skinned multi animal linear mesh model regressor and a human as an artificial neural network for estimating mesh model parameters. It may include a skinned multi person linear mesh model regressor.

여기서, 인공신경망 연산부(120)의 변형체 멀티태스크 브랜치에 포함된 분류 알고리즘(classifier)은 특징 벡터

Figure 112022042556145-pat00003
에 대한 종 분류 결과를 출력한다. 예를 들어, 사람, 개, 말, 소 등을 분류할 수 있다(S320).Here, the classification algorithm (classifier) included in the deformable multitask branch of the artificial neural network operation unit 120 is a feature vector
Figure 112022042556145-pat00003
Output the species classification results for For example, people, dogs, horses, cattle, etc. may be classified (S320).

그리고, 인공신경망 연산부(120)의 변형체 멀티태스크 브랜치에 포함된 동물용 회귀 알고리즘은 특징 벡터

Figure 112022042556145-pat00004
에 대하여 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터로서 자세 파라미터
Figure 112022042556145-pat00005
및 형상 파라미터
Figure 112022042556145-pat00006
를 출력할 수 있다(S330).In addition, the regression algorithm for animals included in the deformable multitask branch of the artificial neural network operation unit 120 is a feature vector.
Figure 112022042556145-pat00004
Postural parameters as three-dimensional linear mesh model parameters for quadrupedal animals
Figure 112022042556145-pat00005
and shape parameters
Figure 112022042556145-pat00006
can be output (S330).

그리고, 인공신경망 연산부(120)의 변형체 멀티태스크 브랜치에 포함된 사람용 회귀 알고리즘은 특징 벡터

Figure 112022042556145-pat00007
에 대하여 사람의 3차원 선형 메쉬 모델 파라미터로서 자세 파라미터
Figure 112022042556145-pat00008
및 형상 파라미터,
Figure 112022042556145-pat00009
를 출력할 수 있다(S340).In addition, the human regression algorithm included in the deformable multitask branch of the artificial neural network operation unit 120 is a feature vector
Figure 112022042556145-pat00007
With respect to the human three-dimensional linear mesh model parameters, posture parameters
Figure 112022042556145-pat00008
and shape parameters;
Figure 112022042556145-pat00009
can be output (S340).

여기서, 단계 S320, 단계 S330 및 단계 S340은 도 3에 나타낸 바와 같이 병렬 처리될 수 있다. 또는 단계 S320, 단계 S330 및 단계 S340 중 두 개의 단계는 직렬 처리됨과 아울러 나머지 하나의 단계는 직렬 처리되는 단계들과 병렬 처리될 수 있다. 또는 단계 S320, 단계 S330 및 단계 S340은 모두 직렬 처리될 수도 있다.Here, steps S320, S330 and S340 may be processed in parallel as shown in FIG. 3 . Alternatively, two of steps S320, S330, and S340 may be serially processed and the other step may be processed in parallel with the serially processed steps. Alternatively, steps S320, S330, and S340 may all be serially processed.

그러면, 메쉬 모델 생성 장치(100)의 데이터 처리부(130)는 객체에 대하여 종을 분류한 결과에 따라 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하고(S350), 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성한다. 4족 보행 동물의 3차원 메쉬 모델은

Figure 112022042556145-pat00010
로 표현할 수 있고, 사람의 3차원 메쉬 모델은
Figure 112022042556145-pat00011
로 표현할 수 있다(S360).Then, the data processing unit 130 of the mesh model generating apparatus 100 selects any one of the three-dimensional linear mesh model parameter of a quadrupedal animal and the three-dimensional linear mesh model parameter of a human according to the result of classifying the species for the object. Select (S350), and generate a 3D mesh model using the selected 3D linear mesh model parameter. A three-dimensional mesh model of a quadrupedal animal is
Figure 112022042556145-pat00010
It can be expressed as , and the human 3D mesh model is
Figure 112022042556145-pat00011
It can be expressed as (S360).

또한, 데이터 처리부(130)는 생성한 3차원 메쉬 모델을 2차원 이미지 상에 투영할 수 있고, 부수적인 결과물로 3차원 메쉬 모델의 정점(vertex)로부터 선형 결합으로 예측되는 3차원 관절 좌표와 2차원 관절 좌표도 획득할 수 있다.In addition, the data processing unit 130 may project the generated 3D mesh model onto a 2D image, and as an incidental result, 3D joint coordinates and 2 Dimensional joint coordinates can also be obtained.

한편, 인공신경망 연산부(120)는 종 분류와 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터 및 사람의 3차원 선형 메쉬 모델 파라미터의 추정을 위해 사전에 학습된 것일 수 있다. 이러한 인공신경망 연산부(120)의 학습 과정에서는 수학식 1에 예시한 전체 손실 함수

Figure 112022042556145-pat00012
를 줄이는 방향으로 네트워크 파라미터가 학습될 수 있다.Meanwhile, the artificial neural network operation unit 120 may be pre-trained for species classification and estimation of the 3D linear mesh model parameter of a quadrupedal animal and the 3D linear mesh model parameter of a human. In the learning process of the artificial neural network operation unit 120, the total loss function exemplified in Equation 1
Figure 112022042556145-pat00012
Network parameters can be learned in a direction to reduce .

[수학식 1][Equation 1]

Figure 112022042556145-pat00013
Figure 112022042556145-pat00013

Figure 112022042556145-pat00014
는 사람, 4족 보행 동물에 대한 전체 관절의 정확성을 평가하는 손실 함수이다. 사람의 3차원 메쉬 모델
Figure 112022042556145-pat00015
, 4족 보행 동물의 3차원 메쉬 모델
Figure 112022042556145-pat00016
의 정점(vertex)들의 선형 결합으로 3차원 관절을 구할 수 있고, 이를 영상으로부터 예측된 카메라 파라미터를 통해 사영하면 2차원 관절 좌표를 얻을 수 있다. 데이터셋으로부터 주어진 정답(ground-truth) 2차원 관절 좌표를 사람, 동물에 대하여 각각
Figure 112022042556145-pat00017
,
Figure 112022042556145-pat00018
라고 하고, 3차원 메쉬 모델로부터 예측된 2차원 관절 좌표를 사람, 동물 각각에 대하여
Figure 112022042556145-pat00019
,
Figure 112022042556145-pat00020
라고 할 경우, 정답 관절 좌표와 예측한 관절 좌표의 유클리드 거리(euclidean distance)로 계산된다.
Figure 112022042556145-pat00014
is a loss function that evaluates the overall joint accuracy for humans and quadrupeds. 3D mesh model of the human
Figure 112022042556145-pat00015
, a three-dimensional mesh model of a quadrupedal animal
Figure 112022042556145-pat00016
A
3D joint can be obtained by linear combination of the vertices of The ground-truth two-dimensional joint coordinates given from the dataset are calculated for humans and animals, respectively.
Figure 112022042556145-pat00017
,
Figure 112022042556145-pat00018
, and the two-dimensional joint coordinates predicted from the three-dimensional mesh model are calculated for each person and animal.
Figure 112022042556145-pat00019
,
Figure 112022042556145-pat00020
, it is calculated as the Euclidean distance between the correct joint coordinates and the predicted joint coordinates.

Figure 112022042556145-pat00021
,
Figure 112022042556145-pat00022
는 사람, 동물의 전체 관절 중 보이는 관절의 개수
Figure 112022042556145-pat00023
,
Figure 112022042556145-pat00024
는 입력 영상에서
Figure 112022042556145-pat00025
번째 관절이 보이는지 여부를 나타내는 플래그 이다.
Figure 112022042556145-pat00021
,
Figure 112022042556145-pat00022
is the number of visible joints among all joints in humans and animals.
Figure 112022042556145-pat00023
,
Figure 112022042556145-pat00024
is from the input image.
Figure 112022042556145-pat00025
A flag indicating whether the second joint is visible.

[수학식 2][Equation 2]

Figure 112022042556145-pat00026
Figure 112022042556145-pat00026

[수학식 3][Equation 3]

Figure 112022042556145-pat00027
Figure 112022042556145-pat00027

Figure 112022042556145-pat00028
은 위와 같이 정답과 예측한 관절 좌표 간의 거리를 나타내지만, 전체 관절이 아니라 도 4에 예시한 바와 같이 정의한 부-관절 사이의 거리를 측정한다. 사람 이미지의 경우, 동물의 관절에 대한 정답이 존재하지 않고, 반대로 동물 이미지의 경우 사람 관절에 대한 정답이 존재하지 않는다. 실시예에 따르면, 사람과 4족 보행 동물의 형태학적 유사성을 학습하기 위해 한 영상 프레임으로부터 사람, 동물의 3차원 메쉬 모델을 모두 구성하게 되는데, 도 2의 예시에서는 말의 관측 프레임이 들어왔으므로, 사람의 3차원 메쉬 모델에 대한 구성을 잘 하였는지 판단하기 힘들다. 따라서 적어도 사람의 3차원 메쉬 모델이 동물과 공통적으로 가지고 있는 머리, 손 끝, 발 끝 등의 부-관절을 맞추도록 네트워크가 학습되면, 하나의 영상 프레임으로부터 모든 멀티태스크 브랜치에서 손실 함수를 계산할 수 있고, 따라서 모든 멀티태스크 브랜치로의 경사(gradient) 흐름이 생기게 되므로, 버리는 학습 데이터 없이 데이터 효율적인 지도학습이 가능하다.
Figure 112022042556145-pat00028
represents the distance between the correct answer and the predicted joint coordinates as above, but measures the distance between the sub-joints defined as illustrated in FIG. 4 rather than the entire joint. In the case of a human image, there is no correct answer for the joint of an animal. According to the embodiment, in order to learn the morphological similarity between humans and quadrupeds, all three-dimensional mesh models of humans and animals are constructed from one image frame. , it is difficult to judge whether the human 3D mesh model is well constructed. Therefore, if the network is trained to fit the sub-joints such as the head, fingertips, and toes that at least the human 3D mesh model has in common with animals, it is possible to calculate the loss function in all multitask branches from one image frame. As a result, there is a gradient flow to all multi-task branches, so data-efficient supervised learning is possible without discarding training data.

Figure 112022042556145-pat00029
은 수학식 4와 같이 나타낼 수 있고, 동물 이미지에 대하여, 예측한 3차원 메쉬 모델을 구성한 후 이를 2차원 영상 좌표계로 사영했을 때 3차원 메쉬 모델이 차지하는 실루엣이 실제 영상의 실루엣과 같아야 함을 지도해 주는 손실 함수이다. 동물 데이터셋에 대하여 주어진 정답 실루엣
Figure 112022042556145-pat00030
과 3차원 메쉬 모델을 통해서 예측된 실루엣
Figure 112022042556145-pat00031
의 겹치는 정도가 클수록 값이 작아지도록 설계되었다.
Figure 112022042556145-pat00029
can be expressed as Equation 4, and when a predicted 3D mesh model is constructed for an animal image and then projected as a 2D image coordinate system, the silhouette occupied by the 3D mesh model should be the same as the silhouette of the actual image. It is a loss function that gives Correct answer silhouette given for animal dataset
Figure 112022042556145-pat00030
and the silhouette predicted through the 3D mesh model
Figure 112022042556145-pat00031
It was designed so that the larger the degree of overlap, the smaller the value.

[수학식 4][Equation 4]

Figure 112022042556145-pat00032
Figure 112022042556145-pat00032

또한, 4족 보행 동물의 3차원 메쉬 모델의 경우, 동물 종에 대해서 형상 파라미터

Figure 112022042556145-pat00033
가 다른 분포를 가지게 설계 되었는데, 입력 영상에 들어온 동물의 종에 따라 네트워크로부터 예측된 형상 파라미터를 규제하는(regularize) 종-선택적 형상 파라미터 손실 함수를 디자인 하였다. 동물 종을
Figure 112022042556145-pat00034
, 그리고 각
Figure 112022042556145-pat00035
종에 대한 형상 파라미터 분포의 평균과 공분산 행렬을
Figure 112022042556145-pat00036
,
Figure 112022042556145-pat00037
라고 했을 때, 종-선택적 형상 파라미터 손실 함수는 수학식 5와 같은 마할라노비스 거리(mahalanobis distance) 개념으로 계산된다. 이때
Figure 112022042556145-pat00038
는 영상에 대한 정답 종, 그리고
Figure 112022042556145-pat00039
는 참이면 1, 거짓이면 0을 반환하는 함수이다.In addition, in the case of a three-dimensional mesh model of a quadrupedal animal, the shape parameters for the animal species
Figure 112022042556145-pat00033
was designed to have a different distribution, and a species-selective shape parameter loss function was designed to regularize the shape parameters predicted from the network according to the species of animals that entered the input image. animal species
Figure 112022042556145-pat00034
, and each
Figure 112022042556145-pat00035
Calculate the mean and covariance matrices of the distribution of shape parameters for the species.
Figure 112022042556145-pat00036
,
Figure 112022042556145-pat00037
, the species-selective shape parameter loss function is calculated with the concept of mahalanobis distance as in Equation 5. At this time
Figure 112022042556145-pat00038
is the correct species for the image, and
Figure 112022042556145-pat00039
is a function that returns 1 if true and 0 if false.

[수학식 5][Equation 5]

Figure 112022042556145-pat00040
Figure 112022042556145-pat00040

인공신경망 연산부(120)는 앞서 열거한 손실 함수들이 하나 이상 또는 모두 반영된 전체 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습될 수 있다.The artificial neural network operation unit 120 may learn the network parameters in a direction to reduce the overall loss function in which one or more or all of the loss functions listed above are reflected.

한편, 전술한 일 실시예에 따라, 메쉬 모델 생성 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 하기 위한 명령어를 포함하는 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체에서 구현될 수 있다.Meanwhile, according to the above-described embodiment, each step included in the method for generating a mesh model may be implemented in a computer-readable recording medium for recording a computer program including instructions for performing such a step.

지금까지 설명한 바와 같이, 본 발명의 실시예에 따르면, 관측 영상에 존재하는 객체의 특징 벡터에 대하여 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 사람의 3차원 선형 메쉬 모델 파라미터를 모두 획득한 후 택일적으로 이용하여 3차원 메쉬 모델을 생성함으로써, 최대한 많은 종의 3차원 자세 및 형상을 추정할 수 있다.As described so far, according to an embodiment of the present invention, after obtaining both the 3D linear mesh model parameters of a quadruped animal and the 3D linear mesh model parameters of a human with respect to the feature vector of an object present in an observation image, By generating a three-dimensional mesh model using alternatively, the three-dimensional posture and shape of as many species as possible can be estimated.

본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step in each flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions performed by the processor of the computer or other programmable data processing equipment provide the functions described in each step of the flowchart. It creates a means to do these things. These computer program instructions may also be stored in a computer-usable or computer-readable medium that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable medium. The instructions stored in the recording medium are also capable of producing an article of manufacture including instruction means for performing the functions described in each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for performing the functions described in each step of the flowchart.

또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each step may represent a module, segment, or portion of code comprising one or more executable instructions for executing the specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in the steps to occur out of order. For example, it is possible that two steps shown one after another may in fact be performed substantially simultaneously, or that the steps may sometimes be performed in the reverse order depending on the function in question.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential quality of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100: 메쉬 모델 생성 장치
110: 영상 획득부
120: 인공신경망 연산부
130: 데이터 처리부
100: mesh model generator
110: image acquisition unit
120: artificial neural network computation unit
130: data processing unit

Claims (14)

사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치가 수행하는 메쉬 모델 생성 방법으로서,
관측 영상에 존재하는 객체의 특징 벡터를 추출하는 단계와,
상기 특징 벡터에 기초하여 상기 객체에 대하여 종(class)을 분류하는 단계와,
상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하는 단계와,
상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성하는 단계를 포함하는
메쉬 모델 생성 방법.
A mesh model generating method performed by a mesh model generating apparatus for a human or a quadrupedal animal, comprising:
extracting a feature vector of an object existing in an observation image;
classifying a class for the object based on the feature vector;
inputting the feature vector into a pre-trained first mesh model parameter estimation artificial neural network to obtain a three-dimensional linear mesh model parameter of a quadrupedal animal as an output of the first mesh model parameter estimation artificial neural network;
obtaining a human 3D linear mesh model parameter as an output of the second mesh model parameter estimation artificial neural network by inputting the feature vector into a pre-trained second mesh model parameter estimation artificial neural network;
selecting one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human according to the result of classifying the species for the object;
generating a three-dimensional mesh model using the selected three-dimensional linear mesh model parameter;
How to create a mesh model.
제 1 항에 있어서,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
상기 4족 보행 동물과 상기 사람에 대한 전체 관절의 정확성을 평가하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 방법.
The method of claim 1,
When learning the first mesh model parameter estimation artificial neural network and the second mesh model parameter estimation artificial neural network,
The network parameters are learned in the direction of reducing the loss function that evaluates the accuracy of the entire joint for the quadruped animal and the person.
How to create a mesh model.
제 1 항에 있어서,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부-관절(sub-keypoint)을 매칭시켜서 형태학적 유사성을 학습하는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 방법.
The method of claim 1,
When learning the first mesh model parameter estimation artificial neural network and the second mesh model parameter estimation artificial neural network,
The network parameters are learned in the direction of learning morphological similarity by matching the sub-keypoints that the quadruped animal mesh model and the human mesh model have in common.
How to create a mesh model.
제 3 항에 있어서,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망이 상기 관측 영상의 동일 프레임으로부터 각각 계산된 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 방법.
4. The method of claim 3,
The first mesh model parameter estimating artificial neural network and the second mesh model parameter estimating artificial neural network learn network parameters in the direction of reducing the loss function calculated from the same frame of the observed image, respectively.
How to create a mesh model.
제 1 항에 있어서,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
학습 데이터 세트에 포함된 레이블이 이용된 4족 보행 동물의 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣과 상기 제 1 메쉬 모델 파라미터 추정 인공신경망이 출력한 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 이용된 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣이 최대한 많이 겹치는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 방법.
The method of claim 1,
When learning the first mesh model parameter estimation artificial neural network,
When a three-dimensional linear mesh model of a quadruped animal using a label included in the training data set is projected as a two-dimensional image coordinate system, the silhouette and the first mesh model parameter estimation 3D output by the artificial neural network When the 3D linear mesh model using the linear mesh model parameters is projected in the 2D image coordinate system, the network parameters are learned in the direction where the silhouettes overlap as much as possible.
How to create a mesh model.
제 1 항에 있어서,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망이 출력하는 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 동물 종 별로 분포 특성이 달라지는 것을 규제(regularize)하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 방법.
The method of claim 1,
When learning the first mesh model parameter estimation artificial neural network,
3D linear mesh model parameters of a quadrupedal animal output from the first mesh model parameter estimation artificial neural network are learned in a way that reduces a loss function that regularizes distribution characteristics for each animal species.
How to create a mesh model.
관측 영상을 획득하는 영상 획득부와,
인공신경망을 이용한 연산을 통해 상기 관측 영상에 존재하는 객체의 3차원 선형 메쉬 모델 파라미터를 추정하는 인공신경망 연산부와,
상기 추정된 3차원 선형 메쉬 모델 파라미터를 포함하는 데이터를 처리하는 데이터 처리부를 포함하고,
상기 인공신경망 연산부는,
상기 영상 획득부에 의해 획득된 상기 관측 영상에 존재하는 객체의 특징 벡터를 추출하고, 상기 특징 벡터에 기초하여 상기 객체에 대하여 종(class)을 분류하며, 상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하고, 상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하며,
상기 데이터 처리부는,
상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하고, 상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성하는
메쉬 모델 생성 장치.
An image acquisition unit for acquiring an observation image;
An artificial neural network calculation unit for estimating a three-dimensional linear mesh model parameter of an object existing in the observed image through an operation using an artificial neural network;
and a data processing unit for processing data including the estimated three-dimensional linear mesh model parameters,
The artificial neural network calculation unit,
Extracting a feature vector of an object existing in the observed image acquired by the image acquisition unit, classifying a class for the object based on the feature vector, and applying the feature vector to a pre-trained first mesh Input to the model parameter estimation artificial neural network to obtain the 3D linear mesh model parameters of the quadruped animal as the output of the first mesh model parameter estimation artificial neural network, and use the feature vector to estimate the second mesh model parameter pre-trained artificial neural network to obtain a human three-dimensional linear mesh model parameter as an output of the second mesh model parameter estimation artificial neural network,
The data processing unit,
According to the result of classifying the species for the object, one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human is selected, and the selected three-dimensional linear mesh model parameter is to create a 3D mesh model using
Mesh model generator.
제 7 항에 있어서,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
상기 4족 보행 동물과 상기 사람에 대한 전체 관절의 정확성을 평가하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 장치.
8. The method of claim 7,
When learning the first mesh model parameter estimation artificial neural network and the second mesh model parameter estimation artificial neural network,
The network parameters are learned in the direction of reducing the loss function that evaluates the accuracy of the entire joint for the quadruped animal and the person.
Mesh model generator.
제 7 항에 있어서,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부-관절(sub-keypoint)을 매칭시켜서 형태학적 유사성을 학습하는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 장치.
8. The method of claim 7,
When learning the first mesh model parameter estimation artificial neural network and the second mesh model parameter estimation artificial neural network,
The network parameters are learned in the direction of learning morphological similarity by matching the sub-keypoints that the quadruped animal mesh model and the human mesh model have in common.
Mesh model generator.
제 9 항에 있어서,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망이 상기 관측 영상의 동일 프레임으로부터 각각 계산된 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 장치.
10. The method of claim 9,
The first mesh model parameter estimating artificial neural network and the second mesh model parameter estimating artificial neural network learn network parameters in the direction of reducing the loss function calculated from the same frame of the observed image, respectively.
Mesh model generator.
제 7 항에 있어서,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
학습 데이터 세트에 포함된 레이블이 이용된 4족 보행 동물의 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣과 상기 제 1 메쉬 모델 파라미터 추정 인공신경망이 출력한 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 이용된 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣이 최대한 많이 겹치는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 장치.
8. The method of claim 7,
When learning the first mesh model parameter estimation artificial neural network,
When a three-dimensional linear mesh model of a quadruped animal using a label included in the training data set is projected as a two-dimensional image coordinate system, the silhouette and the first mesh model parameter estimation 3D output by the artificial neural network When the 3D linear mesh model using the linear mesh model parameters is projected in the 2D image coordinate system, the network parameters are learned in the direction where the silhouettes overlap as much as possible.
Mesh model generator.
제 7 항에 있어서,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망이 출력하는 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 동물 종 별로 분포 특성이 달라지는 것을 규제(regularize)하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 장치.
8. The method of claim 7,
When learning the first mesh model parameter estimation artificial neural network,
3D linear mesh model parameters of a quadrupedal animal output from the first mesh model parameter estimation artificial neural network are learned in a way that reduces a loss function that regularizes distribution characteristics for each animal species.
Mesh model generator.
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
관측 영상에 존재하는 객체의 특징 벡터를 추출하는 단계와,
상기 특징 벡터에 기초하여 상기 객체에 대하여 종(class)을 분류하는 단계와,
상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하는 단계와,
상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성하는 단계를 포함하는,
메쉬 모델 생성 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.
As a computer-readable recording medium storing a computer program,
The computer program, when executed by a processor,
extracting a feature vector of an object existing in an observation image;
classifying a class for the object based on the feature vector;
inputting the feature vector into a pre-trained first mesh model parameter estimation artificial neural network to obtain a three-dimensional linear mesh model parameter of a quadrupedal animal as an output of the first mesh model parameter estimation artificial neural network;
obtaining a human 3D linear mesh model parameter as an output of the second mesh model parameter estimation artificial neural network by inputting the feature vector into a pre-trained second mesh model parameter estimation artificial neural network;
selecting one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human according to the result of classifying the species for the object;
Generating a three-dimensional mesh model using the selected three-dimensional linear mesh model parameter,
A computer-readable recording medium comprising instructions for causing the processor to perform a mesh model generation method.
컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
관측 영상에 존재하는 객체의 특징 벡터를 추출하는 단계와,
상기 특징 벡터에 기초하여 상기 객체에 대하여 종(class)을 분류하는 단계와,
상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하는 단계와,
상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성하는 단계를 포함하는,
메쉬 모델 생성 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 프로그램.
As a computer program stored in a computer-readable recording medium,
The computer program, when executed by a processor,
extracting a feature vector of an object existing in an observation image;
classifying a class for the object based on the feature vector;
inputting the feature vector into a pre-trained first mesh model parameter estimation artificial neural network to obtain a three-dimensional linear mesh model parameter of a quadrupedal animal as an output of the first mesh model parameter estimation artificial neural network;
obtaining a human 3D linear mesh model parameter as an output of the second mesh model parameter estimation artificial neural network by inputting the feature vector into a pre-trained second mesh model parameter estimation artificial neural network;
selecting one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human according to the result of classifying the species for the object;
Generating a three-dimensional mesh model using the selected three-dimensional linear mesh model parameter,
A computer program comprising instructions for causing the processor to perform a method for generating a mesh model.
KR1020220049068A 2022-04-20 2022-04-20 Method and apparatus for generating mesh model of human or quadrupeds KR102459293B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220049068A KR102459293B1 (en) 2022-04-20 2022-04-20 Method and apparatus for generating mesh model of human or quadrupeds

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220049068A KR102459293B1 (en) 2022-04-20 2022-04-20 Method and apparatus for generating mesh model of human or quadrupeds

Publications (1)

Publication Number Publication Date
KR102459293B1 true KR102459293B1 (en) 2022-10-27

Family

ID=83810301

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220049068A KR102459293B1 (en) 2022-04-20 2022-04-20 Method and apparatus for generating mesh model of human or quadrupeds

Country Status (1)

Country Link
KR (1) KR102459293B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102052110B1 (en) * 2018-05-24 2019-12-04 군산대학교 산학협력단 A video surveillance apparatus for detecting agro-livestock theft based on deep learning and method thereof
KR102338491B1 (en) 2019-12-11 2021-12-13 한국전자기술연구원 Apparatus and Method for Image based 3D Human Posture and Shape Model Reconstruction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102052110B1 (en) * 2018-05-24 2019-12-04 군산대학교 산학협력단 A video surveillance apparatus for detecting agro-livestock theft based on deep learning and method thereof
KR102338491B1 (en) 2019-12-11 2021-12-13 한국전자기술연구원 Apparatus and Method for Image based 3D Human Posture and Shape Model Reconstruction

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Gengshan Yang, et al., "LASR: Learning Articulated Shape Reconstruction from a Monocular Video", Computer Vision and Pattern Recognition, 2021. *
Roman Shapovalov, et al., "DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to the Third Dimension", EEE/CVF International Conference on Computer Vision (ICCV), 2021 *

Similar Documents

Publication Publication Date Title
Kreiss et al. Openpifpaf: Composite fields for semantic keypoint detection and spatio-temporal association
Brunetti et al. Computer vision and deep learning techniques for pedestrian detection and tracking: A survey
Nguyen et al. Object-based affordances detection with convolutional neural networks and dense conditional random fields
US11126855B2 (en) Artificial-intelligence powered ground truth generation for object detection and tracking on image sequences
Biggs et al. Who left the dogs out? 3d animal reconstruction with expectation maximization in the loop
Oikonomidis et al. Tracking the articulated motion of two strongly interacting hands
Attia et al. Surgical tool segmentation using a hybrid deep CNN-RNN auto encoder-decoder
Geiger et al. 3d traffic scene understanding from movable platforms
JP7417555B2 (en) Human body pose analysis system and method
JP3441690B2 (en) How to Recognize Physical Objects Using Templates
WO2018162933A1 (en) Improved object recognition system
CN111860269B (en) Multi-feature fusion series RNN structure and pedestrian prediction method
JP5983243B2 (en) Detection device
Xu et al. D-STC: Deep learning with spatio-temporal constraints for train drivers detection from videos
Suleymanov et al. Online inference and detection of curbs in partially occluded scenes with sparse lidar
Browning et al. Cortical dynamics of navigation and steering in natural scenes: Motion-based object segmentation, heading, and obstacle avoidance
Nakamura et al. An effective combination of loss gradients for multi-task learning applied on instance segmentation and depth estimation
WO2021109118A1 (en) Object re-identification using pose part based models
KR102459293B1 (en) Method and apparatus for generating mesh model of human or quadrupeds
Falque et al. Semantic keypoint extraction for scanned animals using multi-depth-camera systems
Plachetka et al. The TUBS road user dataset: A new LiDAR dataset and its application to CNN-based road user classification for automated vehicles
Xue et al. Video-based animal behavior analysis from multiple cameras
Cui et al. Research on broiler health status recognition method based on improved YOLOv5
Zelman et al. Nearly automatic motion capture system for tracking octopus arm movements in 3D space
Amiri et al. A Real-Time collision detection system for vehicles

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant