KR102459293B1 - Method and apparatus for generating mesh model of human or quadrupeds - Google Patents
Method and apparatus for generating mesh model of human or quadrupeds Download PDFInfo
- Publication number
- KR102459293B1 KR102459293B1 KR1020220049068A KR20220049068A KR102459293B1 KR 102459293 B1 KR102459293 B1 KR 102459293B1 KR 1020220049068 A KR1020220049068 A KR 1020220049068A KR 20220049068 A KR20220049068 A KR 20220049068A KR 102459293 B1 KR102459293 B1 KR 102459293B1
- Authority
- KR
- South Korea
- Prior art keywords
- mesh model
- model parameter
- neural network
- artificial neural
- parameter estimation
- Prior art date
Links
- 241000282414 Homo sapiens Species 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013528 artificial neural network Methods 0.000 claims abstract description 92
- 239000013598 vector Substances 0.000 claims abstract description 40
- 241000894007 species Species 0.000 claims abstract description 29
- 241001465754 Metazoa Species 0.000 claims description 80
- 230000006870 function Effects 0.000 claims description 30
- 238000012545 processing Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 5
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 241000282412 Homo Species 0.000 abstract description 10
- 230000036544 posture Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 241000283690 Bos taurus Species 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 241000283086 Equidae Species 0.000 description 1
- 241000283073 Equus caballus Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G06K9/6267—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T3/0093—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 사람 또는 4족 보행 동물에 대한 메쉬 모델을 생성하는 장치와 이러한 장치가 사람 또는 4족 보행 동물에 대한 메쉬 모델을 생성하는 방법에 관한 것이다.The present invention relates to an apparatus for generating a mesh model for a human or a quadrupedal animal, and a method for such an apparatus to generate a mesh model for a human or a quadrupedal animal.
영상 내 사람, 동물 등의 객체에 대한 3차원 자세 및 형상 추정은 영상 내 등장하는 객체를 인식하고, 각각의 객체에 해당하는 3차원 메쉬, 3차원 자세를 추정하는 것을 목표로 한다. 기존에 존재하는 방법은 사람 단일 종에 대한 3차원 자세 및 형상 추정, 혹은 동물 단일 (혹은 소수) 종에 대한 3차원 자세 및 형상 추정에 국한되어 있다. 이러한 제한적인 종에 대한 3차원 자세 및 형상 추정은 실제 산업에 적용될 때 한계점이 존재한다. 요컨대 자율주행차량은 사람과 동물의 주행로가 구분되지 않은 비포장로 주행 시 예측하지 못한 돌발 물체에 대한 회피 기동 기술이 반드시 고려되어야 한다. 실제로, 3D LiDAR 기반 전방충돌방지(FCA),교차로 상의 전방충돌방지(FCA-JT) 등의 회피 기동이 연구되어 최근 판매된 자율주행차량 모델에 탑재되기도 하였다. 다만, 기존의 방법들은 기존에 학습된 보행자 정보들을 학습에 사용하여 보행자 이외의 야생동물 등 미리 학습되지 않은 객체에 대한 대응에 한계가 존재한다.The three-dimensional posture and shape estimation for objects such as people and animals in an image aims to recognize an object appearing in the image, and to estimate a three-dimensional mesh and three-dimensional posture corresponding to each object. Existing methods are limited to three-dimensional posture and shape estimation for a single human species or three-dimensional posture and shape estimation for a single (or few) animal species. The three-dimensional pose and shape estimation for these limited species has limitations when applied to actual industry. In short, for autonomous vehicles, when driving on an unpaved road where human and animal driving routes are not separated, avoidance maneuvering technology for unexpected unexpected objects must be considered. In fact, evasive maneuvers such as 3D LiDAR-based forward collision avoidance (FCA) and crossroads forward collision avoidance (FCA-JT) have been studied and installed in recently sold autonomous vehicle models. However, existing methods have limitations in responding to unlearned objects such as wild animals other than pedestrians by using previously learned pedestrian information for learning.
일 실시예에 따르면, 관측 영상에 존재하는 객체의 특징 벡터에 대하여 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 사람의 3차원 선형 메쉬 모델 파라미터를 모두 획득한 후 택일적으로 이용하여 3차원 메쉬 모델을 생성함으로써, 최대한 많은 종의 3차원 자세 및 형상을 추정할 수 있도록 하는 메쉬 모델 생성 방법 및 장치를 제공한다.According to an embodiment, with respect to a feature vector of an object present in an observation image, all three-dimensional linear mesh model parameters of a quadruped animal and three-dimensional linear mesh model parameters of a human are acquired and then selectively used to obtain a three-dimensional mesh A method and apparatus for generating a mesh model are provided for estimating the three-dimensional posture and shape of as many species as possible by generating the model.
본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.
제 1 관점에 따라, 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치가 수행하는 메쉬 모델 생성 방법은, 관측 영상에 존재하는 객체의 특징 벡터를 추출하는 단계와, 상기 특징 벡터에 기초하여 상기 객체에 대하여 종(class)을 분류하는 단계와, 상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와, 상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와, 상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하는 단계와, 상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성하는 단계를 포함한다.According to a first aspect, a method for generating a mesh model performed by an apparatus for generating a mesh model for a human or a quadrupedal animal includes extracting a feature vector of an object existing in an observation image, and the object based on the feature vector. Classifying a class with respect to , and inputting the feature vector into a pre-trained first mesh model parameter estimation artificial neural network as an output of the first mesh model parameter estimation artificial neural network three-dimensional linearity of a quadruped animal obtaining a mesh model parameter; and inputting the feature vector into a pre-trained second mesh model parameter estimation artificial neural network to obtain a human three-dimensional linear mesh model parameter as an output of the second mesh model parameter estimation artificial neural network step, selecting any one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human according to the result of classifying the species with respect to the object; and generating a three-dimensional mesh model using the linear mesh model parameters.
제 2 관점에 따른, 메쉬 모델 생성 장치는, 관측 영상을 획득하는 영상 획득부와, 인공신경망을 이용한 연산을 통해 상기 관측 영상에 존재하는 객체의 3차원 선형 메쉬 모델 파라미터를 추정하는 인공신경망 연산부와, 상기 추정된 3차원 선형 메쉬 모델 파라미터를 포함하는 데이터를 처리하는 데이터 처리부를 포함하고, 상기 인공신경망 연산부는, 상기 영상 획득부에 의해 획득된 상기 관측 영상에 존재하는 객체의 특징 벡터를 추출하고, 상기 특징 벡터에 기초하여 상기 객체에 대하여 종을 분류하며, 상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하고, 상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하며, 상기 데이터 처리부는, 상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하고, 상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성한다.According to a second aspect, an apparatus for generating a mesh model includes an image acquisition unit for acquiring an observed image, and an artificial neural network operation unit for estimating a three-dimensional linear mesh model parameter of an object existing in the observed image through an operation using an artificial neural network; , a data processing unit for processing data including the estimated three-dimensional linear mesh model parameter, wherein the artificial neural network operation unit extracts a feature vector of an object present in the observed image obtained by the image acquisition unit, , classifying the species for the object based on the feature vector, inputting the feature vector into a pre-trained first mesh model parameter estimation artificial neural network, and as an output of the first mesh model parameter estimation artificial neural network, a quadruped animal obtain the 3D linear mesh model parameters of , and input the feature vectors to the pre-trained second mesh model parameter estimation artificial neural network to obtain the human 3-dimensional linear mesh model parameters as the output of the second mesh model parameter estimation artificial neural network. obtaining, and the data processing unit selects any one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human according to the result of classifying the species with respect to the object, A 3D mesh model is generated using the 3D linear mesh model parameters.
제 3 관점에 따른 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체는, 상기 컴퓨터 프로그램이, 상기 메쉬 모델 생성 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.The computer-readable recording medium storing the computer program according to the third aspect includes instructions for causing the computer program to cause a processor to perform the mesh model generating method.
제 4 관점에 따른 컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램은, 상기 컴퓨터 프로그램이, 상기 메쉬 모델 생성 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.The computer program stored in the computer-readable recording medium according to the fourth aspect includes instructions for the computer program to cause a processor to perform the mesh model generating method.
실시예에 따르면, 관측 영상에 존재하는 객체의 특징 벡터에 대하여 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 사람의 3차원 선형 메쉬 모델 파라미터를 모두 획득한 후 택일적으로 이용하여 3차원 메쉬 모델을 생성함으로써, 최대한 많은 종의 3차원 자세 및 형상을 추정할 수 있다. 이렇게 최대한 많은 종의 3차원 자세 및 형상을 추정할 수 있기 때문에, 자율주행 차량의 주행 시 회피기동, 일반적인 동물의 행동 분석, 미래 경로 예측 등에 활용이 가능하다. 또한 사전에 학습되지는 않았지만 사람, 개, 소, 말과 형태학적으로 유사한 새로운 2족/4족 보행 객체가 나타났을 때 사전 학습된 종들의 공통 형상 특징을 활용한 3차원 자세 및 형상 추정이 가능하다. 또한 증강현실(AR), 가상현실(VR), 메타버스, 그래픽스 등으로의 응용이 가능하여 많은 컴퓨터 비전 관련 연구에 적용이 가능하다.According to the embodiment, with respect to the feature vector of the object present in the observation image, both the 3D linear mesh model parameter of a quadruped animal and the 3D linear mesh model parameter of a human are acquired and then selectively used as a 3D mesh model By creating , it is possible to estimate the three-dimensional posture and shape of as many species as possible. Since it is possible to estimate the three-dimensional postures and shapes of as many species as possible, it can be used for evasive maneuvers when driving an autonomous vehicle, general animal behavior analysis, and future route prediction. In addition, when a new bipedal or quadrupedal walking object that has not been learned in advance but morphologically similar to a human, dog, cow, or horse appears, it is possible to estimate the three-dimensional posture and shape using the common shape features of the pre-learned species. do. In addition, it can be applied to augmented reality (AR), virtual reality (VR), metaverse, graphics, etc., so it can be applied to many computer vision-related research.
도 1은 본 발명의 일 실시예에 따른 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치의 구성도이다.
도 2는 도 1에 도시된 인공신경망 연산부의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치가 수행하는 메쉬 모델 생성 방법을 설명하기 위한 흐름도이다.
도 4는 4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부-관절(sub-keypoint)을 매칭시킨 예를 나타낸 도면이다.1 is a block diagram of an apparatus for generating a mesh model for a human or a quadrupedal animal according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of an artificial neural network calculating unit shown in FIG. 1 .
3 is a flowchart illustrating a mesh model generating method performed by the mesh model generating apparatus for a human or quadrupedal animal according to an embodiment of the present invention.
4 is a diagram illustrating an example of matching sub-joints (sub-keypoints) common to a quadrupedal animal mesh model and a human mesh model.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.
본 명세서에서 각 필름, 윈도우, 패널, 구조체, 또는 층 등이 각 필름, 윈도우, 패널, 구조체, 또는 층 등의 "상(on)" 또는 "하(under)"에 형성되는 것으로 기재되는 경우에 있어, "상(on)"과 "하(under)"는 "직접(directly)" 또는 "다른 구성요소를 게재하여(indirectly)" 형성되는 것을 모두 포함한다.Where each film, window, panel, structure, or layer, etc. is described herein as being formed "on" or "under" each film, window, panel, structure, or layer, etc. As such, the terms “on” and “under” include both “directly” or “indirectly” being formed.
또한 각 구성요소의 상/하에 대한 기준은 도면을 기준으로 설명한다. 도면에서의 각 구성요소들의 크기는 설명을 위하여 과장될 수 있으며, 실제로 적용되는 크기를 의미하는 것은 아니다. 또한, 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.In addition, the reference for the upper / lower of each component will be described with reference to the drawings. The size of each component in the drawings may be exaggerated for explanation, and does not mean the size actually applied. Also, like reference numerals refer to like elements throughout.
명세서 전체에서 어떤 부분이 어떤 구성요소를 ‘포함’한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. In the entire specification, when a part 'includes' a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated.
본 명세서에서 단수 표현은 특별한 설명이 없으면 문맥상 해석되는 단수 또는 복수를 포함하는 의미로 해석된다.In the present specification, unless otherwise specified, the expression "a" is construed as meaning including the singular or the plural as interpreted in context.
또한, 본 명세서에 기재된 구성성분의 양, 반응 조건 등을 나타내는 모든 숫자 및 표현은 특별한 기재가 없는 한 모든 경우에 “약”이라는 용어로써 수식되는 것으로 이해하여야 한다.In addition, it should be understood that all numbers and expressions indicating amounts of components, reaction conditions, etc. described herein are modified by the term "about" in all cases unless otherwise specified.
본 명세서에서 제1, 제2 등의 용어는 다양한 구성 요소를 설명하기 위해 사용되는 것이고, 상기 구성 요소들은 상기 용어에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로 구별하는 목적으로 사용된다.In this specification, terms such as first, second, etc. are used to describe various components, and the components should not be limited by the terms. The above terms are used for the purpose of distinguishing one component from another component.
또한, 명세서에서 사용되는 ‘부’라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, ‘부’는 어떤 역할들을 수행한다. 그렇지만 ‘부’는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. ‘부’는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 ‘부’는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 ‘부’들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 ‘부’들로 결합되거나 추가적인 구성요소들과 ‘부’들로 더 분리될 수 있다.In addition, the term 'unit' used in the specification means software or hardware components such as FPGA or ASIC, and 'unit' performs certain roles. However, “part” is not meant to be limited to software or hardware. The 'unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and ‘parts’ may be combined into a smaller number of components and ‘parts’ or further divided into additional components and ‘parts’.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the embodiments of the present invention. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description will be omitted.
도 1은 본 발명의 일 실시예에 따른 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치의 구성도이고, 도 2는 도 1에 도시된 인공신경망 연산부의 구성도이다.1 is a block diagram of an apparatus for generating a mesh model for a human or a quadrupedal animal according to an embodiment of the present invention, and FIG. 2 is a block diagram of an artificial neural network operation unit shown in FIG. 1 .
도 1 및 도 2를 참조하면, 메쉬 모델 생성 장치(100)는 영상 획득부(110), 인공신경망 연산부(120) 및 데이터 처리부(130)를 포함한다.1 and 2 , the mesh
영상 획득부(110)는 관측 영상을 획득하여 인공신경망 연산부(120)에 제공한다.The
인공신경망 연산부(120)는 인공신경망을 이용한 연산을 통해 관측 영상에 존재하는 객체의 3차원 선형 메쉬 모델 파라미터를 추정한다. 이러한 인공신경망 연산부(120)는 영상 획득부(110)에 의해 획득된 관측 영상에 존재하는 객체의 특징 벡터를 추출하고, 특징 벡터에 기초하여 객체에 대하여 종을 분류하며, 특징 벡터를 기 학습된 동물용 메쉬 모델 파라미터 추정 인공신경망에 입력하여 동물용 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하고, 상기 특징 벡터를 기 학습된 사람용 메쉬 모델 파라미터 추정 인공신경망에 입력하여 사람용 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하며, 객체에 대한 종 분류 결과와 획득된 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터 및 사람의 3차원 선형 메쉬 모델 파라미터를 데이터 처리부(130)에 제공한다.The artificial neural
여기서, 인공신경망 연산부(120) 내 동물용 메쉬 모델 파라미터 추정 인공신경망과 사람용 메쉬 모델 파라미터 추정 인공신경망의 학습 시에, 4족 보행 동물과 사람에 대한 전체 관절의 정확성을 평가하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된 것일 수 있다. 또한, 4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부-관절을 매칭시켜서 형태학적 유사성을 학습하는 방향으로 네트워크 파라미터가 학습된 것일 수 있다. 또한, 동물용 메쉬 모델 파라미터 추정 인공신경망과 사람용 메쉬 모델 파라미터 추정 인공신경망이 관측 영상의 동일 프레임으로부터 각각 계산된 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된 것일 수 있다. 또한, 동물용 메쉬 모델 파라미터 추정 인공신경망의 학습 시에, 학습 데이터 세트에 포함된 레이블이 이용된 4족 보행 동물의 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣과 동물용 메쉬 모델 파라미터 추정 인공신경망이 출력한 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 이용된 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣이 최대한 많이 겹치는 방향으로 네트워크 파라미터가 학습된 것일 수 있다. 또한, 동물용 메쉬 모델 파라미터 추정 인공신경망의 학습 시에, 동물용 메쉬 모델 파라미터 추정 인공신경망이 출력하는 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 동물 종 별로 분포 특성이 달라지는 것을 규제(regularize)하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습될 수 있다. 예를 들어, 인공신경망 연산부(120) 내 동물용 메쉬 모델 파라미터 추정 인공신경망과 사람용 메쉬 모델 파라미터 추정 인공신경망은 앞서 열거한 손실 함수들이 하나 이상 반영된 전체 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습될 수 있다.Here, when learning the artificial neural network for animal mesh model parameter estimation artificial neural network and the human mesh model parameter estimation artificial neural network in the artificial neural
데이터 처리부(130)는 객체에 대하여 종을 분류한 결과에 따라 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하고, 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성한다.The
도 3은 본 발명의 일 실시예에 따른 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치(100)가 수행하는 메쉬 모델 생성 방법을 설명하기 위한 흐름도이고, 도 4는 4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부-관절을 매칭시킨 예를 나타낸 도면이다.3 is a flowchart illustrating a mesh model generation method performed by the
이하, 도 1 내지 도 4를 참조하여 본 발명의 일 실시예에 따른 사람 또는 4족 보행 동물에 대한 메쉬 모델 생성 장치(100)가 수행하는 메쉬 모델 생성 방법에 대해 설명하기로 한다.Hereinafter, a mesh model generating method performed by the mesh
먼저, 메쉬 모델 생성 장치(100)의 영상 획득부(110)는 관측 영상을 획득하여 메쉬 모델 생성 장치(100)의 인공신경망 연산부(120)에 제공한다.First, the
그러면, 인공신경망 연산부(120)는 관측 영상에 존재하는 객체에 대한 종 분류 결과와 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터 및 사람의 3차원 선형 메쉬 모델 파라미터를 데이터 처리부(130)에 제공한다.Then, the artificial neural
예를 들어, 인공신경망 연산부(120)는 도 2에 예시한 바와 같이 변형체 특징 추출기(deformable body feature extractor) 및 변형체 멀티태스크 브랜치(deformable body multi-task branch)를 포함할 수 있다. 이 경우에, 변형체 특징 추출기는 인공신경망을 이용해 관측 영상에 존재하는 객체의 특징 벡터 를 추출하여 변형체 멀티태스크 브랜치에 제공할 수 있고(S310), 변형체 멀티태스크 브랜치는 인공신경망을 이용해 특징 벡터 에 대한 종 분류 결과와 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터 및 사람의 3차원 선형 메쉬 모델 파라미터를 생성하여 데이터 처리부(130)에 제공할 수 있다. 예컨대, 변형체 멀티태스크 브랜치는 종 분류를 위한 인공신경망으로서 분류 알고리즘(classifier)을 포함할 수 있고, 메쉬 모델 파라미터의 추정을 위한 인공신경망으로서 동물용 회귀 알고리즘(skinned multi animal linear mesh model regressor) 및 사람용 회귀 알고리즘(skinned multi person linear mesh model regressor)을 포함할 수 있다.For example, the artificial
여기서, 인공신경망 연산부(120)의 변형체 멀티태스크 브랜치에 포함된 분류 알고리즘(classifier)은 특징 벡터 에 대한 종 분류 결과를 출력한다. 예를 들어, 사람, 개, 말, 소 등을 분류할 수 있다(S320).Here, the classification algorithm (classifier) included in the deformable multitask branch of the artificial neural
그리고, 인공신경망 연산부(120)의 변형체 멀티태스크 브랜치에 포함된 동물용 회귀 알고리즘은 특징 벡터 에 대하여 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터로서 자세 파라미터 및 형상 파라미터 를 출력할 수 있다(S330).In addition, the regression algorithm for animals included in the deformable multitask branch of the artificial neural
그리고, 인공신경망 연산부(120)의 변형체 멀티태스크 브랜치에 포함된 사람용 회귀 알고리즘은 특징 벡터 에 대하여 사람의 3차원 선형 메쉬 모델 파라미터로서 자세 파라미터 및 형상 파라미터, 를 출력할 수 있다(S340).In addition, the human regression algorithm included in the deformable multitask branch of the artificial neural
여기서, 단계 S320, 단계 S330 및 단계 S340은 도 3에 나타낸 바와 같이 병렬 처리될 수 있다. 또는 단계 S320, 단계 S330 및 단계 S340 중 두 개의 단계는 직렬 처리됨과 아울러 나머지 하나의 단계는 직렬 처리되는 단계들과 병렬 처리될 수 있다. 또는 단계 S320, 단계 S330 및 단계 S340은 모두 직렬 처리될 수도 있다.Here, steps S320, S330 and S340 may be processed in parallel as shown in FIG. 3 . Alternatively, two of steps S320, S330, and S340 may be serially processed and the other step may be processed in parallel with the serially processed steps. Alternatively, steps S320, S330, and S340 may all be serially processed.
그러면, 메쉬 모델 생성 장치(100)의 데이터 처리부(130)는 객체에 대하여 종을 분류한 결과에 따라 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하고(S350), 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성한다. 4족 보행 동물의 3차원 메쉬 모델은 로 표현할 수 있고, 사람의 3차원 메쉬 모델은 로 표현할 수 있다(S360).Then, the
또한, 데이터 처리부(130)는 생성한 3차원 메쉬 모델을 2차원 이미지 상에 투영할 수 있고, 부수적인 결과물로 3차원 메쉬 모델의 정점(vertex)로부터 선형 결합으로 예측되는 3차원 관절 좌표와 2차원 관절 좌표도 획득할 수 있다.In addition, the
한편, 인공신경망 연산부(120)는 종 분류와 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터 및 사람의 3차원 선형 메쉬 모델 파라미터의 추정을 위해 사전에 학습된 것일 수 있다. 이러한 인공신경망 연산부(120)의 학습 과정에서는 수학식 1에 예시한 전체 손실 함수 를 줄이는 방향으로 네트워크 파라미터가 학습될 수 있다.Meanwhile, the artificial neural
[수학식 1][Equation 1]
는 사람, 4족 보행 동물에 대한 전체 관절의 정확성을 평가하는 손실 함수이다. 사람의 3차원 메쉬 모델 , 4족 보행 동물의 3차원 메쉬 모델의 정점(vertex)들의 선형 결합으로 3차원 관절을 구할 수 있고, 이를 영상으로부터 예측된 카메라 파라미터를 통해 사영하면 2차원 관절 좌표를 얻을 수 있다. 데이터셋으로부터 주어진 정답(ground-truth) 2차원 관절 좌표를 사람, 동물에 대하여 각각 , 라고 하고, 3차원 메쉬 모델로부터 예측된 2차원 관절 좌표를 사람, 동물 각각에 대하여 , 라고 할 경우, 정답 관절 좌표와 예측한 관절 좌표의 유클리드 거리(euclidean distance)로 계산된다. is a loss function that evaluates the overall joint accuracy for humans and quadrupeds. 3D mesh model of the human , a three-dimensional mesh model of a
, 는 사람, 동물의 전체 관절 중 보이는 관절의 개수 , 는 입력 영상에서 번째 관절이 보이는지 여부를 나타내는 플래그 이다. , is the number of visible joints among all joints in humans and animals. , is from the input image. A flag indicating whether the second joint is visible.
[수학식 2][Equation 2]
[수학식 3][Equation 3]
은 위와 같이 정답과 예측한 관절 좌표 간의 거리를 나타내지만, 전체 관절이 아니라 도 4에 예시한 바와 같이 정의한 부-관절 사이의 거리를 측정한다. 사람 이미지의 경우, 동물의 관절에 대한 정답이 존재하지 않고, 반대로 동물 이미지의 경우 사람 관절에 대한 정답이 존재하지 않는다. 실시예에 따르면, 사람과 4족 보행 동물의 형태학적 유사성을 학습하기 위해 한 영상 프레임으로부터 사람, 동물의 3차원 메쉬 모델을 모두 구성하게 되는데, 도 2의 예시에서는 말의 관측 프레임이 들어왔으므로, 사람의 3차원 메쉬 모델에 대한 구성을 잘 하였는지 판단하기 힘들다. 따라서 적어도 사람의 3차원 메쉬 모델이 동물과 공통적으로 가지고 있는 머리, 손 끝, 발 끝 등의 부-관절을 맞추도록 네트워크가 학습되면, 하나의 영상 프레임으로부터 모든 멀티태스크 브랜치에서 손실 함수를 계산할 수 있고, 따라서 모든 멀티태스크 브랜치로의 경사(gradient) 흐름이 생기게 되므로, 버리는 학습 데이터 없이 데이터 효율적인 지도학습이 가능하다. represents the distance between the correct answer and the predicted joint coordinates as above, but measures the distance between the sub-joints defined as illustrated in FIG. 4 rather than the entire joint. In the case of a human image, there is no correct answer for the joint of an animal. According to the embodiment, in order to learn the morphological similarity between humans and quadrupeds, all three-dimensional mesh models of humans and animals are constructed from one image frame. , it is difficult to judge whether the human 3D mesh model is well constructed. Therefore, if the network is trained to fit the sub-joints such as the head, fingertips, and toes that at least the human 3D mesh model has in common with animals, it is possible to calculate the loss function in all multitask branches from one image frame. As a result, there is a gradient flow to all multi-task branches, so data-efficient supervised learning is possible without discarding training data.
은 수학식 4와 같이 나타낼 수 있고, 동물 이미지에 대하여, 예측한 3차원 메쉬 모델을 구성한 후 이를 2차원 영상 좌표계로 사영했을 때 3차원 메쉬 모델이 차지하는 실루엣이 실제 영상의 실루엣과 같아야 함을 지도해 주는 손실 함수이다. 동물 데이터셋에 대하여 주어진 정답 실루엣 과 3차원 메쉬 모델을 통해서 예측된 실루엣 의 겹치는 정도가 클수록 값이 작아지도록 설계되었다. can be expressed as Equation 4, and when a predicted 3D mesh model is constructed for an animal image and then projected as a 2D image coordinate system, the silhouette occupied by the 3D mesh model should be the same as the silhouette of the actual image. It is a loss function that gives Correct answer silhouette given for animal dataset and the silhouette predicted through the 3D mesh model It was designed so that the larger the degree of overlap, the smaller the value.
[수학식 4][Equation 4]
또한, 4족 보행 동물의 3차원 메쉬 모델의 경우, 동물 종에 대해서 형상 파라미터 가 다른 분포를 가지게 설계 되었는데, 입력 영상에 들어온 동물의 종에 따라 네트워크로부터 예측된 형상 파라미터를 규제하는(regularize) 종-선택적 형상 파라미터 손실 함수를 디자인 하였다. 동물 종을 , 그리고 각 종에 대한 형상 파라미터 분포의 평균과 공분산 행렬을 , 라고 했을 때, 종-선택적 형상 파라미터 손실 함수는 수학식 5와 같은 마할라노비스 거리(mahalanobis distance) 개념으로 계산된다. 이때 는 영상에 대한 정답 종, 그리고 는 참이면 1, 거짓이면 0을 반환하는 함수이다.In addition, in the case of a three-dimensional mesh model of a quadrupedal animal, the shape parameters for the animal species was designed to have a different distribution, and a species-selective shape parameter loss function was designed to regularize the shape parameters predicted from the network according to the species of animals that entered the input image. animal species , and each Calculate the mean and covariance matrices of the distribution of shape parameters for the species. , , the species-selective shape parameter loss function is calculated with the concept of mahalanobis distance as in Equation 5. At this time is the correct species for the image, and is a function that returns 1 if true and 0 if false.
[수학식 5][Equation 5]
인공신경망 연산부(120)는 앞서 열거한 손실 함수들이 하나 이상 또는 모두 반영된 전체 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습될 수 있다.The artificial neural
한편, 전술한 일 실시예에 따라, 메쉬 모델 생성 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 하기 위한 명령어를 포함하는 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체에서 구현될 수 있다.Meanwhile, according to the above-described embodiment, each step included in the method for generating a mesh model may be implemented in a computer-readable recording medium for recording a computer program including instructions for performing such a step.
지금까지 설명한 바와 같이, 본 발명의 실시예에 따르면, 관측 영상에 존재하는 객체의 특징 벡터에 대하여 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 사람의 3차원 선형 메쉬 모델 파라미터를 모두 획득한 후 택일적으로 이용하여 3차원 메쉬 모델을 생성함으로써, 최대한 많은 종의 3차원 자세 및 형상을 추정할 수 있다.As described so far, according to an embodiment of the present invention, after obtaining both the 3D linear mesh model parameters of a quadruped animal and the 3D linear mesh model parameters of a human with respect to the feature vector of an object present in an observation image, By generating a three-dimensional mesh model using alternatively, the three-dimensional posture and shape of as many species as possible can be estimated.
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step in each flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions performed by the processor of the computer or other programmable data processing equipment provide the functions described in each step of the flowchart. It creates a means to do these things. These computer program instructions may also be stored in a computer-usable or computer-readable medium that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable medium. The instructions stored in the recording medium are also capable of producing an article of manufacture including instruction means for performing the functions described in each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for performing the functions described in each step of the flowchart.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each step may represent a module, segment, or portion of code comprising one or more executable instructions for executing the specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in the steps to occur out of order. For example, it is possible that two steps shown one after another may in fact be performed substantially simultaneously, or that the steps may sometimes be performed in the reverse order depending on the function in question.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential quality of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
100: 메쉬 모델 생성 장치
110: 영상 획득부
120: 인공신경망 연산부
130: 데이터 처리부100: mesh model generator
110: image acquisition unit
120: artificial neural network computation unit
130: data processing unit
Claims (14)
관측 영상에 존재하는 객체의 특징 벡터를 추출하는 단계와,
상기 특징 벡터에 기초하여 상기 객체에 대하여 종(class)을 분류하는 단계와,
상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하는 단계와,
상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성하는 단계를 포함하는
메쉬 모델 생성 방법.A mesh model generating method performed by a mesh model generating apparatus for a human or a quadrupedal animal, comprising:
extracting a feature vector of an object existing in an observation image;
classifying a class for the object based on the feature vector;
inputting the feature vector into a pre-trained first mesh model parameter estimation artificial neural network to obtain a three-dimensional linear mesh model parameter of a quadrupedal animal as an output of the first mesh model parameter estimation artificial neural network;
obtaining a human 3D linear mesh model parameter as an output of the second mesh model parameter estimation artificial neural network by inputting the feature vector into a pre-trained second mesh model parameter estimation artificial neural network;
selecting one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human according to the result of classifying the species for the object;
generating a three-dimensional mesh model using the selected three-dimensional linear mesh model parameter;
How to create a mesh model.
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
상기 4족 보행 동물과 상기 사람에 대한 전체 관절의 정확성을 평가하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 방법.The method of claim 1,
When learning the first mesh model parameter estimation artificial neural network and the second mesh model parameter estimation artificial neural network,
The network parameters are learned in the direction of reducing the loss function that evaluates the accuracy of the entire joint for the quadruped animal and the person.
How to create a mesh model.
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부-관절(sub-keypoint)을 매칭시켜서 형태학적 유사성을 학습하는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 방법.The method of claim 1,
When learning the first mesh model parameter estimation artificial neural network and the second mesh model parameter estimation artificial neural network,
The network parameters are learned in the direction of learning morphological similarity by matching the sub-keypoints that the quadruped animal mesh model and the human mesh model have in common.
How to create a mesh model.
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망이 상기 관측 영상의 동일 프레임으로부터 각각 계산된 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 방법.4. The method of claim 3,
The first mesh model parameter estimating artificial neural network and the second mesh model parameter estimating artificial neural network learn network parameters in the direction of reducing the loss function calculated from the same frame of the observed image, respectively.
How to create a mesh model.
상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
학습 데이터 세트에 포함된 레이블이 이용된 4족 보행 동물의 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣과 상기 제 1 메쉬 모델 파라미터 추정 인공신경망이 출력한 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 이용된 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣이 최대한 많이 겹치는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 방법.The method of claim 1,
When learning the first mesh model parameter estimation artificial neural network,
When a three-dimensional linear mesh model of a quadruped animal using a label included in the training data set is projected as a two-dimensional image coordinate system, the silhouette and the first mesh model parameter estimation 3D output by the artificial neural network When the 3D linear mesh model using the linear mesh model parameters is projected in the 2D image coordinate system, the network parameters are learned in the direction where the silhouettes overlap as much as possible.
How to create a mesh model.
상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망이 출력하는 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 동물 종 별로 분포 특성이 달라지는 것을 규제(regularize)하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 방법.The method of claim 1,
When learning the first mesh model parameter estimation artificial neural network,
3D linear mesh model parameters of a quadrupedal animal output from the first mesh model parameter estimation artificial neural network are learned in a way that reduces a loss function that regularizes distribution characteristics for each animal species.
How to create a mesh model.
인공신경망을 이용한 연산을 통해 상기 관측 영상에 존재하는 객체의 3차원 선형 메쉬 모델 파라미터를 추정하는 인공신경망 연산부와,
상기 추정된 3차원 선형 메쉬 모델 파라미터를 포함하는 데이터를 처리하는 데이터 처리부를 포함하고,
상기 인공신경망 연산부는,
상기 영상 획득부에 의해 획득된 상기 관측 영상에 존재하는 객체의 특징 벡터를 추출하고, 상기 특징 벡터에 기초하여 상기 객체에 대하여 종(class)을 분류하며, 상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하고, 상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하며,
상기 데이터 처리부는,
상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하고, 상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성하는
메쉬 모델 생성 장치.An image acquisition unit for acquiring an observation image;
An artificial neural network calculation unit for estimating a three-dimensional linear mesh model parameter of an object existing in the observed image through an operation using an artificial neural network;
and a data processing unit for processing data including the estimated three-dimensional linear mesh model parameters,
The artificial neural network calculation unit,
Extracting a feature vector of an object existing in the observed image acquired by the image acquisition unit, classifying a class for the object based on the feature vector, and applying the feature vector to a pre-trained first mesh Input to the model parameter estimation artificial neural network to obtain the 3D linear mesh model parameters of the quadruped animal as the output of the first mesh model parameter estimation artificial neural network, and use the feature vector to estimate the second mesh model parameter pre-trained artificial neural network to obtain a human three-dimensional linear mesh model parameter as an output of the second mesh model parameter estimation artificial neural network,
The data processing unit,
According to the result of classifying the species for the object, one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human is selected, and the selected three-dimensional linear mesh model parameter is to create a 3D mesh model using
Mesh model generator.
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
상기 4족 보행 동물과 상기 사람에 대한 전체 관절의 정확성을 평가하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 장치.8. The method of claim 7,
When learning the first mesh model parameter estimation artificial neural network and the second mesh model parameter estimation artificial neural network,
The network parameters are learned in the direction of reducing the loss function that evaluates the accuracy of the entire joint for the quadruped animal and the person.
Mesh model generator.
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부-관절(sub-keypoint)을 매칭시켜서 형태학적 유사성을 학습하는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 장치.8. The method of claim 7,
When learning the first mesh model parameter estimation artificial neural network and the second mesh model parameter estimation artificial neural network,
The network parameters are learned in the direction of learning morphological similarity by matching the sub-keypoints that the quadruped animal mesh model and the human mesh model have in common.
Mesh model generator.
상기 제 1 메쉬 모델 파라미터 추정 인공신경망과 상기 제 2 메쉬 모델 파라미터 추정 인공신경망이 상기 관측 영상의 동일 프레임으로부터 각각 계산된 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 장치.10. The method of claim 9,
The first mesh model parameter estimating artificial neural network and the second mesh model parameter estimating artificial neural network learn network parameters in the direction of reducing the loss function calculated from the same frame of the observed image, respectively.
Mesh model generator.
상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
학습 데이터 세트에 포함된 레이블이 이용된 4족 보행 동물의 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣과 상기 제 1 메쉬 모델 파라미터 추정 인공신경망이 출력한 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 이용된 3차원 선형 메쉬 모델을 2차원 영상 좌표계로 사영했을 때 실루엣이 최대한 많이 겹치는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 장치.8. The method of claim 7,
When learning the first mesh model parameter estimation artificial neural network,
When a three-dimensional linear mesh model of a quadruped animal using a label included in the training data set is projected as a two-dimensional image coordinate system, the silhouette and the first mesh model parameter estimation 3D output by the artificial neural network When the 3D linear mesh model using the linear mesh model parameters is projected in the 2D image coordinate system, the network parameters are learned in the direction where the silhouettes overlap as much as possible.
Mesh model generator.
상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 학습 시에,
상기 제 1 메쉬 모델 파라미터 추정 인공신경망이 출력하는 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 동물 종 별로 분포 특성이 달라지는 것을 규제(regularize)하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된
메쉬 모델 생성 장치.8. The method of claim 7,
When learning the first mesh model parameter estimation artificial neural network,
3D linear mesh model parameters of a quadrupedal animal output from the first mesh model parameter estimation artificial neural network are learned in a way that reduces a loss function that regularizes distribution characteristics for each animal species.
Mesh model generator.
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
관측 영상에 존재하는 객체의 특징 벡터를 추출하는 단계와,
상기 특징 벡터에 기초하여 상기 객체에 대하여 종(class)을 분류하는 단계와,
상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하는 단계와,
상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성하는 단계를 포함하는,
메쉬 모델 생성 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.As a computer-readable recording medium storing a computer program,
The computer program, when executed by a processor,
extracting a feature vector of an object existing in an observation image;
classifying a class for the object based on the feature vector;
inputting the feature vector into a pre-trained first mesh model parameter estimation artificial neural network to obtain a three-dimensional linear mesh model parameter of a quadrupedal animal as an output of the first mesh model parameter estimation artificial neural network;
obtaining a human 3D linear mesh model parameter as an output of the second mesh model parameter estimation artificial neural network by inputting the feature vector into a pre-trained second mesh model parameter estimation artificial neural network;
selecting one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human according to the result of classifying the species for the object;
Generating a three-dimensional mesh model using the selected three-dimensional linear mesh model parameter,
A computer-readable recording medium comprising instructions for causing the processor to perform a mesh model generation method.
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
관측 영상에 존재하는 객체의 특징 벡터를 추출하는 단계와,
상기 특징 벡터에 기초하여 상기 객체에 대하여 종(class)을 분류하는 단계와,
상기 특징 벡터를 기 학습된 제 1 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 1 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 특징 벡터를 기 학습된 제 2 메쉬 모델 파라미터 추정 인공신경망에 입력하여 상기 제 2 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하는 단계와,
상기 객체에 대하여 종을 분류한 결과에 따라 상기 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터와 상기 사람의 3차원 선형 메쉬 모델 파라미터 중 어느 하나를 택일하는 단계와,
상기 택일된 3차원 선형 메쉬 모델 파라미터를 이용하여 3차원 메쉬 모델을 생성하는 단계를 포함하는,
메쉬 모델 생성 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 프로그램.As a computer program stored in a computer-readable recording medium,
The computer program, when executed by a processor,
extracting a feature vector of an object existing in an observation image;
classifying a class for the object based on the feature vector;
inputting the feature vector into a pre-trained first mesh model parameter estimation artificial neural network to obtain a three-dimensional linear mesh model parameter of a quadrupedal animal as an output of the first mesh model parameter estimation artificial neural network;
obtaining a human 3D linear mesh model parameter as an output of the second mesh model parameter estimation artificial neural network by inputting the feature vector into a pre-trained second mesh model parameter estimation artificial neural network;
selecting one of the three-dimensional linear mesh model parameter of the quadruped animal and the three-dimensional linear mesh model parameter of the human according to the result of classifying the species for the object;
Generating a three-dimensional mesh model using the selected three-dimensional linear mesh model parameter,
A computer program comprising instructions for causing the processor to perform a method for generating a mesh model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220049068A KR102459293B1 (en) | 2022-04-20 | 2022-04-20 | Method and apparatus for generating mesh model of human or quadrupeds |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220049068A KR102459293B1 (en) | 2022-04-20 | 2022-04-20 | Method and apparatus for generating mesh model of human or quadrupeds |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102459293B1 true KR102459293B1 (en) | 2022-10-27 |
Family
ID=83810301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220049068A KR102459293B1 (en) | 2022-04-20 | 2022-04-20 | Method and apparatus for generating mesh model of human or quadrupeds |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102459293B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102052110B1 (en) * | 2018-05-24 | 2019-12-04 | 군산대학교 산학협력단 | A video surveillance apparatus for detecting agro-livestock theft based on deep learning and method thereof |
KR102338491B1 (en) | 2019-12-11 | 2021-12-13 | 한국전자기술연구원 | Apparatus and Method for Image based 3D Human Posture and Shape Model Reconstruction |
-
2022
- 2022-04-20 KR KR1020220049068A patent/KR102459293B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102052110B1 (en) * | 2018-05-24 | 2019-12-04 | 군산대학교 산학협력단 | A video surveillance apparatus for detecting agro-livestock theft based on deep learning and method thereof |
KR102338491B1 (en) | 2019-12-11 | 2021-12-13 | 한국전자기술연구원 | Apparatus and Method for Image based 3D Human Posture and Shape Model Reconstruction |
Non-Patent Citations (2)
Title |
---|
Gengshan Yang, et al., "LASR: Learning Articulated Shape Reconstruction from a Monocular Video", Computer Vision and Pattern Recognition, 2021. * |
Roman Shapovalov, et al., "DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to the Third Dimension", EEE/CVF International Conference on Computer Vision (ICCV), 2021 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kreiss et al. | Openpifpaf: Composite fields for semantic keypoint detection and spatio-temporal association | |
Brunetti et al. | Computer vision and deep learning techniques for pedestrian detection and tracking: A survey | |
Nguyen et al. | Object-based affordances detection with convolutional neural networks and dense conditional random fields | |
US11126855B2 (en) | Artificial-intelligence powered ground truth generation for object detection and tracking on image sequences | |
Biggs et al. | Who left the dogs out? 3d animal reconstruction with expectation maximization in the loop | |
Oikonomidis et al. | Tracking the articulated motion of two strongly interacting hands | |
Attia et al. | Surgical tool segmentation using a hybrid deep CNN-RNN auto encoder-decoder | |
Geiger et al. | 3d traffic scene understanding from movable platforms | |
JP7417555B2 (en) | Human body pose analysis system and method | |
JP3441690B2 (en) | How to Recognize Physical Objects Using Templates | |
WO2018162933A1 (en) | Improved object recognition system | |
CN111860269B (en) | Multi-feature fusion series RNN structure and pedestrian prediction method | |
JP5983243B2 (en) | Detection device | |
Xu et al. | D-STC: Deep learning with spatio-temporal constraints for train drivers detection from videos | |
Suleymanov et al. | Online inference and detection of curbs in partially occluded scenes with sparse lidar | |
Browning et al. | Cortical dynamics of navigation and steering in natural scenes: Motion-based object segmentation, heading, and obstacle avoidance | |
Nakamura et al. | An effective combination of loss gradients for multi-task learning applied on instance segmentation and depth estimation | |
WO2021109118A1 (en) | Object re-identification using pose part based models | |
KR102459293B1 (en) | Method and apparatus for generating mesh model of human or quadrupeds | |
Falque et al. | Semantic keypoint extraction for scanned animals using multi-depth-camera systems | |
Plachetka et al. | The TUBS road user dataset: A new LiDAR dataset and its application to CNN-based road user classification for automated vehicles | |
Xue et al. | Video-based animal behavior analysis from multiple cameras | |
Cui et al. | Research on broiler health status recognition method based on improved YOLOv5 | |
Zelman et al. | Nearly automatic motion capture system for tracking octopus arm movements in 3D space | |
Amiri et al. | A Real-Time collision detection system for vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |