KR20200070094A - Method and system for generating 3d image of character - Google Patents
Method and system for generating 3d image of character Download PDFInfo
- Publication number
- KR20200070094A KR20200070094A KR1020190136782A KR20190136782A KR20200070094A KR 20200070094 A KR20200070094 A KR 20200070094A KR 1020190136782 A KR1020190136782 A KR 1020190136782A KR 20190136782 A KR20190136782 A KR 20190136782A KR 20200070094 A KR20200070094 A KR 20200070094A
- Authority
- KR
- South Korea
- Prior art keywords
- template
- character
- image
- information
- dimensional image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000010801 machine learning Methods 0.000 claims abstract description 42
- 238000013528 artificial neural network Methods 0.000 claims description 56
- 238000007781 pre-processing Methods 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000002203 pretreatment Methods 0.000 claims 1
- 238000004458 analytical method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 기재는 미리 저장된 템플릿을 이용하여 2차원 이미지로부터 캐릭터의 3차원 이미지를 생성하는 방법 및 시스템에 관한 것이다. The present description relates to a method and system for generating a 3D image of a character from a 2D image using a template stored in advance.
일반적으로 3차원 이미지 복원은 3차원 모델링 소프트웨어를 이용하여 디자이너에 의해 수작업으로 진행된다. 그러므로, 캐릭터의 고품질 3차원 이미지를 생성하기 위해서, 3차원 모델링에 많은 시간과 전문적 노하우가 요구된다. 또한, 디자이너의 숙련도에 따라 3차원 이미지의 품질이 달라진다. Generally, 3D image restoration is performed manually by a designer using 3D modeling software. Therefore, in order to generate a high-quality 3D image of a character, a lot of time and professional know-how are required for 3D modeling. In addition, the quality of the three-dimensional image varies depending on the skill level of the designer.
캐릭터의 3차원 이미지는 컴퓨터 비전과 영상 처리를 이용하여 생성될 수 있다. 컴퓨터 비전 및 영상 처리를 활용하는 방식에 따르면, 임의 시점에서의 여러 장의 이미지의 분석을 통해 특징점이 추출되고, 추출된 특징점을 바탕으로 3차원 공간 상의 카메라 위치가 계산되며, 복수의 2차원 이미지 간의 전후 관계성을 바탕으로 복수의 2차원 이미지를 연결함으로써 캐릭터의 3차원 이미지가 복원될 수 있다. The 3D image of the character can be created using computer vision and image processing. According to a method using computer vision and image processing, feature points are extracted through analysis of multiple images at any point in time, camera positions in 3D space are calculated based on the extracted feature points, and a plurality of 2D images The character's three-dimensional image can be restored by connecting a plurality of two-dimensional images based on the context before and after.
최근에는 대규모 데이터베이스 및 딥러닝 등의 인공지능 기술이 발전함에 따라, 기존 방법으로는 해석되기 어려운 컴퓨터 비전 문제가 해결 되기 시작하고, 딥러닝 기법이 3차원 모델(캐릭터 등)의 복원에 적용되고 있다. 2차원 이미지 및 이에 대응하는 3차원 이미지의 형상 정보를 학습하는 오토인코더(autoencoder) 및 알렉스넷(alexnet)의 구조가 결합된 TL-embedding 네트워크가 대표적 사례이다. 다수의 이미지 및 복셀(voxel)로 표현된 3차원 이미지의 형상 정보가 입력되면, TL-embedding 네트워크는 입력된 데이터를 학습한 후 가장 유사한 3차원 voxel 모델을 생성할 수 있다. 3차원 회귀성 재구성 신경망(Recurrent Reconstruction Neural Network)은 다양한 시점에서 촬영된 2차원 이미지를 입력으로서 기계 학습을 수행하고, 3차원 voxel 모델을 복원하는 Long Short-Term 메모리 구조 기반의 딥러닝 네트워크이다. 3차원 회귀성 재구성 신경망은, 기존의 단일 2차원 이미지 기반 복원 기술에 대비하여, 실사 영상에 대해 상대적으로 우수한 복원 성능을 보여 주었다.Recently, as artificial intelligence technologies such as large-scale databases and deep learning have developed, computer vision problems that are difficult to interpret using conventional methods have begun to be solved, and deep learning techniques have been applied to the restoration of 3D models (characters, etc.). . A typical example is a TL-embedding network that combines structures of autoencoders and alexnets that learn shape information of two-dimensional images and corresponding three-dimensional images. When the shape information of a plurality of images and 3D images represented by voxels is input, the TL-embedding network can learn the input data and generate the most similar 3D voxel model. The 3D Recurrent Reconstruction Neural Network is a deep learning network based on a long short-term memory structure that performs machine learning by inputting 2D images captured at various points in time and reconstructs a 3D voxel model. The 3D regression reconstruction neural network showed a relatively good reconstruction performance for a live image, compared to a conventional single 2D image-based reconstruction technique.
2차원 이미지를 이용하는 딥러닝 기반 3차원 복원 기술은 쉐이프넷(Shapenet)의 데이터 셋이 공개된 이후, 활발하게 연구되었고, 전통적인 기술 대비해서 우수한 결과를 보여 주었다. 하지만, 복원된 3차원 모델의 voxel 해상도는 여전히 저해상도(예를 들어, 64X64X64)이다.Deep learning-based 3D reconstruction technology using 2D images has been actively studied since the release of Shapenet's data set, and showed excellent results compared to traditional technologies. However, the reconstructed 3D model's voxel resolution is still low resolution (eg, 64X64X64).
한 실시예는, 캐릭터의 3차원 이미지를 생성하는 방법을 제공한다.One embodiment provides a method for generating a three-dimensional image of a character.
다른 실시예는, 캐릭터의 3차원 이미지를 생성하는 시스템을 제공한다.Another embodiment provides a system for generating a three-dimensional image of a character.
또 다른 실시예는, 캐릭터의 3차원 이미지를 생성하기 위한 이미지 정보를 전처리하는 장치를 제공한다.Another embodiment provides an apparatus for pre-processing image information for generating a three-dimensional image of a character.
한 실시예에 따르면, 캐릭터의 3차원 이미지를 생성하는 방법이 제공된다. 3차원 이미지 생성 방법은, 캐릭터의 유형에 대응하는 템플릿을 바탕으로 생성된, 캐릭터의 2차원 이미지 및 템플릿의 식별자를 수신하는 단계, 식별자를 사용하여 템플릿 라이브러리로부터 템플릿의 템플릿 정보를 획득하고, 템플릿 정보 및 2차원 이미지를 바탕으로 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 단계, 및 유효 파라미터 및 템플릿 정보를 바탕으로 기계 학습을 수행하여 캐릭터의 3차원 이미지를 생성하는 단계를 포함한다.According to one embodiment, a method of generating a three-dimensional image of a character is provided. The method for generating a 3D image includes receiving a 2D image of a character and an identifier of a template generated based on a template corresponding to a character type, obtaining template information of a template from a template library using the identifier, and Extracting valid parameters for machine learning to be performed to generate a 3D image based on information and a 2D image, and performing machine learning based on valid parameters and template information to generate a 3D image of a character Steps.
3차원 이미지 생성 방법에서 템플릿 정보는 캐릭터의 성별 및 캐릭터의 연령대를 포함하고, 2차원 이미지는 성별을 갖는 연령대의 캐릭터를 나타낼 수 있다.In the 3D image generation method, the template information includes the gender of the character and the age group of the character, and the 2D image may indicate a character of the age group having gender.
3차원 이미지 생성 방법에서 템플릿 정보는 캐릭터의 스타일을 더 포함하고, 유효 파라미터 및 템플릿 정보를 바탕으로 기계 학습을 수행하여 캐릭터의 3차원 이미지를 생성하는 단계는, 스타일에 따라 3차원 이미지를 변형하는 추론 엔진을 사용하여 기계 학습을 수행하는 단계를 포함할 수 있다. In the method of generating a 3D image, the template information further includes a character style, and the step of generating a 3D image of the character by performing machine learning based on valid parameters and template information is to transform the 3D image according to the style. And performing machine learning using an inference engine.
3차원 이미지 생성 방법에서 템플릿은 템플릿 정보 및 실루엣을 포함하고, 2차원 이미지는 실루엣을 바탕으로 제작된 캐릭터의 이미지일 수 있다. In the 3D image generation method, the template includes template information and a silhouette, and the 2D image may be an image of a character created based on the silhouette.
3차원 이미지 생성 방법에서 유효 파라미터는 실루엣의 각 신체 부분에 매핑된 복수의 템플릿 이미지를 포함할 수 있다.In the 3D image generation method, an effective parameter may include a plurality of template images mapped to each body part of the silhouette.
3차원 이미지 생성 방법은, 템플릿의 3차원 템플릿과, 2차원 이미지를 바탕으로 캐릭터의 신체 부분 간의 상관관계를 결정하는 단계를 더 포함하고, 유효 파라미터 및 템플릿 정보를 바탕으로 기계 학습을 수행하여 캐릭터의 3차원 이미지를 생성하는 단계는, 상관관계를 사용하여 복수의 템플릿 이미지를 합성할 수 있도록 기계 학습을 수행하는 단계를 포함할 수 있다. The 3D image generation method further includes determining a correlation between the 3D template of the template and the body part of the character based on the 2D image, and performing machine learning based on valid parameters and template information to perform character learning. The step of generating a 3D image of may include performing machine learning to synthesize a plurality of template images using correlation.
다른 실시예에 따르면, 캐릭터의 3차원 이미지를 생성하는 시스템이 제공된다. 3차원 이미지 생성 시스템은, 캐릭터의 유형을 나타내는 복수의 템플릿을 저장하는 템플릿 라이브러리, 복수의 템플릿 중 제1 템플릿의 템플릿 정보와, 제1 템플릿을 바탕으로 생성된, 캐릭터의 2차원 이미지로부터, 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 전처리부, 및 유효 파라미터를 바탕으로 기계 학습을 수행하여 캐릭터의 3차원 이미지를 생성하는 모델링부를 포함한다. According to another embodiment, a system for generating a three-dimensional image of a character is provided. The 3D image generation system includes a template library for storing a plurality of templates representing a character type, template information of a first template among a plurality of templates, and a 2D image of a character generated based on the first template, 3 It includes a pre-processing unit for extracting valid parameters for machine learning to be performed to generate a dimensional image, and a modeling unit for generating a three-dimensional image of a character by performing machine learning based on the valid parameters.
3차원 이미지 생성 시스템에서 템플릿 정보는 캐릭터의 성별 및 캐릭터의 연령대를 포함하고, 2차원 이미지는 성별을 갖는 연령대의 캐릭터를 나타낼 수 있다. In the 3D image generation system, the template information includes the gender of the character and the age group of the character, and the 2D image may indicate a character of the age group having gender.
3차원 이미지 생성 시스템에서 템플릿 정보는 캐릭터의 스타일을 더 포함하고, 모델링부는, 스타일에 따라 3차원 이미지를 변형하는 추론 엔진을 사용하여 기계 학습을 수행할 수 있다.In the 3D image generation system, the template information further includes a character style, and the modeling unit may perform machine learning using an inference engine that transforms the 3D image according to the style.
3차원 이미지 생성 시스템에서 제1 템플릿은 템플릿 정보 및 실루엣을 포함하고, 2차원 이미지는 실루엣을 바탕으로 제작된 캐릭터의 이미지일 수 있다.In the 3D image generation system, the first template includes template information and a silhouette, and the 2D image may be an image of a character produced based on the silhouette.
3차원 이미지 생성 시스템에서 유효 파라미터는 실루엣의 각 신체 부분에 매핑된 복수의 템플릿 이미지를 포함할 수 있다.In the 3D image generation system, the effective parameter may include a plurality of template images mapped to each body part of the silhouette.
3차원 이미지 생성 시스템에서 전처리부는, 템플릿의 3차원 템플릿과, 2차원 이미지를 바탕으로 캐릭터의 신체 부분 간의 상관관계를 결정하고, 모델링부는, 상관관계를 사용하여 복수의 템플릿 이미지를 합성할 수 있도록 기계 학습을 수행할 수 있다. In the 3D image generation system, the preprocessor determines a correlation between the 3D template of the template and the body part of the character based on the 2D image, and the modeling unit uses the correlation to synthesize a plurality of template images. Machine learning can be performed.
또 다른 실시예에 따르면 캐릭터의 이미지 정보를 전처리하는 장치가 제공된다. 전처리 장치는, 프로세서, 메모리, 및 송수신 인터페이스를 포함하고, 프로세서는 메모리에 저장된 프로그램을 실행하여, 캐릭터의 유형에 대응하는 템플릿을 바탕으로 생성된, 캐릭터의 2차원 이미지 및 템플릿의 식별자를 송수신 인터페이스를 통해 수신하는 단계, 식별자를 사용하여 템플릿의 템플릿 정보를 획득하고, 템플릿 정보 및 2차원 이미지를 사용하여, 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 단계, 및 템플릿 정보 및 유효 파라미터를 데이터 구조체로 구조화하고, 기계 학습을 수행하는 모델링부에게 송수신 인터페이스를 통해 데이터 구조체를 전달하는 단계를 수행한다.According to another embodiment, an apparatus for preprocessing image information of a character is provided. The pre-processing apparatus includes a processor, a memory, and a transmission/reception interface, and the processor executes a program stored in the memory, and transmits and receives the identifier of the two-dimensional image and template of the character, generated based on the template corresponding to the character type. Receiving through, obtaining template information of a template using an identifier, extracting valid parameters for machine learning to be performed to generate a 3D image, using the template information and a 2D image, and a template Structure the information and valid parameters into a data structure, and transfer the data structure through a transmission/reception interface to a modeling unit performing machine learning.
전처리 장치에서, 프로세서는 프로그램을 실행하여, 템플릿의 3차원 템플릿과, 2차원 이미지를 바탕으로 캐릭터의 신체 부분 간의 상관관계를 결정하는 단계를 더 수행하고, 프로세서는, 템플릿 정보 및 유효 파라미터를 데이터 구조체로 구조화하고, 기계 학습을 수행하는 모델링부에게 송수신 인터페이스를 통해 데이터 구조체를 전달하는 단계를 수행할 때, 템플릿 정보 및 유효 파라미터와 함께 상관관계를 데이터 구조체로 구조화하는 단계를 수행할 수 있다. In the pre-processing device, the processor further executes a program to determine a correlation between the 3D template of the template and the body part of the character based on the 2D image, and the processor data the template information and valid parameters. When performing a step of structuring into a structure and transmitting a data structure through a transmission/reception interface to a modeling unit performing machine learning, a step of structuring a correlation with a template information and valid parameters into a data structure may be performed.
전처리 장치에서 템플릿 정보는 캐릭터의 스타일을 포함하고, 데이터 구조체는 모델링부의 추론 신경망에 관한 지시 정보를 포함하며, 지시 정보는 신체 부분에 대응하는 추론 신경망을 모델링부에게 지시할 수 있다. In the pre-processing device, the template information includes a character style, the data structure includes instructing information about the inference neural network of the modeling unit, and the instructing information can instruct the modeling unit of the inference neural network corresponding to the body part.
전처리 장치에서 템플릿 정보는 캐릭터의 스타일을 포함하고, 데이터 구조체는 모델링부의 추론 신경망에 관한 지시 정보를 포함하며, 지시 정보는 스타일에 대응하는 추론 신경망을 모델링부에게 지시할 수 있다. In the pre-processing device, the template information includes the character's style, the data structure includes instructing information about the inference neural network of the modeling unit, and the instructing information can instruct the modeling unit of the inference neural network corresponding to the style.
라이브러리에 미리 저장된 템플릿을 바탕으로 제작된 2차원 이미지 및 템플릿의 템플릿 정보를 통해 추론 신경망의 정확도와 속도를 높일 수 있는 유효 파라미터가 추출될 수 있다. 추론 신경망이 3차원 이미지를 생성하는 단계 이전에, 기계 학습에 적합한 유효 파라미터를 추출하는 전처리를 수행함으로써, 최적의 추론 신경망이 선택될 수 있고, 추론 신경망 내의 추론 엔진의 다중화를 최적화할 수 있다. Effective parameters that can increase the accuracy and speed of the inference neural network can be extracted through the template information of the 2D image and the template produced based on the template stored in the library in advance. Before the step of generating a 3D image by the inference neural network, by performing pre-processing to extract valid parameters suitable for machine learning, the optimal inference neural network can be selected, and the multiplexing of the inference engine within the inference neural network can be optimized.
도 1은 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 이미지 생성 시스템을 나타낸 블록도이다.
도 2a는 한 실시예에 따른 2차원 템플릿의 실루엣 및 템플릿 정보를 나타낸 개념도이고, 도 2b는 한 실시예에 따른 2차원 템플릿의 실루엣 위에 그려진 캐릭터의 2차원 이미지를 나타낸 개념도이다.
도 3은 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 방법을 나타낸 흐름도이다.
도 4는 다른 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 방법을 나타낸 흐름도이다.
도 5는 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하기 위한 이미지 정보를 전처리하는 전처리 장치를 나타낸 블록도이다.1 is a block diagram showing an image generation system for generating a 3D image of a character according to an embodiment.
2A is a conceptual diagram showing the silhouette and template information of a 2D template according to an embodiment, and FIG. 2B is a conceptual diagram showing a 2D image of a character drawn on the silhouette of a 2D template according to an embodiment.
3 is a flowchart illustrating a method of generating a 3D image of a character according to an embodiment.
4 is a flowchart illustrating a method of generating a 3D image of a character according to another embodiment.
5 is a block diagram showing a pre-processing apparatus for pre-processing image information for generating a three-dimensional image of a character according to an embodiment.
아래에서는 첨부한 도면을 참고로 하여 본 기재의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 기재는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 기재를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present description can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present description in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.
도 1은 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 이미지 생성 시스템을 나타낸 블록도이고, 도 2a는 한 실시예에 따른 2차원 템플릿의 실루엣 및 템플릿 정보를 나타낸 개념도이며, 도 2b는 한 실시예에 따른 2차원 템플릿의 실루엣의 위에 그려진 캐릭터의 2차원 이미지를 나타낸 개념도이다.1 is a block diagram showing an image generating system for generating a 3D image of a character according to an embodiment, FIG. 2A is a conceptual diagram showing silhouette and template information of a 2D template according to an embodiment, and FIG. 2B is a It is a conceptual diagram showing a two-dimensional image of a character drawn on the silhouette of a two-dimensional template according to an embodiment.
도 1을 참조하면, 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 이미지 생성 시스템은, 전처리부(100), 템플릿 라이브러리(200), 및 모델링부(300)를 포함한다. 사용자는 한 실시예에 따른 이미지 생성 시스템을 사용하여 캐릭터의 2차원 이미지로부터 3차원 이미지를 얻을 수 있다. 사용자는 템플릿 라이브러리(200)로부터 획득된 템플릿을 사용하여 디지털 2차원 이미지 또는 아날로그 2차원 이미지를 제작할 수 있다. 예를 들어, 사용자는 통신 네트워크를 통해 템플릿 라이브러리(200)로부터 템플릿을 다운로드하고, 태블릿 PC 및 스타일러스 펜 등을 사용하여 다운로드된 템플릿의 실루엣 위에 캐릭터의 디지털 2차원 이미지를 제작한다. 또는 사용자는 템플릿 라이브러리(200)로부터 다운로드한 템플릿의 실루엣을 프린터를 사용하여 출력하고, 출력된 실루엣 위에 캐릭터의 2차원 이미지를 그린 후, 스캐너 또는 촬영 장치 등을 사용하여 손으로 그려진 2차원 이미지를 디지털 2차원 이미지로 변환할 수 있다. 2차원 이미지가 템플릿의 실루엣 위에 포개어지도록 제작됨으로써, 모델링부(300)는 딥러닝(deep learning) 등의 기계 학습을 수행하여 보다 정확한 3차원 이미지를 생성할 수 있다. Referring to FIG. 1, an image generation system for generating a 3D image of a character according to an embodiment includes a
캐릭터의 디지털 2차원 이미지 및 2차원 이미지의 제작에 사용된 템플릿의 식별자가 이미지 생성 시스템에 입력되면, 이미지 생성 시스템은 사용자로부터 수신한, 캐릭터의 2차원 이미지 및 템플릿의 식별자를 바탕으로 캐릭터의 3차원 이미지를 생성할 수 있다. 사용자는 캐릭터의 2차원 이미지 및 템플릿의 식별자를 이미지 생성 시스템에 입력하거나, 또는 캐릭터의 2차원 이미지 및 다운로드된 템플릿을 이미지 생성 시스템에 입력할 수 있다. 전처리부(100)는 2차원 이미지 생성 장치(10)로부터 제1 인터페이스(IF1)를 통해 캐릭터의 2차원 이미지 및 2차원 이미지의 제작에 사용된 템플릿의 식별자를 수신할 수 있다. 템플릿의 식별자가 전처리부(100)로 입력될 때, 이미지 생성 시스템의 전처리부(100)는 템플릿의 식별자를 사용하여 템플릿 라이브러리(200)에서 템플릿을 검색하고, 검색된 템플릿의 템플릿 정보를 사용할 수 있다.When the identifiers of the templates used in the creation of the digital two-dimensional image and the two-dimensional image of the character are input to the image generation system, the image generation system receives three characters of the character based on the identifier of the two-dimensional image and the template of the character received from the user. You can create dimensional images. The user may input the identifiers of the two-dimensional image and the template of the character into the image generation system, or the two-dimensional image of the character and the downloaded template into the image generation system. The
한 실시예에 따른 전처리부(100)는 제1 분석부(110), 제2 분석부(120), 및 구조화부(130)를 포함한다. The
한 실시예에 따른 전처리부(100)의 제1 분석부(110)는 사용자로부터 수신된 캐릭터의 2차원 이미지 및 2차원 이미지의 제작에 사용된 템플릿의 식별자를 바탕으로 유효 파라미터를 추출할 수 있다. 유효 파라미터는, 템플릿의 실루엣의 각 신체 부분에 매핑된 복수의 템플릿 이미지를 포함할 수 있다. 예를 들어, 사용자가 도 2b와 같이 템플릿의 실루엣 위에 캐릭터의 2차원 이미지를 그렸을 때, 제1 분석부(110)는 2차원 이미지를 머리 부분, 몸통 부분, 및 하체 부분으로 분할함으로써 템플릿의 실루엣을 사용하여 2차원 이미지로부터 복수의 템플릿 이미지를 생성할 수 있다. 이때 복수의 템플릿 이미지는 각각 실루엣의 각 부분에 대응한다. 제1 분석부(110)에서 사용하는 템플릿은 2차원 템플릿 또는 3차원 템플릿일 수 있다. The
한 실시예에 따른 전처리부(100)의 제2 분석부(120)는 3차원 템플릿을 바탕으로 2차원 이미지를 추가적으로 분석할 수 있다. 2차원 이미지의 제작에 사용된 템플릿의 식별자에 대응하는 3차원 템플릿이 있을 때, 제2 분석부(120)는 3차원 템플릿 및 2차원 이미지를 바탕으로 캐릭터의 신체 부분 간의 상관관계를 결정할 수 있다. The
한 실시예에 따른 전처리부(100)의 구조화부(130)는 캐릭터의 2차원 이미지의 제작에 사용된 템플릿의 템플릿 정보 및 제1 분석부(110)에 의해 추출된 유효 파라미터를 구조화할 수 있다. 구조화부(130)는 템플릿 정보 및 유효 파라미터와 함께 미리 결정된 포맷을 사용하여 캐릭터의 2차원 이미지의 원본 또한 구조화할 수 있다. 구조화부(130)에 의해 구조화된, 템플릿 정보 및 유효 파라미터는 모델링부(300)로 전달되기 위해 사용되는 데이터 구조체를 구성할 수 있다. 데이터 구조체는 캐릭터의 2차원 이미지를 더 포함할 수 있다. 전처리부(100)와 모델링부(300)가 서로 유무선 네트워크를 통해 연결될 때, 캐릭터의 2차원 이미지, 템플릿 정보, 및 유효 파라미터 등은 구조화를 통해 안전한 방식으로 랩핑(wrapping)되어 전처리부(100)에서 모델링부(300)에게 전달될 수 있다. 구조화부(130)는 XML(Extensible Markup Language) 등의 포맷으로 2차원 이미지, 템플릿 정보, 및 유효 파라미터 등을 구조화할 수 있다. 다른 실시예에 따른 구조화부(130)는 캐릭터의 2차원 이미지, 템플릿, 및 유효 파라미터 등과 더불어 캐릭터의 신체 부분 간의 상관관계를 더 구조화할 수 있다. The
구조화부(130)에 의해 구조화된 데이터 구조체는 모델링부(300)의 추론 신경망에 관한 지시 정보를 포함할 수 있다. 데이터 구조체에 포함되는, 추론 신경망에 관한 지시 정보는, 각 신체 부분에 대응하는 추론 엔진 또는 추론 신경망을 지시할 수 있다. 예를 들어, 실루엣이 머리, 몸통, 하체를 신체 부분으로서 포함하고 있고 하체 부분에는 2차원 이미지가 대응되어 있지 않을 때, 추론 신경망에 관한 지시 정보는 머리 부분의 3차원 이미지를 생성하는 두부(頭部) 추론 엔진 및 몸통 부분의 3차원 이미지를 생성하는 몸통 추론 엔진을 지시할 수 있다. 또는 실루엣에 포함된 각 신체 부분에 모두 2차원 이미지가 대응되어 있고 각 신체 부분에 대응되지 않는 이미지(예를 들어, 손에 들린 무기 등)가 캐릭터의 2차원 이미지 내에 포함되어 있을 때, 추론 신경망에 관한 지시 정보는 신체 부분에 대응되지 않는 이미지의 3차원 이미지를 생성하기 위한 주변부 추론 엔진(예를 들어, 무기 등 장비의 3차원 이미지를 생성하기 위한 장비 추론 엔진 등)을 지시할 수 있다. 또는 추론 신경망에 관한 지시 정보는, 스타일(귀여운 스타일, 우아한 스타일 등)에 대응하는 추론 엔진 또는 추론 신경망을 지시할 수 있다. 이후 모델링부(300)는 스타일에 따라 3차원 이미지를 변형하는 추론 엔진 또는 추론 신경망을 선택하고, 템플릿에 의해 미리 결정된 캐릭터의 스타일에 관한 가중치를 입력된 유효 파라미터에 곱하는 등의 방식으로 기계 학습을 수행할 수 있다. 예를 들어, 템플릿에 의해 캐릭터의 스타일이 '귀여움'으로 미리 결정되어 있을 때, 추론 신경망에 관한 지시 정보는 스타일에 따라 3차원 이미지를 변형하는 데 적절한 추론 엔진 또는 추론 신경망을 지시할 수 있다. 이때, 데이터 구조체에 포함된 지시 정보에 따라 캐릭터의 3차원 이미지를 생성하기 위한 추론 신경망의 종류가 결정될 수 있다. 구조화부(130)에서 구조화에 사용하는 미리 결정된 포맷은, 새롭게 개발되는 추론 엔진, 클라우드 기반의 인공지능 서비스 플랫폼에도 사용할 수 있는 데이터 포맷일 수 있다. The data structure structured by the
한 실시예에 따른 템플릿 라이브러리(200) 내에는 캐릭터의 성별, 연령대, 스타일(뚱뚱함, 귀여움 등) 등에 따라 다양한 템플릿이 저장되어 있다. 즉, 템플릿은 캐릭터의 성별, 연령대, 스타일 등 캐릭터의 유형에 각각 대응하고, 하나의 템플릿이 나타내는 캐릭터의 유형은 템플릿 정보로서 템플릿 내에 포함된다. 즉, 템플릿 정보는 템플릿이 나타내는 캐릭터의 성별, 연령대, 스타일 등을 포함할 수 있다. 게임 내 캐릭터를 생성하기 위해, 템플릿 라이브러리(200)는 게임 내의 종족(race 또는 tribe) 별로 다른 템플릿을 저장할 수 있다. 즉, 캐릭터의 종족에 따라 서로 다른 템플릿이 존재할 수 있다. 각 템플릿에는 식별자가 할당되고, 하나의 식별자에 2차원 템플릿 및 3차원 템플릿이 함께 대응될 수 있다. 각 템플릿은 캐릭터의 정면, 배면, 측면, 평면, 저면 등을 나타내는 적어도 하나의 실루엣을 포함한다. 캐릭터의 2차원 이미지의 제작에 사용된 2차원 템플릿과 동일한 식별자를 갖는 3차원 템플릿은 제2 분석부(120)에 의해 캐릭터의 신체 부분 간의 상관관계가 결정될 때 사용될 수 있다. 템플릿 라이브러리(200)는 유효 파라미터를 추출하는 과정에서 획득한 값을 통해 개선될 수 있다.In the
도 2a에 도시된 템플릿의 실루엣에서, M001은 템플릿의 식별자이고, M001 템플릿은 성인 남자인 캐릭터를 제작하기 위한 템플릿이다. 예를 들어, 사용자는 M001 템플릿의 실루엣에 따라, 머리 실루엣 위에 캐릭터의 정면 얼굴을 그리고, 몸통 실루엣 위에 캐릭터의 윗도리를 그리며, 하체 실루엣 위에 캐릭터의 아랫도리를 그린다. 식별자 M001의 다른 방향의 실루엣에도 사용자에 의해 2차원 이미지가 그려질 수 있다. In the silhouette of the template shown in FIG. 2A, M001 is an identifier of the template, and the M001 template is a template for producing a character who is an adult man. For example, according to the silhouette of the M001 template, the user draws the character's front face over the head silhouette, draws the character's upper coat over the body silhouette, and draws the character's lower coat over the lower body silhouette. The two-dimensional image may be drawn by the user in the silhouette in the other direction of the identifier M001.
한 실시예에 따른 모델링부(300)는 분배부(310), 제1 추론 신경망(320), 및 제2 추론 신경망(330)를 포함한다. 모델링부(300)는 3차원 이미지의 종류에 따라 또 다른 추론 신경망을 더 포함할 수 있다. 모델링부(300)는 전처리부(100)로부터 제2 인터페이스(IF2)를 통해 데이터 구조체를 수신하고, 데이터 구조체를 사용하여 추론 신경망을 구동함으로써 3차원 이미지를 생성할 수 있다.The
분배부(310)는 데이터 구조체에 포함된 지시 정보를 바탕으로 3차원 이미지를 생성하기 위한 기계 학습이 수행될 추론 신경망을 결정할 수 있다. 또는 분배부(310)는 2차원 이미지의 제작 때 사용된 템플릿의 유형에 따라 기계 학습이 수행될 추론 신경망을 결정할 수 있다.The
제1 추론 신경망(320)은 다중화된 복수의 추론 엔진(NN1 내지 NNm)을 포함하고, 데이터 구조체에 포함된 유효 파라미터 및 템플릿 정보를 바탕으로 복수의 추론 엔진을 구동하여 기계 학습을 수행한다. 예를 들어, 제1 추론 신경망(320)은 가중치 합(weighted sum) 연산을 수행하여 템플릿 정보 중 템플릿의 스타일에 적합한 3차원 이미지를 생성할 수 있다. 즉, 제1 추론 신경망(320)은 가중치 신경망(weighted neural network)일 수 있다. 제1 추론 신경망(320)은, 데이터 구조체에 포함된 복수의 템플릿 이미지가 하나의 총괄적인 특성으로서 구별될 때, 3차원 캐릭터 이미지를 생성하기 위해 적합할 수 있다. 제1 추론 신경망(320)에 포함된 각 추론 엔진 마다 학습 데이터가 특화되어 있을 수 있고, 데이터 구조체를 통해 전달된 템플릿의 스타일에 적합한 3차원 캐릭터 이미지를 생성해내기 위한 최적의 추론 엔진이 기계 학습을 위해 선택될 수 있다. The first inference
제2 추론 신경망(330)은 다중화된 복수의 추론 엔진(P1 내지 Pn)을 포함하고, 데이터 구조체에 포함된 유효 파라미터 중에서 신체 부분에 각각 대응하는 복수의 템플릿 이미지와, 3차원 템플릿을 통해 결정된 상관관계를 바탕으로 추론 엔진을 구동함으로써 캐릭터의 3차원 이미지를 생성할 수 있다. 즉, 제2 추론 신경망(330)은 부분 3차원 재구성 신경망(partial 3D reconstruction neural network)일 수 있다. 제2 추론 신경망(330)은 3차원 템플릿을 통해 결정된, 각 신체 부분 간의 상관관계를 사용하여 각 신체 부분에 대응되는 템플릿 이미지를 합성할 수 있도록 기계 학습을 수행할 수 있다. The second inference
모델링부(300)의 제1 추론 신경망(320) 또는 제2 추론 신경망(330)에 의해 생성된, 캐릭터의 3차원 이미지는 2차원 이미지를 생성한 사용자에게 피드백될 수 있다. 또는 모델링부(300)에서 생성된, 캐릭터의 3차원 이미지는 캐릭터가 사용될 콘텐츠를 표시하는 표시 장치에게로 전송될 수 있다. 3차원 이미지가 표시 장치로 전송될 때, 3차원 이미지의 데이터는 3차원 이미지 수신 장치(20)의 성능 프로파일에 따라 변환될 수 있고, 이때 데이터 변환은 3차원 이미지의 형상 또는 질감 등 주요 요소가 손실되지 않는 범위 내에서 수행될 수 있다. The 3D image of the character generated by the first inference
도 3은 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method of generating a 3D image of a character according to an embodiment.
도 3을 참조하면, 전처리부(100)는, 템플릿 라이브러리(200)의 템플릿을 사용하여 사용자에 의해 생성된 2차원 이미지와, 캐릭터의 2차원 이미지가 생성될 때 사용된 템플릿의 식별자를 수신한다(S110). 전처리부(100)는 템플릿의 식별자를 바탕으로 캐릭터의 2차원 이미지가 생성될 때 사용된 템플릿의 템플릿 정보를 템플릿 라이브러리(200)로부터 조회할 수 있다. 도 2a를 참조하면, 전처리부(100)는 템플릿 라이브러리(200)로부터, 식별자 M001을 사용하여 템플릿 정보 - 성별: 남자, 연령: 성인 - 을 획득할 수 있다. 다음, 전처리부(100)의 제1 분석부(110)는 캐릭터의 2차원 이미지 및 템플릿 정보를 바탕으로 3차원 이미지를 생성하는 기계 학습을 위한 유효 파라미터를 추출한다(S120). 한 실시예에 따른 제1 분석부(110)는 템플릿 정보를 사용하여 2차원 이미지를 복수의 템플릿 이미지로 분할함으로써 유효 파라미터를 추출할 수 있다. Referring to FIG. 3, the
이후 전처리부(100)의 구조화부(130)는, 유효 파라미터 및 템플릿 정보를 미리 결정된 포맷으로 구조화하여 데이터 구조체를 생성하고, 생성된 데이터 구조체를 모델링부(300)에게 전달한다(S130). Thereafter, the
모델링부(300)의 분배부(310)는 데이터 구조체를 바탕으로, 모델링부(300)에 포함되거나 모델링부(300)와 연결된 복수의 추론 신경망 중에서, 3차원 이미지를 생성하기 위한 추론 신경망을 선택할 수 있다. 분배부(310)는 추론 신경망을 선택할 때, 데이터 구조체에 포함된 지시 정보를 사용하거나 또는 데이터 구조체에 포함된 템플릿 정보를 사용할 수 있다. 복수의 템플릿 이미지에 대응하는 각 신체 부분 간의 상관관계가 데이터 구조체 내에 포함되어 있지 않을 때 분배부(310)는 가중치 합 연산을 수행하는 제1 추론 신경망(320)을 선택할 수 있다. 이후 제1 추론 신경망(320)은 유효 파라미터 및 템플릿 정보를 바탕으로 가중치 합 연산을 수행하는 기계 학습을 통해 캐릭터의 3차원 이미지를 생성한다(S140). The
도 4는 다른 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a method of generating a 3D image of a character according to another embodiment.
도 4를 참조하면, 전처리부(100)는, 템플릿을 사용하여 사용자에 의해 생성된 캐릭터의 2차원 이미지와, 2차원 이미지의 생성을 위해 사용된 템플릿의 식별자를 사용자로부터 수신한다(S210). 전처리부(100)가 템플릿의 식별자를 바탕으로 템플릿 정보를 획득하는 방식은 도 3에서와 동일하므로, 여기서 다시 설명되지 않는다. 다음 전처리부(100)는 제1 분석부(110) 및 제2 분석부(120)를 사용하여 3차원 이미지를 생성하는 기계 학습을 위한 유효 파라미터를 추출한다(S220). 제1 분석부(110)는, 도 3에서와 같이, 템플릿 정보를 사용하여 2차원 이미지를 복수의 템플릿 이미지로 분할함으로써 유효 파라미터를 추출할 수 있다. 제2 분석부(120)는 동일한 식별자를 갖는 또는 사용자로부터 수신된 식별자에 대응하는 3차원 템플릿을 사용하여 캐릭터의 신체 부분 간의 상관관계를 결정할 수 있다(S230). 상관관계는 각 템플릿 이미지에 대응될 수 있다. Referring to FIG. 4, the
이후 전처리부(100)의 구조화부(130)는, 유효 파라미터, 템플릿 정보, 및 각 신체 부분 간의 상관관계를 미리 결정된 포맷으로 구조화하여 데이터 구조체를 생성하고, 생성된 데이터 구조체를 모델링부(300)에게 전달한다(S240). Thereafter, the
모델링부(300)의 분배부(310)는 데이터 구조체를 바탕으로, 모델링부(300)에 포함되거나 모델링부(300)와 연결된 복수의 추론 신경망 중에서 3차원 이미지를 생성하기 위한 추론 신경망을 선택할 수 있다. 복수의 템플릿 이미지에 대응하는 각 신체 부분 간의 상관관계가 데이터 구조체 내에 포함되어 있으므로, 분배부(310)는 제2 추론 신경망(330)을 선택함으로써, 부분적으로 3차원 이미지를 재구성하고, 3차원 부분 이미지를 조합하여 최종 3차원 이미지를 결정할 수 있다. 즉, 제2 추론 신경망(330)은 유효 파라미터, 템플릿 정보, 및 신체 부분 간의 상관관계를 바탕으로 기계 학습을 수행하여 캐릭터의 신체 부분 별로 3차원 부분 이미지를 생성하고(S250), 신체 부분 간의 상관관계를 바탕으로 3차원 부분 이미지를 조합하여 캐릭터의 최종적인 3차원 이미지를 생성할 수 있다(S260).The
위에서 설명한 대로, 라이브러리에 미리 저장된 템플릿을 바탕으로 제작된 2차원 이미지 및 템플릿의 템플릿 정보를 통해 추론 신경망의 정확도와 속도를 높일 수 있는 유효 파라미터가 추출될 수 있다. 추론 신경망이 3차원 이미지를 생성하는 단계 이전에, 기계 학습에 적합한 유효 파라미터를 추출하는 전처리를 수행함으로써, 최적의 추론 신경망이 선택될 수 있고, 추론 신경망 내의 추론 엔진의 다중화를 최적화할 수 있다.As described above, effective parameters capable of increasing the accuracy and speed of the inference neural network may be extracted through the template information of the 2D image and the template produced based on the template stored in the library in advance. Before the step of generating a 3D image by the inference neural network, by performing pre-processing to extract valid parameters suitable for machine learning, the optimal inference neural network can be selected, and the multiplexing of the inference engine within the inference neural network can be optimized.
도 5는 한 실시예에 따른 이미지 정보를 전처리하는 전처리 장치를 나타낸 블록도이다.5 is a block diagram showing a pre-processing device for pre-processing image information according to an embodiment.
한 실시예에 따른 전처리 장치는, 컴퓨터 시스템, 예를 들어 컴퓨터 판독 가능 매체로 구현될 수 있다. 도 5을 참조하면, 컴퓨터 시스템(500)은, 버스(570)를 통해 통신하는 프로세서(510), 메모리(530), 입력 인터페이스 장치(550), 출력 인터페이스 장치(560), 및 저장 장치(540) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(500)은 또한 네트워크에 결합된 통신 장치(520)를 포함할 수 있다. 프로세서(510)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(530) 또는 저장 장치(540)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(530) 및 저장 장치(540)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory) 및 RAM(random access memory)를 포함할 수 있다. 본 기재의 실시예에서 메모리는 프로세서의 내부 또는 외부에 위치할 수 있고, 메모리는 이미 알려진 다양한 수단을 통해 프로세서와 연결될 수 있다. 메모리는 다양한 형태의 휘발성 또는 비휘발성 저장 매체이며, 예를 들어, 메모리는 읽기 전용 메모리(read-only memory, ROM) 또는 랜덤 액세스 메모리(random access memory, RAM)를 포함할 수 있다.The pre-processing apparatus according to an embodiment may be implemented as a computer system, for example, a computer-readable medium. Referring to FIG. 5, the
따라서, 본 발명의 실시예는 컴퓨터에 구현된 방법으로서 구현되거나, 컴퓨터 실행 가능 명령이 저장된 비일시적 컴퓨터 판독 가능 매체로서 구현될 수 있다. 한 실시예에서, 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 명령은 본 기재의 적어도 하나의 양상에 따른 방법을 수행할 수 있다.Thus, embodiments of the present invention may be implemented as a computer-implemented method or as a non-transitory computer-readable medium having computer-executable instructions stored thereon. In one embodiment, when executed by a processor, computer readable instructions may perform a method according to at least one aspect of the present disclosure.
통신 장치(520)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. The
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. 구체적으로, 본 발명의 실시예에 따른 방법(예, 네트워크 관리 방법, 데이터 전송 방법, 전송 스케줄 생성 방법 등)은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은, 본 발명의 실시예를 위해 특별히 설계되어 구성된 것이거나, 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체는 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치를 포함할 수 있다. 예를 들어, 컴퓨터 판독 가능 기록 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 롬(ROM), 램(RAM), 플래시 메모리 등일 수 있다. 프로그램 명령은 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 통해 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. Meanwhile, the embodiment of the present invention is not implemented only through the apparatus and/or method described so far, and may be implemented through a program that realizes a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded. There is, such an implementation can be easily implemented by those skilled in the art to which the present invention pertains from the description of the above-described embodiment. Specifically, a method according to an embodiment of the present invention (eg, a network management method, a data transmission method, a transmission schedule generation method, etc.) is implemented in the form of program instructions that can be performed through various computer means, and is used for computer-readable media. Can be recorded. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for an embodiment of the present invention, or may be known and usable by those skilled in the computer software field. The computer-readable recording medium may include hardware devices configured to store and execute program instructions. For example, computer readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and floptical disks. It may be the same magneto-optical media, ROM, RAM, flash memory, and the like. The program instructions may include machine language codes such as those produced by a compiler, as well as high-level language codes that can be executed by a computer through an interpreter or the like.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
Claims (16)
상기 캐릭터의 유형에 대응하는 템플릿을 바탕으로 생성된, 상기 캐릭터의 2차원 이미지 및 상기 템플릿의 식별자를 수신하는 단계,
상기 식별자를 사용하여 템플릿 라이브러리로부터 상기 템플릿의 템플릿 정보를 획득하고, 상기 템플릿 정보 및 상기 2차원 이미지를 바탕으로 상기 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 단계, 및
상기 유효 파라미터 및 상기 템플릿 정보를 바탕으로 상기 기계 학습을 수행하여 상기 캐릭터의 상기 3차원 이미지를 생성하는 단계
를 포함하는 3차원 이미지 생성 방법.As a method of generating a 3D image of a character,
Receiving a two-dimensional image of the character and an identifier of the template, generated based on a template corresponding to the character type,
Obtaining template information of the template from a template library using the identifier, and extracting valid parameters for machine learning to be performed to generate the 3D image based on the template information and the 2D image, and
Generating the 3D image of the character by performing the machine learning based on the valid parameter and the template information
3D image generation method comprising a.
상기 템플릿 정보는 상기 캐릭터의 성별 및 상기 캐릭터의 연령대를 포함하고, 상기 2차원 이미지는 상기 성별을 갖는 상기 연령대의 캐릭터를 나타내는, 3차원 이미지 생성 방법.In claim 1,
The template information includes the gender of the character and the age group of the character, and the two-dimensional image represents a character of the age group having the gender, a 3D image generating method.
상기 템플릿 정보는 상기 캐릭터의 스타일을 더 포함하고,
상기 유효 파라미터 및 상기 템플릿 정보를 바탕으로 상기 기계 학습을 수행하여 상기 캐릭터의 상기 3차원 이미지를 생성하는 단계는,
상기 스타일에 따라 3차원 이미지를 변형하는 추론 엔진을 사용하여 상기 기계 학습을 수행하는 단계
를 포함하는, 3차원 이미지 생성 방법.In claim 2,
The template information further includes the style of the character,
Generating the three-dimensional image of the character by performing the machine learning based on the valid parameters and the template information,
Performing the machine learning using an inference engine that transforms a 3D image according to the style
Including, 3D image generation method.
상기 템플릿은 상기 템플릿 정보 및 실루엣을 포함하고, 상기 2차원 이미지는 상기 실루엣을 바탕으로 제작된 상기 캐릭터의 이미지인, 3차원 이미지 생성 방법.In claim 1,
The template includes the template information and a silhouette, and the two-dimensional image is an image of the character produced based on the silhouette.
상기 유효 파라미터는 상기 실루엣의 각 신체 부분에 매핑된 복수의 템플릿 이미지를 포함하는, 3차원 이미지 생성 방법.In claim 4,
The effective parameter includes a plurality of template images mapped to each body part of the silhouette, the method of generating a three-dimensional image.
상기 템플릿의 3차원 템플릿과, 상기 2차원 이미지를 바탕으로 상기 캐릭터의 신체 부분 간의 상관관계를 결정하는 단계
를 더 포함하고,
상기 유효 파라미터 및 상기 템플릿 정보를 바탕으로 상기 기계 학습을 수행하여 상기 캐릭터의 상기 3차원 이미지를 생성하는 단계는,
상기 상관관계를 사용하여 상기 복수의 템플릿 이미지를 합성할 수 있도록 상기 기계 학습을 수행하는 단계
를 포함하는, 3차원 이미지 생성 방법.In claim 5,
Determining a correlation between the 3D template of the template and the body part of the character based on the 2D image
Further comprising,
Generating the three-dimensional image of the character by performing the machine learning based on the valid parameters and the template information,
Performing the machine learning to synthesize the plurality of template images using the correlation.
Including, 3D image generation method.
상기 캐릭터의 유형을 나타내는 복수의 템플릿을 저장하는 템플릿 라이브러리,
상기 복수의 템플릿 중 제1 템플릿의 템플릿 정보와, 상기 제1 템플릿을 바탕으로 생성된, 상기 캐릭터의 2차원 이미지로부터, 상기 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 전처리부, 및
상기 유효 파라미터를 바탕으로 상기 기계 학습을 수행하여 상기 캐릭터의 상기 3차원 이미지를 생성하는 모델링부
를 포함하는 3차원 이미지 생성 시스템.A system that generates a 3D image of a character,
Template library for storing a plurality of templates indicating the type of the character,
Extracting valid parameters for machine learning to be performed to generate the 3D image, from the template information of the first template among the plurality of templates and the 2D image of the character generated based on the first template Pre-treatment unit, and
A modeling unit that generates the 3D image of the character by performing the machine learning based on the effective parameter
3D image generation system comprising a.
상기 템플릿 정보는 상기 캐릭터의 성별 및 상기 캐릭터의 연령대를 포함하고, 상기 2차원 이미지는 상기 성별을 갖는 상기 연령대의 캐릭터를 나타내는, 3차원 이미지 생성 시스템.In claim 7,
The template information includes the gender of the character and the age group of the character, and the two-dimensional image represents a character of the age group having the gender, a three-dimensional image generation system.
상기 템플릿 정보는 상기 캐릭터의 스타일을 더 포함하고,
상기 모델링부는,
상기 스타일에 따라 3차원 이미지를 변형하는 추론 엔진을 사용하여 상기 기계 학습을 수행하는, 3차원 이미지 생성 시스템.In claim 8,
The template information further includes the style of the character,
The modeling unit,
A system for generating a three-dimensional image, performing the machine learning using an inference engine that transforms a three-dimensional image according to the style.
상기 제1 템플릿은 상기 템플릿 정보 및 실루엣을 포함하고, 상기 2차원 이미지는 상기 실루엣을 바탕으로 제작된 상기 캐릭터의 이미지인, 3차원 이미지 생성 시스템.In claim 7,
The first template includes the template information and a silhouette, and the two-dimensional image is an image of the character produced based on the silhouette, a three-dimensional image generating system.
상기 유효 파라미터는 상기 실루엣의 각 신체 부분에 매핑된 복수의 템플릿 이미지를 포함하는, 3차원 이미지 생성 시스템.In claim 10,
The effective parameter includes a plurality of template images mapped to each body part of the silhouette, a three-dimensional image generation system.
상기 전처리부는,
상기 템플릿의 3차원 템플릿과, 상기 2차원 이미지를 바탕으로 상기 캐릭터의 신체 부분 간의 상관관계를 결정하고,
상기 모델링부는,
상기 상관관계를 사용하여 상기 복수의 템플릿 이미지를 합성할 수 있도록 상기 기계 학습을 수행하는, 3차원 이미지 생성 시스템.In claim 5,
The pre-processing unit,
The correlation between the three-dimensional template of the template and the body part of the character is determined based on the two-dimensional image,
The modeling unit,
A system for generating a 3D image to perform the machine learning so that the plurality of template images can be synthesized using the correlation.
프로세서, 메모리, 및 송수신 인터페이스를 포함하고, 상기 프로세서는 상기 메모리에 저장된 프로그램을 실행하여,
상기 캐릭터의 유형에 대응하는 템플릿을 바탕으로 생성된, 상기 캐릭터의 2차원 이미지 및 상기 템플릿의 식별자를 상기 송수신 인터페이스를 통해 수신하는 단계,
상기 식별자를 사용하여 상기 템플릿의 템플릿 정보를 획득하고, 상기 템플릿 정보 및 상기 2차원 이미지를 사용하여, 상기 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 단계, 및
상기 템플릿 정보 및 상기 유효 파라미터를 데이터 구조체로 구조화하고, 상기 기계 학습을 수행하는 모델링부에게 상기 송수신 인터페이스를 통해 상기 데이터 구조체를 전달하는 단계
를 수행하는, 전처리 장치.A device for pre-processing character image information,
A processor, a memory, and a transmission/reception interface, wherein the processor executes a program stored in the memory,
Receiving a two-dimensional image of the character and an identifier of the template generated through a template corresponding to the type of the character through the transmission/reception interface,
Obtaining template information of the template using the identifier, and using the template information and the two-dimensional image, extracting valid parameters for machine learning to be performed to generate the three-dimensional image, and
Structuring the template information and the effective parameter into a data structure, and passing the data structure through the transmission/reception interface to a modeling unit performing the machine learning
Pre-processing device.
상기 프로세서는 상기 프로그램을 실행하여,
상기 템플릿의 3차원 템플릿과, 상기 2차원 이미지를 바탕으로 상기 캐릭터의 신체 부분 간의 상관관계를 결정하는 단계
를 더 수행하고,
상기 프로세서는, 상기 템플릿 정보 및 상기 유효 파라미터를 데이터 구조체로 구조화하고, 상기 기계 학습을 수행하는 모델링부에게 상기 송수신 인터페이스를 통해 상기 데이터 구조체를 전달하는 단계를 수행할 때,
상기 템플릿 정보 및 상기 유효 파라미터와 함께 상기 상관관계를 상기 데이터 구조체로 구조화하는 단계
를 수행하는, 전처리 장치.In claim 13,
The processor executes the program,
Determining a correlation between the 3D template of the template and the body part of the character based on the 2D image
Do more,
When the processor performs the step of structuring the template information and the valid parameters into a data structure, and passing the data structure through the transmission/reception interface to a modeling unit performing machine learning,
Structuring the correlation with the template information and the valid parameters into the data structure
Pre-processing device.
상기 템플릿 정보는 상기 캐릭터의 스타일을 포함하고, 상기 데이터 구조체는 상기 모델링부의 추론 신경망에 관한 지시 정보를 포함하며, 상기 지시 정보는 상기 신체 부분에 대응하는 추론 신경망을 상기 모델링부에게 지시하는, 전처리 장치.In claim 13,
The template information includes the style of the character, the data structure includes instruction information about the reasoning neural network of the modeling unit, and the instruction information pre-processes the modeling unit to indicate the reasoning neural network corresponding to the body part. Device.
상기 템플릿 정보는 상기 캐릭터의 스타일을 포함하고, 상기 데이터 구조체는 상기 모델링부의 추론 신경망에 관한 지시 정보를 포함하며, 상기 지시 정보는 상기 스타일에 대응하는 추론 신경망을 상기 모델링부에게 지시하는, 전처리 장치. In claim 13,
The template information includes the style of the character, the data structure includes instructional information about the speculative neural network of the modeling unit, and the instructional information instructs the modeling unit of the speculative neural network corresponding to the style. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/691,160 US11138785B2 (en) | 2018-12-07 | 2019-11-21 | Method and system for generating 3D image of character |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20180157599 | 2018-12-07 | ||
KR1020180157599 | 2018-12-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200070094A true KR20200070094A (en) | 2020-06-17 |
Family
ID=71405666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190136782A KR20200070094A (en) | 2018-12-07 | 2019-10-30 | Method and system for generating 3d image of character |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200070094A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102346325B1 (en) * | 2021-07-29 | 2022-01-03 | 주식회사 위딧 | System and method for producing webtoon using three dimensional data |
KR102346329B1 (en) * | 2021-08-04 | 2022-01-03 | 주식회사 위딧 | System and method for producing webtoon using three dimensional data |
KR20230021904A (en) | 2021-08-06 | 2023-02-14 | 주식회사 케이티 | Apparatus, method and computer program for generating 3d model using 2d image |
WO2023090959A1 (en) * | 2021-11-22 | 2023-05-25 | 주식회사 컬러버스 | Three-dimensional character substitution system and method |
WO2023090960A1 (en) * | 2021-11-22 | 2023-05-25 | 주식회사 컬러버스 | Three-dimensional character substitution system and method |
-
2019
- 2019-10-30 KR KR1020190136782A patent/KR20200070094A/en not_active Application Discontinuation
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102346325B1 (en) * | 2021-07-29 | 2022-01-03 | 주식회사 위딧 | System and method for producing webtoon using three dimensional data |
KR102346329B1 (en) * | 2021-08-04 | 2022-01-03 | 주식회사 위딧 | System and method for producing webtoon using three dimensional data |
KR20230021904A (en) | 2021-08-06 | 2023-02-14 | 주식회사 케이티 | Apparatus, method and computer program for generating 3d model using 2d image |
WO2023090959A1 (en) * | 2021-11-22 | 2023-05-25 | 주식회사 컬러버스 | Three-dimensional character substitution system and method |
WO2023090960A1 (en) * | 2021-11-22 | 2023-05-25 | 주식회사 컬러버스 | Three-dimensional character substitution system and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20200070094A (en) | Method and system for generating 3d image of character | |
KR102154470B1 (en) | 3D Human Hairstyle Generation Method Based on Multiple Feature Search and Transformation | |
US20200151938A1 (en) | Generating stylized-stroke images from source images utilizing style-transfer-neural networks with non-photorealistic-rendering | |
US10163003B2 (en) | Recognizing combinations of body shape, pose, and clothing in three-dimensional input images | |
CN111476708B (en) | Model generation method, model acquisition method, device, equipment and storage medium | |
JP6719497B2 (en) | Image generation method, image generation device, and image generation system | |
CN109508678A (en) | Training method, the detection method and device of face key point of Face datection model | |
US10515456B2 (en) | Synthesizing hair features in image content based on orientation data from user guidance | |
CN111696196B (en) | Three-dimensional face model reconstruction method and device | |
JP2018163554A (en) | Image processing device, image processing method, image processing program, and teacher data generating method | |
KR102063294B1 (en) | Method and apparatus for converting ultrasound image into real image | |
CN111226258A (en) | Signal conversion system and signal conversion method | |
CN112258625B (en) | Method and system for reconstructing single image to three-dimensional point cloud model based on attention mechanism | |
US11138785B2 (en) | Method and system for generating 3D image of character | |
WO2022198684A1 (en) | Methods and systems for training quantized neural radiance field | |
WO2024103890A1 (en) | Model construction method and apparatus, reconstruction method and apparatus, and electronic device and non-volatile readable storage medium | |
US11403491B2 (en) | Object recognition from images using cad models as prior | |
CN114998527B (en) | High-accuracy three-dimensional human body surface reconstruction system | |
US11908070B2 (en) | Dynamic three-dimensional imaging method | |
US20220147738A1 (en) | Training machine learning-based models for animal feature detection | |
KR20230102698A (en) | Device for synthesizing image using adversarial generative neural network | |
CN111612861B (en) | Image synthesis method and device | |
CN114972661B (en) | Face model construction method, face image generation device and storage medium | |
CN117635897B (en) | Three-dimensional object posture complement method, device, equipment, storage medium and product | |
US11989916B2 (en) | Retro-to-modern grayscale image translation for preprocessing and data preparation of colorization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal |