KR20200070094A - Method and system for generating 3d image of character - Google Patents

Method and system for generating 3d image of character Download PDF

Info

Publication number
KR20200070094A
KR20200070094A KR1020190136782A KR20190136782A KR20200070094A KR 20200070094 A KR20200070094 A KR 20200070094A KR 1020190136782 A KR1020190136782 A KR 1020190136782A KR 20190136782 A KR20190136782 A KR 20190136782A KR 20200070094 A KR20200070094 A KR 20200070094A
Authority
KR
South Korea
Prior art keywords
template
character
image
information
dimensional image
Prior art date
Application number
KR1020190136782A
Other languages
Korean (ko)
Inventor
최진성
이승욱
김태준
윤승욱
임성재
황본우
박창준
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US16/691,160 priority Critical patent/US11138785B2/en
Publication of KR20200070094A publication Critical patent/KR20200070094A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention provides a method and system for generating a 3D image of character. The method includes the steps of: receiving an identifier of a template and a 2D image of the character generated based on the template corresponding to a type of the character; acquiring template information of the template by using the identifier, and extracting an effective parameter for machine learning to be performed to generate a 3D image based on the template information and the effective parameter; and generating the 3D image of the character by performing machine learning based on the effective parameter and the template information.

Description

캐릭터의 3차원 이미지를 생성하는 방법 및 시스템 {METHOD AND SYSTEM FOR GENERATING 3D IMAGE OF CHARACTER}Method and system for generating 3D images of characters {METHOD AND SYSTEM FOR GENERATING 3D IMAGE OF CHARACTER}

본 기재는 미리 저장된 템플릿을 이용하여 2차원 이미지로부터 캐릭터의 3차원 이미지를 생성하는 방법 및 시스템에 관한 것이다. The present description relates to a method and system for generating a 3D image of a character from a 2D image using a template stored in advance.

일반적으로 3차원 이미지 복원은 3차원 모델링 소프트웨어를 이용하여 디자이너에 의해 수작업으로 진행된다. 그러므로, 캐릭터의 고품질 3차원 이미지를 생성하기 위해서, 3차원 모델링에 많은 시간과 전문적 노하우가 요구된다. 또한, 디자이너의 숙련도에 따라 3차원 이미지의 품질이 달라진다. Generally, 3D image restoration is performed manually by a designer using 3D modeling software. Therefore, in order to generate a high-quality 3D image of a character, a lot of time and professional know-how are required for 3D modeling. In addition, the quality of the three-dimensional image varies depending on the skill level of the designer.

캐릭터의 3차원 이미지는 컴퓨터 비전과 영상 처리를 이용하여 생성될 수 있다. 컴퓨터 비전 및 영상 처리를 활용하는 방식에 따르면, 임의 시점에서의 여러 장의 이미지의 분석을 통해 특징점이 추출되고, 추출된 특징점을 바탕으로 3차원 공간 상의 카메라 위치가 계산되며, 복수의 2차원 이미지 간의 전후 관계성을 바탕으로 복수의 2차원 이미지를 연결함으로써 캐릭터의 3차원 이미지가 복원될 수 있다. The 3D image of the character can be created using computer vision and image processing. According to a method using computer vision and image processing, feature points are extracted through analysis of multiple images at any point in time, camera positions in 3D space are calculated based on the extracted feature points, and a plurality of 2D images The character's three-dimensional image can be restored by connecting a plurality of two-dimensional images based on the context before and after.

최근에는 대규모 데이터베이스 및 딥러닝 등의 인공지능 기술이 발전함에 따라, 기존 방법으로는 해석되기 어려운 컴퓨터 비전 문제가 해결 되기 시작하고, 딥러닝 기법이 3차원 모델(캐릭터 등)의 복원에 적용되고 있다. 2차원 이미지 및 이에 대응하는 3차원 이미지의 형상 정보를 학습하는 오토인코더(autoencoder) 및 알렉스넷(alexnet)의 구조가 결합된 TL-embedding 네트워크가 대표적 사례이다. 다수의 이미지 및 복셀(voxel)로 표현된 3차원 이미지의 형상 정보가 입력되면, TL-embedding 네트워크는 입력된 데이터를 학습한 후 가장 유사한 3차원 voxel 모델을 생성할 수 있다. 3차원 회귀성 재구성 신경망(Recurrent Reconstruction Neural Network)은 다양한 시점에서 촬영된 2차원 이미지를 입력으로서 기계 학습을 수행하고, 3차원 voxel 모델을 복원하는 Long Short-Term 메모리 구조 기반의 딥러닝 네트워크이다. 3차원 회귀성 재구성 신경망은, 기존의 단일 2차원 이미지 기반 복원 기술에 대비하여, 실사 영상에 대해 상대적으로 우수한 복원 성능을 보여 주었다.Recently, as artificial intelligence technologies such as large-scale databases and deep learning have developed, computer vision problems that are difficult to interpret using conventional methods have begun to be solved, and deep learning techniques have been applied to the restoration of 3D models (characters, etc.). . A typical example is a TL-embedding network that combines structures of autoencoders and alexnets that learn shape information of two-dimensional images and corresponding three-dimensional images. When the shape information of a plurality of images and 3D images represented by voxels is input, the TL-embedding network can learn the input data and generate the most similar 3D voxel model. The 3D Recurrent Reconstruction Neural Network is a deep learning network based on a long short-term memory structure that performs machine learning by inputting 2D images captured at various points in time and reconstructs a 3D voxel model. The 3D regression reconstruction neural network showed a relatively good reconstruction performance for a live image, compared to a conventional single 2D image-based reconstruction technique.

2차원 이미지를 이용하는 딥러닝 기반 3차원 복원 기술은 쉐이프넷(Shapenet)의 데이터 셋이 공개된 이후, 활발하게 연구되었고, 전통적인 기술 대비해서 우수한 결과를 보여 주었다. 하지만, 복원된 3차원 모델의 voxel 해상도는 여전히 저해상도(예를 들어, 64X64X64)이다.Deep learning-based 3D reconstruction technology using 2D images has been actively studied since the release of Shapenet's data set, and showed excellent results compared to traditional technologies. However, the reconstructed 3D model's voxel resolution is still low resolution (eg, 64X64X64).

한 실시예는, 캐릭터의 3차원 이미지를 생성하는 방법을 제공한다.One embodiment provides a method for generating a three-dimensional image of a character.

다른 실시예는, 캐릭터의 3차원 이미지를 생성하는 시스템을 제공한다.Another embodiment provides a system for generating a three-dimensional image of a character.

또 다른 실시예는, 캐릭터의 3차원 이미지를 생성하기 위한 이미지 정보를 전처리하는 장치를 제공한다.Another embodiment provides an apparatus for pre-processing image information for generating a three-dimensional image of a character.

한 실시예에 따르면, 캐릭터의 3차원 이미지를 생성하는 방법이 제공된다. 3차원 이미지 생성 방법은, 캐릭터의 유형에 대응하는 템플릿을 바탕으로 생성된, 캐릭터의 2차원 이미지 및 템플릿의 식별자를 수신하는 단계, 식별자를 사용하여 템플릿 라이브러리로부터 템플릿의 템플릿 정보를 획득하고, 템플릿 정보 및 2차원 이미지를 바탕으로 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 단계, 및 유효 파라미터 및 템플릿 정보를 바탕으로 기계 학습을 수행하여 캐릭터의 3차원 이미지를 생성하는 단계를 포함한다.According to one embodiment, a method of generating a three-dimensional image of a character is provided. The method for generating a 3D image includes receiving a 2D image of a character and an identifier of a template generated based on a template corresponding to a character type, obtaining template information of a template from a template library using the identifier, and Extracting valid parameters for machine learning to be performed to generate a 3D image based on information and a 2D image, and performing machine learning based on valid parameters and template information to generate a 3D image of a character Steps.

3차원 이미지 생성 방법에서 템플릿 정보는 캐릭터의 성별 및 캐릭터의 연령대를 포함하고, 2차원 이미지는 성별을 갖는 연령대의 캐릭터를 나타낼 수 있다.In the 3D image generation method, the template information includes the gender of the character and the age group of the character, and the 2D image may indicate a character of the age group having gender.

3차원 이미지 생성 방법에서 템플릿 정보는 캐릭터의 스타일을 더 포함하고, 유효 파라미터 및 템플릿 정보를 바탕으로 기계 학습을 수행하여 캐릭터의 3차원 이미지를 생성하는 단계는, 스타일에 따라 3차원 이미지를 변형하는 추론 엔진을 사용하여 기계 학습을 수행하는 단계를 포함할 수 있다. In the method of generating a 3D image, the template information further includes a character style, and the step of generating a 3D image of the character by performing machine learning based on valid parameters and template information is to transform the 3D image according to the style. And performing machine learning using an inference engine.

3차원 이미지 생성 방법에서 템플릿은 템플릿 정보 및 실루엣을 포함하고, 2차원 이미지는 실루엣을 바탕으로 제작된 캐릭터의 이미지일 수 있다. In the 3D image generation method, the template includes template information and a silhouette, and the 2D image may be an image of a character created based on the silhouette.

3차원 이미지 생성 방법에서 유효 파라미터는 실루엣의 각 신체 부분에 매핑된 복수의 템플릿 이미지를 포함할 수 있다.In the 3D image generation method, an effective parameter may include a plurality of template images mapped to each body part of the silhouette.

3차원 이미지 생성 방법은, 템플릿의 3차원 템플릿과, 2차원 이미지를 바탕으로 캐릭터의 신체 부분 간의 상관관계를 결정하는 단계를 더 포함하고, 유효 파라미터 및 템플릿 정보를 바탕으로 기계 학습을 수행하여 캐릭터의 3차원 이미지를 생성하는 단계는, 상관관계를 사용하여 복수의 템플릿 이미지를 합성할 수 있도록 기계 학습을 수행하는 단계를 포함할 수 있다. The 3D image generation method further includes determining a correlation between the 3D template of the template and the body part of the character based on the 2D image, and performing machine learning based on valid parameters and template information to perform character learning. The step of generating a 3D image of may include performing machine learning to synthesize a plurality of template images using correlation.

다른 실시예에 따르면, 캐릭터의 3차원 이미지를 생성하는 시스템이 제공된다. 3차원 이미지 생성 시스템은, 캐릭터의 유형을 나타내는 복수의 템플릿을 저장하는 템플릿 라이브러리, 복수의 템플릿 중 제1 템플릿의 템플릿 정보와, 제1 템플릿을 바탕으로 생성된, 캐릭터의 2차원 이미지로부터, 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 전처리부, 및 유효 파라미터를 바탕으로 기계 학습을 수행하여 캐릭터의 3차원 이미지를 생성하는 모델링부를 포함한다. According to another embodiment, a system for generating a three-dimensional image of a character is provided. The 3D image generation system includes a template library for storing a plurality of templates representing a character type, template information of a first template among a plurality of templates, and a 2D image of a character generated based on the first template, 3 It includes a pre-processing unit for extracting valid parameters for machine learning to be performed to generate a dimensional image, and a modeling unit for generating a three-dimensional image of a character by performing machine learning based on the valid parameters.

3차원 이미지 생성 시스템에서 템플릿 정보는 캐릭터의 성별 및 캐릭터의 연령대를 포함하고, 2차원 이미지는 성별을 갖는 연령대의 캐릭터를 나타낼 수 있다. In the 3D image generation system, the template information includes the gender of the character and the age group of the character, and the 2D image may indicate a character of the age group having gender.

3차원 이미지 생성 시스템에서 템플릿 정보는 캐릭터의 스타일을 더 포함하고, 모델링부는, 스타일에 따라 3차원 이미지를 변형하는 추론 엔진을 사용하여 기계 학습을 수행할 수 있다.In the 3D image generation system, the template information further includes a character style, and the modeling unit may perform machine learning using an inference engine that transforms the 3D image according to the style.

3차원 이미지 생성 시스템에서 제1 템플릿은 템플릿 정보 및 실루엣을 포함하고, 2차원 이미지는 실루엣을 바탕으로 제작된 캐릭터의 이미지일 수 있다.In the 3D image generation system, the first template includes template information and a silhouette, and the 2D image may be an image of a character produced based on the silhouette.

3차원 이미지 생성 시스템에서 유효 파라미터는 실루엣의 각 신체 부분에 매핑된 복수의 템플릿 이미지를 포함할 수 있다.In the 3D image generation system, the effective parameter may include a plurality of template images mapped to each body part of the silhouette.

3차원 이미지 생성 시스템에서 전처리부는, 템플릿의 3차원 템플릿과, 2차원 이미지를 바탕으로 캐릭터의 신체 부분 간의 상관관계를 결정하고, 모델링부는, 상관관계를 사용하여 복수의 템플릿 이미지를 합성할 수 있도록 기계 학습을 수행할 수 있다. In the 3D image generation system, the preprocessor determines a correlation between the 3D template of the template and the body part of the character based on the 2D image, and the modeling unit uses the correlation to synthesize a plurality of template images. Machine learning can be performed.

또 다른 실시예에 따르면 캐릭터의 이미지 정보를 전처리하는 장치가 제공된다. 전처리 장치는, 프로세서, 메모리, 및 송수신 인터페이스를 포함하고, 프로세서는 메모리에 저장된 프로그램을 실행하여, 캐릭터의 유형에 대응하는 템플릿을 바탕으로 생성된, 캐릭터의 2차원 이미지 및 템플릿의 식별자를 송수신 인터페이스를 통해 수신하는 단계, 식별자를 사용하여 템플릿의 템플릿 정보를 획득하고, 템플릿 정보 및 2차원 이미지를 사용하여, 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 단계, 및 템플릿 정보 및 유효 파라미터를 데이터 구조체로 구조화하고, 기계 학습을 수행하는 모델링부에게 송수신 인터페이스를 통해 데이터 구조체를 전달하는 단계를 수행한다.According to another embodiment, an apparatus for preprocessing image information of a character is provided. The pre-processing apparatus includes a processor, a memory, and a transmission/reception interface, and the processor executes a program stored in the memory, and transmits and receives the identifier of the two-dimensional image and template of the character, generated based on the template corresponding to the character type. Receiving through, obtaining template information of a template using an identifier, extracting valid parameters for machine learning to be performed to generate a 3D image, using the template information and a 2D image, and a template Structure the information and valid parameters into a data structure, and transfer the data structure through a transmission/reception interface to a modeling unit performing machine learning.

전처리 장치에서, 프로세서는 프로그램을 실행하여, 템플릿의 3차원 템플릿과, 2차원 이미지를 바탕으로 캐릭터의 신체 부분 간의 상관관계를 결정하는 단계를 더 수행하고, 프로세서는, 템플릿 정보 및 유효 파라미터를 데이터 구조체로 구조화하고, 기계 학습을 수행하는 모델링부에게 송수신 인터페이스를 통해 데이터 구조체를 전달하는 단계를 수행할 때, 템플릿 정보 및 유효 파라미터와 함께 상관관계를 데이터 구조체로 구조화하는 단계를 수행할 수 있다. In the pre-processing device, the processor further executes a program to determine a correlation between the 3D template of the template and the body part of the character based on the 2D image, and the processor data the template information and valid parameters. When performing a step of structuring into a structure and transmitting a data structure through a transmission/reception interface to a modeling unit performing machine learning, a step of structuring a correlation with a template information and valid parameters into a data structure may be performed.

전처리 장치에서 템플릿 정보는 캐릭터의 스타일을 포함하고, 데이터 구조체는 모델링부의 추론 신경망에 관한 지시 정보를 포함하며, 지시 정보는 신체 부분에 대응하는 추론 신경망을 모델링부에게 지시할 수 있다. In the pre-processing device, the template information includes a character style, the data structure includes instructing information about the inference neural network of the modeling unit, and the instructing information can instruct the modeling unit of the inference neural network corresponding to the body part.

전처리 장치에서 템플릿 정보는 캐릭터의 스타일을 포함하고, 데이터 구조체는 모델링부의 추론 신경망에 관한 지시 정보를 포함하며, 지시 정보는 스타일에 대응하는 추론 신경망을 모델링부에게 지시할 수 있다. In the pre-processing device, the template information includes the character's style, the data structure includes instructing information about the inference neural network of the modeling unit, and the instructing information can instruct the modeling unit of the inference neural network corresponding to the style.

라이브러리에 미리 저장된 템플릿을 바탕으로 제작된 2차원 이미지 및 템플릿의 템플릿 정보를 통해 추론 신경망의 정확도와 속도를 높일 수 있는 유효 파라미터가 추출될 수 있다. 추론 신경망이 3차원 이미지를 생성하는 단계 이전에, 기계 학습에 적합한 유효 파라미터를 추출하는 전처리를 수행함으로써, 최적의 추론 신경망이 선택될 수 있고, 추론 신경망 내의 추론 엔진의 다중화를 최적화할 수 있다. Effective parameters that can increase the accuracy and speed of the inference neural network can be extracted through the template information of the 2D image and the template produced based on the template stored in the library in advance. Before the step of generating a 3D image by the inference neural network, by performing pre-processing to extract valid parameters suitable for machine learning, the optimal inference neural network can be selected, and the multiplexing of the inference engine within the inference neural network can be optimized.

도 1은 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 이미지 생성 시스템을 나타낸 블록도이다.
도 2a는 한 실시예에 따른 2차원 템플릿의 실루엣 및 템플릿 정보를 나타낸 개념도이고, 도 2b는 한 실시예에 따른 2차원 템플릿의 실루엣 위에 그려진 캐릭터의 2차원 이미지를 나타낸 개념도이다.
도 3은 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 방법을 나타낸 흐름도이다.
도 4는 다른 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 방법을 나타낸 흐름도이다.
도 5는 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하기 위한 이미지 정보를 전처리하는 전처리 장치를 나타낸 블록도이다.
1 is a block diagram showing an image generation system for generating a 3D image of a character according to an embodiment.
2A is a conceptual diagram showing the silhouette and template information of a 2D template according to an embodiment, and FIG. 2B is a conceptual diagram showing a 2D image of a character drawn on the silhouette of a 2D template according to an embodiment.
3 is a flowchart illustrating a method of generating a 3D image of a character according to an embodiment.
4 is a flowchart illustrating a method of generating a 3D image of a character according to another embodiment.
5 is a block diagram showing a pre-processing apparatus for pre-processing image information for generating a three-dimensional image of a character according to an embodiment.

아래에서는 첨부한 도면을 참고로 하여 본 기재의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 기재는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 기재를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present description can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present description in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

도 1은 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 이미지 생성 시스템을 나타낸 블록도이고, 도 2a는 한 실시예에 따른 2차원 템플릿의 실루엣 및 템플릿 정보를 나타낸 개념도이며, 도 2b는 한 실시예에 따른 2차원 템플릿의 실루엣의 위에 그려진 캐릭터의 2차원 이미지를 나타낸 개념도이다.1 is a block diagram showing an image generating system for generating a 3D image of a character according to an embodiment, FIG. 2A is a conceptual diagram showing silhouette and template information of a 2D template according to an embodiment, and FIG. 2B is a It is a conceptual diagram showing a two-dimensional image of a character drawn on the silhouette of a two-dimensional template according to an embodiment.

도 1을 참조하면, 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 이미지 생성 시스템은, 전처리부(100), 템플릿 라이브러리(200), 및 모델링부(300)를 포함한다. 사용자는 한 실시예에 따른 이미지 생성 시스템을 사용하여 캐릭터의 2차원 이미지로부터 3차원 이미지를 얻을 수 있다. 사용자는 템플릿 라이브러리(200)로부터 획득된 템플릿을 사용하여 디지털 2차원 이미지 또는 아날로그 2차원 이미지를 제작할 수 있다. 예를 들어, 사용자는 통신 네트워크를 통해 템플릿 라이브러리(200)로부터 템플릿을 다운로드하고, 태블릿 PC 및 스타일러스 펜 등을 사용하여 다운로드된 템플릿의 실루엣 위에 캐릭터의 디지털 2차원 이미지를 제작한다. 또는 사용자는 템플릿 라이브러리(200)로부터 다운로드한 템플릿의 실루엣을 프린터를 사용하여 출력하고, 출력된 실루엣 위에 캐릭터의 2차원 이미지를 그린 후, 스캐너 또는 촬영 장치 등을 사용하여 손으로 그려진 2차원 이미지를 디지털 2차원 이미지로 변환할 수 있다. 2차원 이미지가 템플릿의 실루엣 위에 포개어지도록 제작됨으로써, 모델링부(300)는 딥러닝(deep learning) 등의 기계 학습을 수행하여 보다 정확한 3차원 이미지를 생성할 수 있다. Referring to FIG. 1, an image generation system for generating a 3D image of a character according to an embodiment includes a pre-processing unit 100, a template library 200, and a modeling unit 300. The user may obtain a 3D image from the 2D image of the character using the image generation system according to an embodiment. The user may create a digital 2D image or an analog 2D image using the template obtained from the template library 200. For example, a user downloads a template from the template library 200 through a communication network, and uses a tablet PC and a stylus pen to create a digital two-dimensional image of the character on the downloaded template silhouette. Alternatively, the user outputs the silhouette of the template downloaded from the template library 200 using a printer, draws a two-dimensional image of the character on the output silhouette, and then draws a hand-drawn two-dimensional image using a scanner or a photographing device. It can be converted into a digital 2D image. Since the 2D image is fabricated to be superimposed on the silhouette of the template, the modeling unit 300 may generate a more accurate 3D image by performing machine learning such as deep learning.

캐릭터의 디지털 2차원 이미지 및 2차원 이미지의 제작에 사용된 템플릿의 식별자가 이미지 생성 시스템에 입력되면, 이미지 생성 시스템은 사용자로부터 수신한, 캐릭터의 2차원 이미지 및 템플릿의 식별자를 바탕으로 캐릭터의 3차원 이미지를 생성할 수 있다. 사용자는 캐릭터의 2차원 이미지 및 템플릿의 식별자를 이미지 생성 시스템에 입력하거나, 또는 캐릭터의 2차원 이미지 및 다운로드된 템플릿을 이미지 생성 시스템에 입력할 수 있다. 전처리부(100)는 2차원 이미지 생성 장치(10)로부터 제1 인터페이스(IF1)를 통해 캐릭터의 2차원 이미지 및 2차원 이미지의 제작에 사용된 템플릿의 식별자를 수신할 수 있다. 템플릿의 식별자가 전처리부(100)로 입력될 때, 이미지 생성 시스템의 전처리부(100)는 템플릿의 식별자를 사용하여 템플릿 라이브러리(200)에서 템플릿을 검색하고, 검색된 템플릿의 템플릿 정보를 사용할 수 있다.When the identifiers of the templates used in the creation of the digital two-dimensional image and the two-dimensional image of the character are input to the image generation system, the image generation system receives three characters of the character based on the identifier of the two-dimensional image and the template of the character received from the user. You can create dimensional images. The user may input the identifiers of the two-dimensional image and the template of the character into the image generation system, or the two-dimensional image of the character and the downloaded template into the image generation system. The pre-processing unit 100 may receive a 2D image of a character and an identifier of a template used in the production of the 2D image from the 2D image generation device 10 through the first interface IF1. When the identifier of the template is input to the pre-processing unit 100, the pre-processing unit 100 of the image generation system may use the identifier of the template to search for the template in the template library 200 and use the template information of the searched template. .

한 실시예에 따른 전처리부(100)는 제1 분석부(110), 제2 분석부(120), 및 구조화부(130)를 포함한다. The pre-processing unit 100 according to an embodiment includes a first analysis unit 110, a second analysis unit 120, and a structured unit 130.

한 실시예에 따른 전처리부(100)의 제1 분석부(110)는 사용자로부터 수신된 캐릭터의 2차원 이미지 및 2차원 이미지의 제작에 사용된 템플릿의 식별자를 바탕으로 유효 파라미터를 추출할 수 있다. 유효 파라미터는, 템플릿의 실루엣의 각 신체 부분에 매핑된 복수의 템플릿 이미지를 포함할 수 있다. 예를 들어, 사용자가 도 2b와 같이 템플릿의 실루엣 위에 캐릭터의 2차원 이미지를 그렸을 때, 제1 분석부(110)는 2차원 이미지를 머리 부분, 몸통 부분, 및 하체 부분으로 분할함으로써 템플릿의 실루엣을 사용하여 2차원 이미지로부터 복수의 템플릿 이미지를 생성할 수 있다. 이때 복수의 템플릿 이미지는 각각 실루엣의 각 부분에 대응한다. 제1 분석부(110)에서 사용하는 템플릿은 2차원 템플릿 또는 3차원 템플릿일 수 있다. The first analysis unit 110 of the pre-processing unit 100 according to an embodiment may extract an effective parameter based on the identifier of the template used to produce the two-dimensional image and the two-dimensional image of the character received from the user. . The valid parameters may include a plurality of template images mapped to each body part of the silhouette of the template. For example, when the user draws a two-dimensional image of a character on the silhouette of the template as shown in FIG. 2B, the first analysis unit 110 divides the two-dimensional image into a head portion, a body portion, and a lower body portion, thereby cutting the silhouette of the template. Using can generate a plurality of template images from the two-dimensional image. At this time, the plurality of template images respectively correspond to each part of the silhouette. The template used by the first analysis unit 110 may be a 2D template or a 3D template.

한 실시예에 따른 전처리부(100)의 제2 분석부(120)는 3차원 템플릿을 바탕으로 2차원 이미지를 추가적으로 분석할 수 있다. 2차원 이미지의 제작에 사용된 템플릿의 식별자에 대응하는 3차원 템플릿이 있을 때, 제2 분석부(120)는 3차원 템플릿 및 2차원 이미지를 바탕으로 캐릭터의 신체 부분 간의 상관관계를 결정할 수 있다. The second analysis unit 120 of the preprocessing unit 100 according to an embodiment may additionally analyze a 2D image based on a 3D template. When there is a 3D template corresponding to the identifier of the template used in the production of the 2D image, the second analysis unit 120 may determine a correlation between the body parts of the character based on the 3D template and the 2D image. .

한 실시예에 따른 전처리부(100)의 구조화부(130)는 캐릭터의 2차원 이미지의 제작에 사용된 템플릿의 템플릿 정보 및 제1 분석부(110)에 의해 추출된 유효 파라미터를 구조화할 수 있다. 구조화부(130)는 템플릿 정보 및 유효 파라미터와 함께 미리 결정된 포맷을 사용하여 캐릭터의 2차원 이미지의 원본 또한 구조화할 수 있다. 구조화부(130)에 의해 구조화된, 템플릿 정보 및 유효 파라미터는 모델링부(300)로 전달되기 위해 사용되는 데이터 구조체를 구성할 수 있다. 데이터 구조체는 캐릭터의 2차원 이미지를 더 포함할 수 있다. 전처리부(100)와 모델링부(300)가 서로 유무선 네트워크를 통해 연결될 때, 캐릭터의 2차원 이미지, 템플릿 정보, 및 유효 파라미터 등은 구조화를 통해 안전한 방식으로 랩핑(wrapping)되어 전처리부(100)에서 모델링부(300)에게 전달될 수 있다. 구조화부(130)는 XML(Extensible Markup Language) 등의 포맷으로 2차원 이미지, 템플릿 정보, 및 유효 파라미터 등을 구조화할 수 있다. 다른 실시예에 따른 구조화부(130)는 캐릭터의 2차원 이미지, 템플릿, 및 유효 파라미터 등과 더불어 캐릭터의 신체 부분 간의 상관관계를 더 구조화할 수 있다. The structuring unit 130 of the pre-processing unit 100 according to an embodiment may structure template information of a template used to produce a two-dimensional image of a character and effective parameters extracted by the first analysis unit 110. . The structurer 130 may also structure the original two-dimensional image of the character using a predetermined format along with template information and valid parameters. The template information structured by the structuring unit 130 and the valid parameters may constitute a data structure used to be transmitted to the modeling unit 300. The data structure may further include a two-dimensional image of the character. When the pre-processing unit 100 and the modeling unit 300 are connected to each other through a wired/wireless network, the character's 2D image, template information, and valid parameters are wrapped in a secure manner through structuring to pre-process the 100 In the can be delivered to the modeling unit 300. The structurer 130 may structure two-dimensional images, template information, and valid parameters in a format such as Extensible Markup Language (XML). The structuring unit 130 according to another embodiment may further structure a correlation between a character's body part along with a character's two-dimensional image, a template, and valid parameters.

구조화부(130)에 의해 구조화된 데이터 구조체는 모델링부(300)의 추론 신경망에 관한 지시 정보를 포함할 수 있다. 데이터 구조체에 포함되는, 추론 신경망에 관한 지시 정보는, 각 신체 부분에 대응하는 추론 엔진 또는 추론 신경망을 지시할 수 있다. 예를 들어, 실루엣이 머리, 몸통, 하체를 신체 부분으로서 포함하고 있고 하체 부분에는 2차원 이미지가 대응되어 있지 않을 때, 추론 신경망에 관한 지시 정보는 머리 부분의 3차원 이미지를 생성하는 두부(頭部) 추론 엔진 및 몸통 부분의 3차원 이미지를 생성하는 몸통 추론 엔진을 지시할 수 있다. 또는 실루엣에 포함된 각 신체 부분에 모두 2차원 이미지가 대응되어 있고 각 신체 부분에 대응되지 않는 이미지(예를 들어, 손에 들린 무기 등)가 캐릭터의 2차원 이미지 내에 포함되어 있을 때, 추론 신경망에 관한 지시 정보는 신체 부분에 대응되지 않는 이미지의 3차원 이미지를 생성하기 위한 주변부 추론 엔진(예를 들어, 무기 등 장비의 3차원 이미지를 생성하기 위한 장비 추론 엔진 등)을 지시할 수 있다. 또는 추론 신경망에 관한 지시 정보는, 스타일(귀여운 스타일, 우아한 스타일 등)에 대응하는 추론 엔진 또는 추론 신경망을 지시할 수 있다. 이후 모델링부(300)는 스타일에 따라 3차원 이미지를 변형하는 추론 엔진 또는 추론 신경망을 선택하고, 템플릿에 의해 미리 결정된 캐릭터의 스타일에 관한 가중치를 입력된 유효 파라미터에 곱하는 등의 방식으로 기계 학습을 수행할 수 있다. 예를 들어, 템플릿에 의해 캐릭터의 스타일이 '귀여움'으로 미리 결정되어 있을 때, 추론 신경망에 관한 지시 정보는 스타일에 따라 3차원 이미지를 변형하는 데 적절한 추론 엔진 또는 추론 신경망을 지시할 수 있다. 이때, 데이터 구조체에 포함된 지시 정보에 따라 캐릭터의 3차원 이미지를 생성하기 위한 추론 신경망의 종류가 결정될 수 있다. 구조화부(130)에서 구조화에 사용하는 미리 결정된 포맷은, 새롭게 개발되는 추론 엔진, 클라우드 기반의 인공지능 서비스 플랫폼에도 사용할 수 있는 데이터 포맷일 수 있다. The data structure structured by the structurer 130 may include instructional information about the reasoning neural network of the modeling unit 300. The indication information about the inference neural network included in the data structure may indicate a reasoning engine or a reasoning neural network corresponding to each body part. For example, when the silhouette includes the head, the trunk, and the lower body as body parts, and the lower body part does not correspond to the two-dimensional image, the indication information about the inference neural network is the head to generate the three-dimensional image of the head part (頭部) The inference engine and the body inference engine that generates a three-dimensional image of the torso can be directed. Or, when a two-dimensional image is associated with each body part included in the silhouette, and an image that does not correspond to each body part (for example, a weapon held in the hand) is included in the two-dimensional image of the character, the inference neural network The instructional information regarding the periphery inference engine for generating a three-dimensional image of an image that does not correspond to a body part (eg, an equipment inference engine for generating a three-dimensional image of equipment such as weapons) may be indicated. Alternatively, the instruction information about the reasoning neural network may indicate a reasoning engine or a reasoning neural network corresponding to a style (cute style, elegant style, etc.). Thereafter, the modeling unit 300 selects an inference engine or an inference neural network that transforms the 3D image according to the style, and performs machine learning by multiplying the weight of the character's style determined by the template with the input valid parameter. It can be done. For example, when a character's style is pre-determined as'cute' by a template, the instruction information about the inference neural network may indicate an inference engine or an inference neural network suitable for transforming a 3D image according to the style. At this time, the type of inference neural network for generating a 3D image of the character may be determined according to the instruction information included in the data structure. The predetermined format used by the structuring unit 130 for structuring may be a data format that can be used for a newly developed reasoning engine and a cloud-based AI service platform.

한 실시예에 따른 템플릿 라이브러리(200) 내에는 캐릭터의 성별, 연령대, 스타일(뚱뚱함, 귀여움 등) 등에 따라 다양한 템플릿이 저장되어 있다. 즉, 템플릿은 캐릭터의 성별, 연령대, 스타일 등 캐릭터의 유형에 각각 대응하고, 하나의 템플릿이 나타내는 캐릭터의 유형은 템플릿 정보로서 템플릿 내에 포함된다. 즉, 템플릿 정보는 템플릿이 나타내는 캐릭터의 성별, 연령대, 스타일 등을 포함할 수 있다. 게임 내 캐릭터를 생성하기 위해, 템플릿 라이브러리(200)는 게임 내의 종족(race 또는 tribe) 별로 다른 템플릿을 저장할 수 있다. 즉, 캐릭터의 종족에 따라 서로 다른 템플릿이 존재할 수 있다. 각 템플릿에는 식별자가 할당되고, 하나의 식별자에 2차원 템플릿 및 3차원 템플릿이 함께 대응될 수 있다. 각 템플릿은 캐릭터의 정면, 배면, 측면, 평면, 저면 등을 나타내는 적어도 하나의 실루엣을 포함한다. 캐릭터의 2차원 이미지의 제작에 사용된 2차원 템플릿과 동일한 식별자를 갖는 3차원 템플릿은 제2 분석부(120)에 의해 캐릭터의 신체 부분 간의 상관관계가 결정될 때 사용될 수 있다. 템플릿 라이브러리(200)는 유효 파라미터를 추출하는 과정에서 획득한 값을 통해 개선될 수 있다.In the template library 200 according to an embodiment, various templates are stored according to a character's gender, age, and style (fat, cute, etc.). That is, the template corresponds to each type of character, such as the character's gender, age group, and style, and the type of character represented by one template is included in the template as template information. That is, the template information may include gender, age group, style, and the like of the character represented by the template. In order to create an in-game character, the template library 200 may store different templates for each race (race or tribe) in the game. That is, different templates may exist depending on the character's race. An identifier is assigned to each template, and a 2D template and a 3D template can be associated with one identifier. Each template includes at least one silhouette representing the front, back, side, plane, bottom, etc. of the character. The 3D template having the same identifier as the 2D template used in the production of the 2D image of the character may be used when the correlation between the body parts of the character is determined by the second analysis unit 120. The template library 200 may be improved through values obtained in the process of extracting valid parameters.

도 2a에 도시된 템플릿의 실루엣에서, M001은 템플릿의 식별자이고, M001 템플릿은 성인 남자인 캐릭터를 제작하기 위한 템플릿이다. 예를 들어, 사용자는 M001 템플릿의 실루엣에 따라, 머리 실루엣 위에 캐릭터의 정면 얼굴을 그리고, 몸통 실루엣 위에 캐릭터의 윗도리를 그리며, 하체 실루엣 위에 캐릭터의 아랫도리를 그린다. 식별자 M001의 다른 방향의 실루엣에도 사용자에 의해 2차원 이미지가 그려질 수 있다. In the silhouette of the template shown in FIG. 2A, M001 is an identifier of the template, and the M001 template is a template for producing a character who is an adult man. For example, according to the silhouette of the M001 template, the user draws the character's front face over the head silhouette, draws the character's upper coat over the body silhouette, and draws the character's lower coat over the lower body silhouette. The two-dimensional image may be drawn by the user in the silhouette in the other direction of the identifier M001.

한 실시예에 따른 모델링부(300)는 분배부(310), 제1 추론 신경망(320), 및 제2 추론 신경망(330)를 포함한다. 모델링부(300)는 3차원 이미지의 종류에 따라 또 다른 추론 신경망을 더 포함할 수 있다. 모델링부(300)는 전처리부(100)로부터 제2 인터페이스(IF2)를 통해 데이터 구조체를 수신하고, 데이터 구조체를 사용하여 추론 신경망을 구동함으로써 3차원 이미지를 생성할 수 있다.The modeling unit 300 according to an embodiment includes a distribution unit 310, a first reasoning neural network 320, and a second reasoning neural network 330. The modeling unit 300 may further include another reasoning neural network according to the type of the 3D image. The modeling unit 300 may generate a 3D image by receiving the data structure from the pre-processing unit 100 through the second interface IF2 and driving the inference neural network using the data structure.

분배부(310)는 데이터 구조체에 포함된 지시 정보를 바탕으로 3차원 이미지를 생성하기 위한 기계 학습이 수행될 추론 신경망을 결정할 수 있다. 또는 분배부(310)는 2차원 이미지의 제작 때 사용된 템플릿의 유형에 따라 기계 학습이 수행될 추론 신경망을 결정할 수 있다.The distribution unit 310 may determine an inference neural network on which machine learning for generating a 3D image is performed based on the instruction information included in the data structure. Alternatively, the distribution unit 310 may determine an inference neural network in which machine learning is to be performed according to the type of template used in the production of the 2D image.

제1 추론 신경망(320)은 다중화된 복수의 추론 엔진(NN1 내지 NNm)을 포함하고, 데이터 구조체에 포함된 유효 파라미터 및 템플릿 정보를 바탕으로 복수의 추론 엔진을 구동하여 기계 학습을 수행한다. 예를 들어, 제1 추론 신경망(320)은 가중치 합(weighted sum) 연산을 수행하여 템플릿 정보 중 템플릿의 스타일에 적합한 3차원 이미지를 생성할 수 있다. 즉, 제1 추론 신경망(320)은 가중치 신경망(weighted neural network)일 수 있다. 제1 추론 신경망(320)은, 데이터 구조체에 포함된 복수의 템플릿 이미지가 하나의 총괄적인 특성으로서 구별될 때, 3차원 캐릭터 이미지를 생성하기 위해 적합할 수 있다. 제1 추론 신경망(320)에 포함된 각 추론 엔진 마다 학습 데이터가 특화되어 있을 수 있고, 데이터 구조체를 통해 전달된 템플릿의 스타일에 적합한 3차원 캐릭터 이미지를 생성해내기 위한 최적의 추론 엔진이 기계 학습을 위해 선택될 수 있다. The first inference neural network 320 includes multiplexed inference engines NN 1 to NN m , and performs machine learning by driving a plurality of inference engines based on valid parameters and template information included in a data structure. . For example, the first inference neural network 320 may perform a weighted sum operation to generate a 3D image suitable for the style of the template among template information. That is, the first reasoning neural network 320 may be a weighted neural network. The first inference neural network 320 may be suitable for generating a 3D character image when a plurality of template images included in the data structure are distinguished as one collective characteristic. The learning data may be specialized for each reasoning engine included in the first reasoning neural network 320, and the optimal reasoning engine for generating a 3D character image suitable for the style of the template transmitted through the data structure is machine learning. Can be chosen for.

제2 추론 신경망(330)은 다중화된 복수의 추론 엔진(P1 내지 Pn)을 포함하고, 데이터 구조체에 포함된 유효 파라미터 중에서 신체 부분에 각각 대응하는 복수의 템플릿 이미지와, 3차원 템플릿을 통해 결정된 상관관계를 바탕으로 추론 엔진을 구동함으로써 캐릭터의 3차원 이미지를 생성할 수 있다. 즉, 제2 추론 신경망(330)은 부분 3차원 재구성 신경망(partial 3D reconstruction neural network)일 수 있다. 제2 추론 신경망(330)은 3차원 템플릿을 통해 결정된, 각 신체 부분 간의 상관관계를 사용하여 각 신체 부분에 대응되는 템플릿 이미지를 합성할 수 있도록 기계 학습을 수행할 수 있다. The second inference neural network 330 includes a plurality of inference engines P 1 to P n multiplexed, and through a plurality of template images and three-dimensional templates each corresponding to a body part among effective parameters included in the data structure. Based on the determined correlation, a 3D image of the character can be generated by driving the inference engine. That is, the second inference neural network 330 may be a partial 3D reconstruction neural network. The second reasoning neural network 330 may perform machine learning to synthesize a template image corresponding to each body part using a correlation between each body part determined through a 3D template.

모델링부(300)의 제1 추론 신경망(320) 또는 제2 추론 신경망(330)에 의해 생성된, 캐릭터의 3차원 이미지는 2차원 이미지를 생성한 사용자에게 피드백될 수 있다. 또는 모델링부(300)에서 생성된, 캐릭터의 3차원 이미지는 캐릭터가 사용될 콘텐츠를 표시하는 표시 장치에게로 전송될 수 있다. 3차원 이미지가 표시 장치로 전송될 때, 3차원 이미지의 데이터는 3차원 이미지 수신 장치(20)의 성능 프로파일에 따라 변환될 수 있고, 이때 데이터 변환은 3차원 이미지의 형상 또는 질감 등 주요 요소가 손실되지 않는 범위 내에서 수행될 수 있다. The 3D image of the character generated by the first inference neural network 320 or the second inference neural network 330 of the modeling unit 300 may be fed back to the user who generated the 2D image. Alternatively, the 3D image of the character, generated by the modeling unit 300, may be transmitted to a display device that displays content to be used by the character. When the 3D image is transmitted to the display device, the data of the 3D image may be converted according to the performance profile of the 3D image receiving device 20, wherein the data conversion is performed by major elements such as the shape or texture of the 3D image. It can be performed within a range that is not lost.

도 3은 한 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method of generating a 3D image of a character according to an embodiment.

도 3을 참조하면, 전처리부(100)는, 템플릿 라이브러리(200)의 템플릿을 사용하여 사용자에 의해 생성된 2차원 이미지와, 캐릭터의 2차원 이미지가 생성될 때 사용된 템플릿의 식별자를 수신한다(S110). 전처리부(100)는 템플릿의 식별자를 바탕으로 캐릭터의 2차원 이미지가 생성될 때 사용된 템플릿의 템플릿 정보를 템플릿 라이브러리(200)로부터 조회할 수 있다. 도 2a를 참조하면, 전처리부(100)는 템플릿 라이브러리(200)로부터, 식별자 M001을 사용하여 템플릿 정보 - 성별: 남자, 연령: 성인 - 을 획득할 수 있다. 다음, 전처리부(100)의 제1 분석부(110)는 캐릭터의 2차원 이미지 및 템플릿 정보를 바탕으로 3차원 이미지를 생성하는 기계 학습을 위한 유효 파라미터를 추출한다(S120). 한 실시예에 따른 제1 분석부(110)는 템플릿 정보를 사용하여 2차원 이미지를 복수의 템플릿 이미지로 분할함으로써 유효 파라미터를 추출할 수 있다. Referring to FIG. 3, the pre-processor 100 receives a 2D image generated by a user using a template of the template library 200 and an identifier of a template used when a 2D image of a character is generated. (S110). The pre-processing unit 100 may query template information of the template used when the 2D image of the character is generated based on the identifier of the template from the template library 200. Referring to FIG. 2A, the preprocessor 100 may obtain template information-gender: man, age: adult-from the template library 200 using the identifier M001. Next, the first analysis unit 110 of the pre-processing unit 100 extracts an effective parameter for machine learning to generate a 3D image based on the 2D image and template information of the character (S120). The first analysis unit 110 according to an embodiment may extract an effective parameter by dividing a two-dimensional image into a plurality of template images using template information.

이후 전처리부(100)의 구조화부(130)는, 유효 파라미터 및 템플릿 정보를 미리 결정된 포맷으로 구조화하여 데이터 구조체를 생성하고, 생성된 데이터 구조체를 모델링부(300)에게 전달한다(S130). Thereafter, the structuring unit 130 of the pre-processing unit 100 constructs a data structure by structuring valid parameters and template information in a predetermined format, and delivers the generated data structure to the modeling unit 300 (S130).

모델링부(300)의 분배부(310)는 데이터 구조체를 바탕으로, 모델링부(300)에 포함되거나 모델링부(300)와 연결된 복수의 추론 신경망 중에서, 3차원 이미지를 생성하기 위한 추론 신경망을 선택할 수 있다. 분배부(310)는 추론 신경망을 선택할 때, 데이터 구조체에 포함된 지시 정보를 사용하거나 또는 데이터 구조체에 포함된 템플릿 정보를 사용할 수 있다. 복수의 템플릿 이미지에 대응하는 각 신체 부분 간의 상관관계가 데이터 구조체 내에 포함되어 있지 않을 때 분배부(310)는 가중치 합 연산을 수행하는 제1 추론 신경망(320)을 선택할 수 있다. 이후 제1 추론 신경망(320)은 유효 파라미터 및 템플릿 정보를 바탕으로 가중치 합 연산을 수행하는 기계 학습을 통해 캐릭터의 3차원 이미지를 생성한다(S140). The distribution unit 310 of the modeling unit 300 selects an inference neural network for generating a 3D image among a plurality of inference neural networks included in the modeling unit 300 or connected to the modeling unit 300 based on the data structure. Can be. When selecting the inference neural network, the distribution unit 310 may use indication information included in the data structure or template information included in the data structure. When the correlation between each body part corresponding to the plurality of template images is not included in the data structure, the distribution unit 310 may select the first inference neural network 320 performing the weight sum operation. Thereafter, the first inference neural network 320 generates a three-dimensional image of the character through machine learning that performs a weighted sum operation based on valid parameters and template information (S140).

도 4는 다른 실시예에 따른 캐릭터의 3차원 이미지를 생성하는 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a method of generating a 3D image of a character according to another embodiment.

도 4를 참조하면, 전처리부(100)는, 템플릿을 사용하여 사용자에 의해 생성된 캐릭터의 2차원 이미지와, 2차원 이미지의 생성을 위해 사용된 템플릿의 식별자를 사용자로부터 수신한다(S210). 전처리부(100)가 템플릿의 식별자를 바탕으로 템플릿 정보를 획득하는 방식은 도 3에서와 동일하므로, 여기서 다시 설명되지 않는다. 다음 전처리부(100)는 제1 분석부(110) 및 제2 분석부(120)를 사용하여 3차원 이미지를 생성하는 기계 학습을 위한 유효 파라미터를 추출한다(S220). 제1 분석부(110)는, 도 3에서와 같이, 템플릿 정보를 사용하여 2차원 이미지를 복수의 템플릿 이미지로 분할함으로써 유효 파라미터를 추출할 수 있다. 제2 분석부(120)는 동일한 식별자를 갖는 또는 사용자로부터 수신된 식별자에 대응하는 3차원 템플릿을 사용하여 캐릭터의 신체 부분 간의 상관관계를 결정할 수 있다(S230). 상관관계는 각 템플릿 이미지에 대응될 수 있다. Referring to FIG. 4, the pre-processing unit 100 receives a two-dimensional image of a character generated by a user using a template and an identifier of a template used for generating the two-dimensional image from the user (S210). The method in which the pre-processing unit 100 obtains template information based on the identifier of the template is the same as in FIG. 3, and thus will not be described again. Next, the pre-processing unit 100 extracts an effective parameter for machine learning to generate a 3D image using the first analysis unit 110 and the second analysis unit 120 (S220). As illustrated in FIG. 3, the first analysis unit 110 may extract an effective parameter by dividing a two-dimensional image into a plurality of template images using template information. The second analysis unit 120 may determine a correlation between body parts of the character using a 3D template having the same identifier or corresponding to the identifier received from the user (S230). Correlation may correspond to each template image.

이후 전처리부(100)의 구조화부(130)는, 유효 파라미터, 템플릿 정보, 및 각 신체 부분 간의 상관관계를 미리 결정된 포맷으로 구조화하여 데이터 구조체를 생성하고, 생성된 데이터 구조체를 모델링부(300)에게 전달한다(S240). Thereafter, the structuring unit 130 of the pre-processing unit 100 constructs a data structure by structuring valid parameters, template information, and correlation between each body part in a predetermined format, and modeling the generated data structure 300 It is delivered to (S240).

모델링부(300)의 분배부(310)는 데이터 구조체를 바탕으로, 모델링부(300)에 포함되거나 모델링부(300)와 연결된 복수의 추론 신경망 중에서 3차원 이미지를 생성하기 위한 추론 신경망을 선택할 수 있다. 복수의 템플릿 이미지에 대응하는 각 신체 부분 간의 상관관계가 데이터 구조체 내에 포함되어 있으므로, 분배부(310)는 제2 추론 신경망(330)을 선택함으로써, 부분적으로 3차원 이미지를 재구성하고, 3차원 부분 이미지를 조합하여 최종 3차원 이미지를 결정할 수 있다. 즉, 제2 추론 신경망(330)은 유효 파라미터, 템플릿 정보, 및 신체 부분 간의 상관관계를 바탕으로 기계 학습을 수행하여 캐릭터의 신체 부분 별로 3차원 부분 이미지를 생성하고(S250), 신체 부분 간의 상관관계를 바탕으로 3차원 부분 이미지를 조합하여 캐릭터의 최종적인 3차원 이미지를 생성할 수 있다(S260).The distribution unit 310 of the modeling unit 300 may select an inference neural network for generating a 3D image among a plurality of inference neural networks included in or connected to the modeling unit 300 based on the data structure. have. Since the correlation between each body part corresponding to the plurality of template images is included in the data structure, the distribution unit 310 partially reconstructs the 3D image by selecting the second inference neural network 330, and the 3D part The final three-dimensional image can be determined by combining the images. That is, the second reasoning neural network 330 generates a 3D partial image for each body part of the character by performing machine learning based on the correlation between valid parameters, template information, and body parts (S250), and correlation between body parts Based on the relationship, a 3D partial image may be combined to generate a final 3D image of the character (S260).

위에서 설명한 대로, 라이브러리에 미리 저장된 템플릿을 바탕으로 제작된 2차원 이미지 및 템플릿의 템플릿 정보를 통해 추론 신경망의 정확도와 속도를 높일 수 있는 유효 파라미터가 추출될 수 있다. 추론 신경망이 3차원 이미지를 생성하는 단계 이전에, 기계 학습에 적합한 유효 파라미터를 추출하는 전처리를 수행함으로써, 최적의 추론 신경망이 선택될 수 있고, 추론 신경망 내의 추론 엔진의 다중화를 최적화할 수 있다.As described above, effective parameters capable of increasing the accuracy and speed of the inference neural network may be extracted through the template information of the 2D image and the template produced based on the template stored in the library in advance. Before the step of generating a 3D image by the inference neural network, by performing pre-processing to extract valid parameters suitable for machine learning, the optimal inference neural network can be selected, and the multiplexing of the inference engine within the inference neural network can be optimized.

도 5는 한 실시예에 따른 이미지 정보를 전처리하는 전처리 장치를 나타낸 블록도이다.5 is a block diagram showing a pre-processing device for pre-processing image information according to an embodiment.

한 실시예에 따른 전처리 장치는, 컴퓨터 시스템, 예를 들어 컴퓨터 판독 가능 매체로 구현될 수 있다. 도 5을 참조하면, 컴퓨터 시스템(500)은, 버스(570)를 통해 통신하는 프로세서(510), 메모리(530), 입력 인터페이스 장치(550), 출력 인터페이스 장치(560), 및 저장 장치(540) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(500)은 또한 네트워크에 결합된 통신 장치(520)를 포함할 수 있다. 프로세서(510)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(530) 또는 저장 장치(540)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(530) 및 저장 장치(540)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory) 및 RAM(random access memory)를 포함할 수 있다. 본 기재의 실시예에서 메모리는 프로세서의 내부 또는 외부에 위치할 수 있고, 메모리는 이미 알려진 다양한 수단을 통해 프로세서와 연결될 수 있다. 메모리는 다양한 형태의 휘발성 또는 비휘발성 저장 매체이며, 예를 들어, 메모리는 읽기 전용 메모리(read-only memory, ROM) 또는 랜덤 액세스 메모리(random access memory, RAM)를 포함할 수 있다.The pre-processing apparatus according to an embodiment may be implemented as a computer system, for example, a computer-readable medium. Referring to FIG. 5, the computer system 500 includes a processor 510 communicating through a bus 570, a memory 530, an input interface device 550, an output interface device 560, and a storage device 540 ). Computer system 500 may also include a communication device 520 coupled to the network. The processor 510 may be a central processing unit (CPU) or a semiconductor device that executes instructions stored in the memory 530 or the storage device 540. The memory 530 and the storage device 540 may include various types of volatile or nonvolatile storage media. For example, the memory may include read only memory (ROM) and random access memory (RAM). In the embodiments of the present disclosure, the memory may be located inside or outside the processor, and the memory may be connected to the processor through various known means. Memory is a volatile or non-volatile storage medium of various types, and for example, the memory may include read-only memory (ROM) or random access memory (RAM).

따라서, 본 발명의 실시예는 컴퓨터에 구현된 방법으로서 구현되거나, 컴퓨터 실행 가능 명령이 저장된 비일시적 컴퓨터 판독 가능 매체로서 구현될 수 있다. 한 실시예에서, 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 명령은 본 기재의 적어도 하나의 양상에 따른 방법을 수행할 수 있다.Thus, embodiments of the present invention may be implemented as a computer-implemented method or as a non-transitory computer-readable medium having computer-executable instructions stored thereon. In one embodiment, when executed by a processor, computer readable instructions may perform a method according to at least one aspect of the present disclosure.

통신 장치(520)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. The communication device 520 may transmit or receive a wired signal or a wireless signal.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. 구체적으로, 본 발명의 실시예에 따른 방법(예, 네트워크 관리 방법, 데이터 전송 방법, 전송 스케줄 생성 방법 등)은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은, 본 발명의 실시예를 위해 특별히 설계되어 구성된 것이거나, 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체는 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치를 포함할 수 있다. 예를 들어, 컴퓨터 판독 가능 기록 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 롬(ROM), 램(RAM), 플래시 메모리 등일 수 있다. 프로그램 명령은 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 통해 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. Meanwhile, the embodiment of the present invention is not implemented only through the apparatus and/or method described so far, and may be implemented through a program that realizes a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded. There is, such an implementation can be easily implemented by those skilled in the art to which the present invention pertains from the description of the above-described embodiment. Specifically, a method according to an embodiment of the present invention (eg, a network management method, a data transmission method, a transmission schedule generation method, etc.) is implemented in the form of program instructions that can be performed through various computer means, and is used for computer-readable media. Can be recorded. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for an embodiment of the present invention, or may be known and usable by those skilled in the computer software field. The computer-readable recording medium may include hardware devices configured to store and execute program instructions. For example, computer readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and floptical disks. It may be the same magneto-optical media, ROM, RAM, flash memory, and the like. The program instructions may include machine language codes such as those produced by a compiler, as well as high-level language codes that can be executed by a computer through an interpreter or the like.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

Claims (16)

캐릭터의 3차원 이미지를 생성하는 방법으로서,
상기 캐릭터의 유형에 대응하는 템플릿을 바탕으로 생성된, 상기 캐릭터의 2차원 이미지 및 상기 템플릿의 식별자를 수신하는 단계,
상기 식별자를 사용하여 템플릿 라이브러리로부터 상기 템플릿의 템플릿 정보를 획득하고, 상기 템플릿 정보 및 상기 2차원 이미지를 바탕으로 상기 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 단계, 및
상기 유효 파라미터 및 상기 템플릿 정보를 바탕으로 상기 기계 학습을 수행하여 상기 캐릭터의 상기 3차원 이미지를 생성하는 단계
를 포함하는 3차원 이미지 생성 방법.
As a method of generating a 3D image of a character,
Receiving a two-dimensional image of the character and an identifier of the template, generated based on a template corresponding to the character type,
Obtaining template information of the template from a template library using the identifier, and extracting valid parameters for machine learning to be performed to generate the 3D image based on the template information and the 2D image, and
Generating the 3D image of the character by performing the machine learning based on the valid parameter and the template information
3D image generation method comprising a.
제1항에서,
상기 템플릿 정보는 상기 캐릭터의 성별 및 상기 캐릭터의 연령대를 포함하고, 상기 2차원 이미지는 상기 성별을 갖는 상기 연령대의 캐릭터를 나타내는, 3차원 이미지 생성 방법.
In claim 1,
The template information includes the gender of the character and the age group of the character, and the two-dimensional image represents a character of the age group having the gender, a 3D image generating method.
제2항에서,
상기 템플릿 정보는 상기 캐릭터의 스타일을 더 포함하고,
상기 유효 파라미터 및 상기 템플릿 정보를 바탕으로 상기 기계 학습을 수행하여 상기 캐릭터의 상기 3차원 이미지를 생성하는 단계는,
상기 스타일에 따라 3차원 이미지를 변형하는 추론 엔진을 사용하여 상기 기계 학습을 수행하는 단계
를 포함하는, 3차원 이미지 생성 방법.
In claim 2,
The template information further includes the style of the character,
Generating the three-dimensional image of the character by performing the machine learning based on the valid parameters and the template information,
Performing the machine learning using an inference engine that transforms a 3D image according to the style
Including, 3D image generation method.
제1항에서,
상기 템플릿은 상기 템플릿 정보 및 실루엣을 포함하고, 상기 2차원 이미지는 상기 실루엣을 바탕으로 제작된 상기 캐릭터의 이미지인, 3차원 이미지 생성 방법.
In claim 1,
The template includes the template information and a silhouette, and the two-dimensional image is an image of the character produced based on the silhouette.
제4항에서,
상기 유효 파라미터는 상기 실루엣의 각 신체 부분에 매핑된 복수의 템플릿 이미지를 포함하는, 3차원 이미지 생성 방법.
In claim 4,
The effective parameter includes a plurality of template images mapped to each body part of the silhouette, the method of generating a three-dimensional image.
제5항에서,
상기 템플릿의 3차원 템플릿과, 상기 2차원 이미지를 바탕으로 상기 캐릭터의 신체 부분 간의 상관관계를 결정하는 단계
를 더 포함하고,
상기 유효 파라미터 및 상기 템플릿 정보를 바탕으로 상기 기계 학습을 수행하여 상기 캐릭터의 상기 3차원 이미지를 생성하는 단계는,
상기 상관관계를 사용하여 상기 복수의 템플릿 이미지를 합성할 수 있도록 상기 기계 학습을 수행하는 단계
를 포함하는, 3차원 이미지 생성 방법.
In claim 5,
Determining a correlation between the 3D template of the template and the body part of the character based on the 2D image
Further comprising,
Generating the three-dimensional image of the character by performing the machine learning based on the valid parameters and the template information,
Performing the machine learning to synthesize the plurality of template images using the correlation.
Including, 3D image generation method.
캐릭터의 3차원 이미지를 생성하는 시스템으로서,
상기 캐릭터의 유형을 나타내는 복수의 템플릿을 저장하는 템플릿 라이브러리,
상기 복수의 템플릿 중 제1 템플릿의 템플릿 정보와, 상기 제1 템플릿을 바탕으로 생성된, 상기 캐릭터의 2차원 이미지로부터, 상기 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 전처리부, 및
상기 유효 파라미터를 바탕으로 상기 기계 학습을 수행하여 상기 캐릭터의 상기 3차원 이미지를 생성하는 모델링부
를 포함하는 3차원 이미지 생성 시스템.
A system that generates a 3D image of a character,
Template library for storing a plurality of templates indicating the type of the character,
Extracting valid parameters for machine learning to be performed to generate the 3D image, from the template information of the first template among the plurality of templates and the 2D image of the character generated based on the first template Pre-treatment unit, and
A modeling unit that generates the 3D image of the character by performing the machine learning based on the effective parameter
3D image generation system comprising a.
제7항에서,
상기 템플릿 정보는 상기 캐릭터의 성별 및 상기 캐릭터의 연령대를 포함하고, 상기 2차원 이미지는 상기 성별을 갖는 상기 연령대의 캐릭터를 나타내는, 3차원 이미지 생성 시스템.
In claim 7,
The template information includes the gender of the character and the age group of the character, and the two-dimensional image represents a character of the age group having the gender, a three-dimensional image generation system.
제8항에서,
상기 템플릿 정보는 상기 캐릭터의 스타일을 더 포함하고,
상기 모델링부는,
상기 스타일에 따라 3차원 이미지를 변형하는 추론 엔진을 사용하여 상기 기계 학습을 수행하는, 3차원 이미지 생성 시스템.
In claim 8,
The template information further includes the style of the character,
The modeling unit,
A system for generating a three-dimensional image, performing the machine learning using an inference engine that transforms a three-dimensional image according to the style.
제7항에서,
상기 제1 템플릿은 상기 템플릿 정보 및 실루엣을 포함하고, 상기 2차원 이미지는 상기 실루엣을 바탕으로 제작된 상기 캐릭터의 이미지인, 3차원 이미지 생성 시스템.
In claim 7,
The first template includes the template information and a silhouette, and the two-dimensional image is an image of the character produced based on the silhouette, a three-dimensional image generating system.
제10항에서,
상기 유효 파라미터는 상기 실루엣의 각 신체 부분에 매핑된 복수의 템플릿 이미지를 포함하는, 3차원 이미지 생성 시스템.
In claim 10,
The effective parameter includes a plurality of template images mapped to each body part of the silhouette, a three-dimensional image generation system.
제5항에서,
상기 전처리부는,
상기 템플릿의 3차원 템플릿과, 상기 2차원 이미지를 바탕으로 상기 캐릭터의 신체 부분 간의 상관관계를 결정하고,
상기 모델링부는,
상기 상관관계를 사용하여 상기 복수의 템플릿 이미지를 합성할 수 있도록 상기 기계 학습을 수행하는, 3차원 이미지 생성 시스템.
In claim 5,
The pre-processing unit,
The correlation between the three-dimensional template of the template and the body part of the character is determined based on the two-dimensional image,
The modeling unit,
A system for generating a 3D image to perform the machine learning so that the plurality of template images can be synthesized using the correlation.
캐릭터의 이미지 정보를 전처리하는 장치로서,
프로세서, 메모리, 및 송수신 인터페이스를 포함하고, 상기 프로세서는 상기 메모리에 저장된 프로그램을 실행하여,
상기 캐릭터의 유형에 대응하는 템플릿을 바탕으로 생성된, 상기 캐릭터의 2차원 이미지 및 상기 템플릿의 식별자를 상기 송수신 인터페이스를 통해 수신하는 단계,
상기 식별자를 사용하여 상기 템플릿의 템플릿 정보를 획득하고, 상기 템플릿 정보 및 상기 2차원 이미지를 사용하여, 상기 3차원 이미지를 생성하기 위해 수행될 기계 학습을 위한 유효 파라미터를 추출하는 단계, 및
상기 템플릿 정보 및 상기 유효 파라미터를 데이터 구조체로 구조화하고, 상기 기계 학습을 수행하는 모델링부에게 상기 송수신 인터페이스를 통해 상기 데이터 구조체를 전달하는 단계
를 수행하는, 전처리 장치.
A device for pre-processing character image information,
A processor, a memory, and a transmission/reception interface, wherein the processor executes a program stored in the memory,
Receiving a two-dimensional image of the character and an identifier of the template generated through a template corresponding to the type of the character through the transmission/reception interface,
Obtaining template information of the template using the identifier, and using the template information and the two-dimensional image, extracting valid parameters for machine learning to be performed to generate the three-dimensional image, and
Structuring the template information and the effective parameter into a data structure, and passing the data structure through the transmission/reception interface to a modeling unit performing the machine learning
Pre-processing device.
제13항에서,
상기 프로세서는 상기 프로그램을 실행하여,
상기 템플릿의 3차원 템플릿과, 상기 2차원 이미지를 바탕으로 상기 캐릭터의 신체 부분 간의 상관관계를 결정하는 단계
를 더 수행하고,
상기 프로세서는, 상기 템플릿 정보 및 상기 유효 파라미터를 데이터 구조체로 구조화하고, 상기 기계 학습을 수행하는 모델링부에게 상기 송수신 인터페이스를 통해 상기 데이터 구조체를 전달하는 단계를 수행할 때,
상기 템플릿 정보 및 상기 유효 파라미터와 함께 상기 상관관계를 상기 데이터 구조체로 구조화하는 단계
를 수행하는, 전처리 장치.
In claim 13,
The processor executes the program,
Determining a correlation between the 3D template of the template and the body part of the character based on the 2D image
Do more,
When the processor performs the step of structuring the template information and the valid parameters into a data structure, and passing the data structure through the transmission/reception interface to a modeling unit performing machine learning,
Structuring the correlation with the template information and the valid parameters into the data structure
Pre-processing device.
제13항에서,
상기 템플릿 정보는 상기 캐릭터의 스타일을 포함하고, 상기 데이터 구조체는 상기 모델링부의 추론 신경망에 관한 지시 정보를 포함하며, 상기 지시 정보는 상기 신체 부분에 대응하는 추론 신경망을 상기 모델링부에게 지시하는, 전처리 장치.
In claim 13,
The template information includes the style of the character, the data structure includes instruction information about the reasoning neural network of the modeling unit, and the instruction information pre-processes the modeling unit to indicate the reasoning neural network corresponding to the body part. Device.
제13항에서,
상기 템플릿 정보는 상기 캐릭터의 스타일을 포함하고, 상기 데이터 구조체는 상기 모델링부의 추론 신경망에 관한 지시 정보를 포함하며, 상기 지시 정보는 상기 스타일에 대응하는 추론 신경망을 상기 모델링부에게 지시하는, 전처리 장치.
In claim 13,
The template information includes the style of the character, the data structure includes instructional information about the speculative neural network of the modeling unit, and the instructional information instructs the modeling unit of the speculative neural network corresponding to the style. .
KR1020190136782A 2018-12-07 2019-10-30 Method and system for generating 3d image of character KR20200070094A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/691,160 US11138785B2 (en) 2018-12-07 2019-11-21 Method and system for generating 3D image of character

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180157599 2018-12-07
KR1020180157599 2018-12-07

Publications (1)

Publication Number Publication Date
KR20200070094A true KR20200070094A (en) 2020-06-17

Family

ID=71405666

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190136782A KR20200070094A (en) 2018-12-07 2019-10-30 Method and system for generating 3d image of character

Country Status (1)

Country Link
KR (1) KR20200070094A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102346325B1 (en) * 2021-07-29 2022-01-03 주식회사 위딧 System and method for producing webtoon using three dimensional data
KR102346329B1 (en) * 2021-08-04 2022-01-03 주식회사 위딧 System and method for producing webtoon using three dimensional data
KR20230021904A (en) 2021-08-06 2023-02-14 주식회사 케이티 Apparatus, method and computer program for generating 3d model using 2d image
WO2023090959A1 (en) * 2021-11-22 2023-05-25 주식회사 컬러버스 Three-dimensional character substitution system and method
WO2023090960A1 (en) * 2021-11-22 2023-05-25 주식회사 컬러버스 Three-dimensional character substitution system and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102346325B1 (en) * 2021-07-29 2022-01-03 주식회사 위딧 System and method for producing webtoon using three dimensional data
KR102346329B1 (en) * 2021-08-04 2022-01-03 주식회사 위딧 System and method for producing webtoon using three dimensional data
KR20230021904A (en) 2021-08-06 2023-02-14 주식회사 케이티 Apparatus, method and computer program for generating 3d model using 2d image
WO2023090959A1 (en) * 2021-11-22 2023-05-25 주식회사 컬러버스 Three-dimensional character substitution system and method
WO2023090960A1 (en) * 2021-11-22 2023-05-25 주식회사 컬러버스 Three-dimensional character substitution system and method

Similar Documents

Publication Publication Date Title
KR20200070094A (en) Method and system for generating 3d image of character
KR102154470B1 (en) 3D Human Hairstyle Generation Method Based on Multiple Feature Search and Transformation
US20200151938A1 (en) Generating stylized-stroke images from source images utilizing style-transfer-neural networks with non-photorealistic-rendering
US10163003B2 (en) Recognizing combinations of body shape, pose, and clothing in three-dimensional input images
CN111476708B (en) Model generation method, model acquisition method, device, equipment and storage medium
JP6719497B2 (en) Image generation method, image generation device, and image generation system
CN109508678A (en) Training method, the detection method and device of face key point of Face datection model
US10515456B2 (en) Synthesizing hair features in image content based on orientation data from user guidance
CN111696196B (en) Three-dimensional face model reconstruction method and device
JP2018163554A (en) Image processing device, image processing method, image processing program, and teacher data generating method
KR102063294B1 (en) Method and apparatus for converting ultrasound image into real image
CN111226258A (en) Signal conversion system and signal conversion method
CN112258625B (en) Method and system for reconstructing single image to three-dimensional point cloud model based on attention mechanism
US11138785B2 (en) Method and system for generating 3D image of character
WO2022198684A1 (en) Methods and systems for training quantized neural radiance field
WO2024103890A1 (en) Model construction method and apparatus, reconstruction method and apparatus, and electronic device and non-volatile readable storage medium
US11403491B2 (en) Object recognition from images using cad models as prior
CN114998527B (en) High-accuracy three-dimensional human body surface reconstruction system
US11908070B2 (en) Dynamic three-dimensional imaging method
US20220147738A1 (en) Training machine learning-based models for animal feature detection
KR20230102698A (en) Device for synthesizing image using adversarial generative neural network
CN111612861B (en) Image synthesis method and device
CN114972661B (en) Face model construction method, face image generation device and storage medium
CN117635897B (en) Three-dimensional object posture complement method, device, equipment, storage medium and product
US11989916B2 (en) Retro-to-modern grayscale image translation for preprocessing and data preparation of colorization

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal