KR102259126B1 - Appartus and method for generating customizing image - Google Patents
Appartus and method for generating customizing image Download PDFInfo
- Publication number
- KR102259126B1 KR102259126B1 KR1020190058459A KR20190058459A KR102259126B1 KR 102259126 B1 KR102259126 B1 KR 102259126B1 KR 1020190058459 A KR1020190058459 A KR 1020190058459A KR 20190058459 A KR20190058459 A KR 20190058459A KR 102259126 B1 KR102259126 B1 KR 102259126B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- input
- basic
- model
- customized
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
커스터마이징 이미지 생성 방법 및 장치가 개시된다. 본 발명의 일실시예에 따르면, 커스터마이징 이미지 생성 방법은 클라이언트로부터 2D 입력 이미지를 수신하는 동작, 상기 2D 입력 이미지로부터 특징점을 추출하는 동작, 데이터베이스로부터 상기 특징점을 기초로 기초 커스터마이징 이미지를 선택하는 동작 및 상기 기초 커스터마이징 이미지 및 상기 특징점을 기초로 최종 3D 모델을 생성하고, 상기 최종 3D 모델을 이용하여 하나 이상의 프리셋 이미지를 제공하는 동작을 포함한다.A method and apparatus for creating a custom image are disclosed. According to an embodiment of the present invention, the method for generating a custom image includes the steps of receiving a 2D input image from a client, extracting feature points from the 2D input image, selecting a basic customized image based on the feature points from a database, and and generating a final 3D model based on the basic customized image and the feature point, and providing one or more preset images using the final 3D model.
Description
아래의 실시예들은 아래의 실시예들은 커스터마이징 이미지를 생성 장치 및 방법에 관한 것이다.The following embodiments relate to an apparatus and method for generating a custom image.
PC(Personal Computer)용 게임, 비디오용 게임, 무선 단말기용 게임, 네트워크 게임 등에서 캐릭터의 외관을 수정할 수 있는 커스터마이징 서비스가 제공된다. 특히, MMORPG, MMOSNG(Massively Multiplayer Online Social Network Game), MMOSLG(Massively Multiplayer Online Simulation Game) 등의 다수의 플레이어가 동시에 접속하는 게임의 경우, 캐릭터의 외관은 플레이어의 개성을 반영하는 수단으로 사용되며, 게임에 플레이어를 유인하는 중요한 요소로 작용한다.A customization service capable of modifying the appearance of a character in a PC (Personal Computer) game, a video game, a wireless terminal game, and a network game is provided. In particular, in the case of a game in which multiple players connect at the same time, such as MMORPG, MMOSNG (Massively Multiplayer Online Social Network Game), and MMOSLG (Massively Multiplayer Online Simulation Game), the appearance of the character is used as a means of reflecting the individuality of the player, It acts as an important factor in attracting players to the game.
본 발명의 실시예에 따르면, 커스터마이징 이미지 생성 장치는 사용자가 쉽게 수집할 수 있는 2D 입력 이미지를 이용하여 3D의 출력 커스터마이징 이미지를 간편하고 정확하게 생성할 수 있다.According to an embodiment of the present invention, the custom image generating apparatus may simply and accurately generate a 3D output custom image by using a 2D input image that a user can easily collect.
또한, 본 발명의 다른 실시예에 따르면, 클라이언트는 사용자로부터 수신한 동작 입력을 기초로 출력 커스터마이징 이미지의 생성 과정을 시작함으로써 시스템은 2D 입력 이미지가 3D의 출력 커스터마이징 이미지로 변환되는 경험을 사용자에게 제공하고, 사용자 경험을 향상시킬 수 있다.In addition, according to another embodiment of the present invention, the client starts the process of generating an output customization image based on the motion input received from the user, so that the system provides the user with an experience in which a 2D input image is converted into a 3D output customized image. and improve the user experience.
본 발명의 일실시예에 따르면, 커스터마이징 이미지 생성 방법은 클라이언트로부터 2D 입력 이미지를 수신하는 동작; 상기 2D 입력 이미지로부터 특징점을 추출하는 동작; 데이터베이스로부터 상기 특징점을 기초로 기초 커스터마이징 이미지를 선택하는 동작; 및 상기 기초 커스터마이징 이미지 및 상기 특징점을 기초로 최종 3D 모델을 생성하고, 상기 최종 3D 모델을 이용하여 하나 이상의 프리셋 이미지를 제공하는 동작을 포함한다.According to an embodiment of the present invention, a method for generating a custom image includes: receiving a 2D input image from a client; extracting feature points from the 2D input image; selecting a basic customized image from a database based on the feature point; and generating a final 3D model based on the basic customized image and the feature point, and providing one or more preset images using the final 3D model.
또한, 상기 기초 커스터마이징 이미지를 선택하는 동작은, 상기 데이터베이스에 저장된 복수의 기초 커스터마이징 이미지 중에서 상기 특징점과 유사한 파라미터를 가지는 기초 커스터마이징 이미지를 선택할 수 있다.In addition, the selecting of the basic customized image may include selecting a basic customized image having a parameter similar to the characteristic point from among a plurality of basic customized images stored in the database.
또한, 상기 프리셋 이미지를 제공하는 동작은, 상기 기초 커스터마이징 이미지의 파라미터를 기초로 상기 최종 3D 모델을 생성할 수 있다.In addition, the operation of providing the preset image may generate the final 3D model based on the parameters of the basic customized image.
또한, 상기 프리셋 이미지를 제공하는 동작은, 상기 최종 3D 모델의 입력 파라미터를 뉴럴 네트워크에 입력하여 출력된 출력 파라미터를 기초로 최종 3D 모델을 생성할 수 있다.In addition, the providing of the preset image may include inputting an input parameter of the final 3D model to a neural network and generating a final 3D model based on an output parameter.
또한, 상기 2D 입력 이미지를 수신하는 동작은, 하나 이상의 신체 부위에 대응하는 하나 이상의 2D 입력 이미지를 수신하고, 상기 특징점을 추출하는 동작은, 상기 하나 이상의 2D 입력 이미지로부터 각각의 특징점을 추출하고, 상기 프리셋 이미지를 제공하는 동작은, 상기 추출된 하나 이상의 2D 입력 이미지에 대응하는 특징점들을 결합하여 상기 최종 3D 모델을 생성할 수 있다.In addition, the operation of receiving the 2D input image includes receiving one or more 2D input images corresponding to one or more body parts, and the operation of extracting the feature points includes extracting each feature point from the one or more 2D input images, The operation of providing the preset image may generate the final 3D model by combining feature points corresponding to the extracted one or more 2D input images.
상기 커스터마이징 이미지 생성 방법은, 사용자 입력에 의해 상기 하나 이상의 프리셋 이미지 중에서 선택되고 수정된 최종 커스터마이징 이미지를 이용하여 추천 모듈을 학습하는 동작을 더 포함할 수 있다. The method for generating a customized image may further include learning a recommendation module using a final customized image selected and modified from among the one or more preset images by a user input.
본 발명의 일 실시예에 따르면, 커스터마이징 이미지 생성 장치는 적어도 하나의 프로세서; 및 클라이언트와 통신하는 I/O 인터페이스를 포함하고, 상기 I/O 인터페이스는, 상기 클라이언트로부터 2D 입력 이미지를 수신하고, 상기 프로세서는, 상기 2D 입력 이미지로부터 특징점을 추출하고, 데이터베이스로부터 상기 특징점을 기초로 기초 커스터마이징 이미지를 선택하고, 상기 기초 커스터마이징 이미지를 기초로 최종 3D 모델을 생성하고, 상기 최종 3D 모델로부터 생성된 하나 이상의 프리셋 이미지를 제공할 수 있다.According to an embodiment of the present invention, an apparatus for generating a customized image includes at least one processor; and an I/O interface in communication with a client, wherein the I/O interface receives a 2D input image from the client, the processor extracts a feature point from the 2D input image, and based on the feature point from a database may select a basic customized image, generate a final 3D model based on the basic customized image, and provide one or more preset images generated from the final 3D model.
상기 프로세서는, 상기 데이터베이스에 저장된 복수의 기초 커스터마이징 이미지 중에서 상기 특징점과 유사한 파라미터를 가지는 기초 커스터마이징 이미지를 선택할 수 있다.The processor may select a basic customized image having a parameter similar to the feature point from among a plurality of basic customized images stored in the database.
상기 프로세서는, 상기 기초 커스터마이징 이미지의 파라미터를 기초로 상기 최종 3D 모델을 생성할 수 있다.The processor may generate the final 3D model based on the parameters of the basic customized image.
상기 프로세서는, 상기 최종 3D 모델의 입력 파라미터를 뉴럴 네트워크에 입력하여 출력된 출력 파라미터를 기초로 최종 3D 모델을 생성할 수 있다.The processor may input the input parameter of the final 3D model to the neural network and generate the final 3D model based on the output parameter.
상기 I/O 인터페이스는, 하나 이상의 신체 부위에 대응하는 하나 이상의 2D 입력 이미지를 수신하고, 상기 프로세서는, 상기 하나 이상의 2D 입력 이미지로부터 각각의 특징점을 추출하고, 상기 추출된 하나 이상의 2D 입력 이미지에 대응하는 특징점들을 결합하여 상기 최종 3D 모델을 생성할 수 있다.The I/O interface receives one or more 2D input images corresponding to one or more body parts, and the processor extracts each feature point from the one or more 2D input images, and adds the extracted one or more 2D input images. The final 3D model may be generated by combining corresponding feature points.
본 발명의 또 다른 실시예에 따르면, 적어도 하나의 프로세서; 제1 면 및 제2 면을 포함하는 디스플레이; 상기 제1 면 및 상기 제2 면의 폴딩(folding) 상태 및 언폴딩(unfolding) 상태를 감지하는 폴딩 센서; 및 커스터마이징 이미지 생성 장치와 통신하는 I/O 인터페이스를 포함하고, 상기 폴딩 센서가 언폴딩 상태를 감지할 때, 상기 제1 면은 2D 입력 이미지를 표시하고, 상기 폴딩 센서가 폴딩 상태를 감지할 때, 상기 I/O 인터페이스는 상기 커스터마이징 이미지 생성 장치로 상기 2D 입력 이미지를 송신하고, 상기 I/O 인터페이스는, 상기 커스터마이징 이미지 생성 장치로부터 하나 이상의 프리셋 이미지를 수신하고, 상기 하나 이상의 프리셋 이미지 중에서 출력 커스터마이징 이미지의 선택 신호를 상기 커스터마이징 이미지 생성 장치로 송신하고, 상기 프리셋 이미지는, 상기 2D 입력 이미지, 데이터베이스에 저장된 기초 커스터마이징 이미지 및 뉴럴 네트워크를 기초로 생성된 3D 모델로부터 생성될 수 있다.According to another embodiment of the present invention, at least one processor; a display comprising a first side and a second side; a folding sensor for detecting a folding state and an unfolding state of the first surface and the second surface; and an I/O interface communicating with a custom image generating device, wherein when the folding sensor detects an unfolded state, the first surface displays a 2D input image, and when the folding sensor detects a folded state , the I/O interface sends the 2D input image to the custom image generating device, the I/O interface receives one or more preset images from the custom image generating device, and customizes an output among the one or more preset images An image selection signal may be transmitted to the customized image generating apparatus, and the preset image may be generated from the 2D input image, the basic customized image stored in a database, and a 3D model generated based on a neural network.
본 발명의 또 다른 실시예에 따르면, 적어도 하나의 프로세서; 제1 면 및 제2 면을 포함하는 디스플레이; 상기 제1 면 및 상기 제2 면의 터치(touch)를 감지하는 터치 센서; 및 커스터마이징 이미지 생성 장치와 통신하는 I/O 인터페이스를 포함하고, 상기 제1 면은 2D 입력 이미지를 표시하고, 상기 터치 센서가 상기 제1 면으로부터 상기 제2 면을 향하는 방향으로 상기 2D 입력 이미지의 드래그 동작을 감지할 때, 상기 I/O 인터페이스는 상기 커스터마이징 이미지 생성 장치로 상기 2D 입력 이미지를 송신하고, 상기 I/O 인터페이스는, 상기 커스터마이징 이미지 생성 장치로부터 하나 이상의 프리셋 이미지를 수신하고, 상기 하나 이상의 프리셋 이미지 중에서 출력 커스터마이징 이미지의 선택 신호를 상기 커스터마이징 이미지 생성 장치로 송신하고, 상기 프리셋 이미지는, 상기 2D 입력 이미지, 데이터베이스에 저장된 기초 커스터마이징 이미지 및 뉴럴 네트워크를 기초로 생성된 3D 모델로부터 생성될 수 있다.According to another embodiment of the present invention, at least one processor; a display comprising a first side and a second side; a touch sensor for sensing a touch of the first surface and the second surface; and an I/O interface in communication with a custom image generating device, wherein the first side displays a 2D input image, and wherein the touch sensor moves from the first side toward the second side of the 2D input image. Upon detecting a drag operation, the I/O interface sends the 2D input image to the customizing image generating device, and the I/O interface receives one or more preset images from the customizing image generating device, and the one A selection signal of an output custom image among the preset images is transmitted to the custom image generating device, and the preset image may be generated from the 2D input image, the basic custom image stored in the database, and a 3D model generated based on a neural network. have.
본 발명의 일실시예에 따르면, 커스터마이징 이미지 생성 장치는 사용자가 쉽게 수집할 수 있는 2D 입력 이미지를 이용하여 3D의 출력 커스터마이징 이미지를 간편하고 정확하게 생성할 있는 효과가 있다.According to an embodiment of the present invention, the custom image generating apparatus has an effect of simply and accurately generating a 3D output custom image by using a 2D input image that can be easily collected by a user.
본 발명의 일 실시예에 따르면, 클라이언트는 사용자로부터 수신한 동작 입력을 기초로 출력 커스터마이징 이미지의 생성 과정을 시작함으로써 시스템은 2D 입력 이미지가 3D의 출력 커스터마이징 이미지로 변환되는 경험을 사용자에게 제공하고, 사용자 경험을 향상시킬 수 있는 효과가 있다.According to an embodiment of the present invention, the system provides the user with an experience in which the 2D input image is converted into a 3D output customized image by the client starting the process of generating the output customizing image based on the motion input received from the user, It has the effect of improving the user experience.
도 1은 일 실시예에 따른 커스터마이징 이미지를 생성하는 시스템의 전체 구성을 도시한 도면이다.
도 2는 일 실시예에 따른 커스터마이징 이미지 생성 방법의 전체 동작을 도시한 순서도이다.
도 3은 일 실시예에 따른 커스터마이징 이미지를 생성하는 과정을 도시한 흐름도이다.
도 4는 일 실시예에 따른 커스터마이징 이미지를 생성하는 과정을 예시적으로 도시한 도면이다.
도 5는 일 실시예에 따른 커스터마이징 이미지 생성 장치의 전체 구성을 도시한 도면이다.
도 6은 일 실시예에 따른 클라이언트의 전체 구성을 도시한 도면이다.
도 7은 일 실시예에 따른 클라이언트의 커스터마이징 이미지를 생성하는 일례이다.
도 8은 다른 실시예에 따른 클라이언트의 커스터마이징 이미지를 생성하는 일례이다.1 is a diagram illustrating an overall configuration of a system for generating a customized image according to an embodiment.
2 is a flowchart illustrating an overall operation of a method for generating a customized image according to an exemplary embodiment.
3 is a flowchart illustrating a process of generating a customized image according to an exemplary embodiment.
4 is a diagram exemplarily illustrating a process of generating a custom image according to an embodiment.
5 is a diagram illustrating an overall configuration of an apparatus for generating a customized image according to an exemplary embodiment.
6 is a diagram illustrating an overall configuration of a client according to an embodiment.
7 is an example of generating a customized image of a client according to an embodiment.
8 is an example of generating a customized image of a client according to another embodiment.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in the present specification are exemplified only for the purpose of describing the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention can apply various changes and have various forms, the embodiments will be illustrated in the drawings and described in detail in the present specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes all changes, equivalents, or substitutes included in the spirit and scope of the present invention.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various constituent elements, but the constituent elements should not be limited by the terms. The terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of the rights according to the concept of the present invention, the first component may be referred to as the second component, and similarly The second component may also be referred to as a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle. Other expressions describing the relationship between components, such as "between" and "directly between" or "adjacent to" and "directly adjacent to" should be interpreted as well.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, action, component, part, or combination thereof is present, but one or more other features or numbers It is to be understood that the possibility of addition or presence of, steps, actions, components, parts, or combinations thereof is not preliminarily excluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms as defined in a commonly used dictionary should be construed as having a meaning consistent with the meaning of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present specification. Does not.
이하의 설명에서 동일한 식별 기호는 동일한 구성을 의미하며, 불필요한 중복적인 설명 및 공지 기술에 대한 설명은 생략하기로 한다.In the following description, the same identification symbols mean the same configuration, and unnecessary redundant descriptions and descriptions of known technologies will be omitted.
본 발명의 실시 예에서 '통신', '통신망' 및 '네트워크'는 동일한 의미로 사용될 수 있다. 상기 세 용어들은, 파일을 사용자 단말, 다른 사용자들의 단말 및 다운로드 서버 사이에서 송수신할 수 있는 유무선의 근거리 및 광역 데이터 송수신망을 의미한다.In an embodiment of the present invention,'communication','communication network', and'network' may be used with the same meaning. The three terms refer to wired/wireless local and wide area data transmission/reception networks capable of transmitting and receiving files between a user terminal, a terminal of other users, and a download server.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail by describing a preferred embodiment of the present invention with reference to the accompanying drawings.
도 1은 일 실시예에 따른 커스터마이징 이미지를 생성하는 시스템의 전체 구성을 도시한 도면이다.1 is a diagram illustrating an overall configuration of a system for generating a customized image according to an embodiment.
일 실시예에 따르면, 시스템은 사용자로부터 2D 입력 이미지를 입력 받고, 출력 커스터마이징 이미지를 클라이언트를 통해 출력할 수 있다. 시스템은 2D 입력 이미지를 분석하여 3D의 출력 커스터마이징 이미지를 출력할 수 있다. 시스템은 2D 입력 이미지의 분석 결과를 기초로 커스터마이징 이미지 생성을 위해 축적한 데이터 및 분석 결과를 종합하여 출력 커스터마이징 이미지를 출력할 수 있다. 이를 통해, 시스템은 사용자가 쉽게 수집할 수 있는 2D 입력 이미지를 이용하여 3D의 출력 커스터마이징 이미지를 간편하고 정확하게 생성할 수 있다.According to an embodiment, the system may receive a 2D input image from a user and output an output customized image through the client. The system may analyze the 2D input image and output a 3D output customized image. Based on the analysis result of the 2D input image, the system may output the output customized image by synthesizing the accumulated data and the analysis result to generate the customized image. This allows the system to easily and accurately create 3D output customized images using 2D input images that users can easily collect.
도 1을 참조하면, 시스템은 클라이언트(110) 및 커스터마이징 이미지 생성 장치(100)를 포함할 수 있다. 클라이언트(110)와 커스터마이징 이미지 생성 장치(100)는 네트워크로 연결될 수 있다. 커스터마이징 이미지 생성 장치(100)는 서버를 포함할 수 있다. 커스터마이징 이미지 생성 장치(100)는 클라이언트(110)로부터 수신한 2D 입력 이미지를 분석하고, 커스터마이징 이미지 생성을 위해 축적한 데이터 및 분석 결과를 종합하여 출력 커스터마이징 이미지를 출력할 수 있다.Referring to FIG. 1 , a system may include a
커스터마이징 이미지 생성 장치(100)은 2D 입력 이미지로부터 특징점을 추출할 수 있다. 여기서, 특징점은 하나의 2D 입력 이미지를 다른 2D 입력 이미지와 구별하는 정보를 의미할 수 있다. 특징점은 랜드마크(landmark)로 지칭될 수 있으며, 점에 한정되지 않고 선이나 면을 포함할 수 있다. 특징점은 2D 입력 이미지 상의 물리적인 위치를 점유할 수도 있지만, 2D 입력 이미지의 특징을 반영하는 추상적인 정보를 포함할 수도 있다.The custom
커스터마이징 이미지 생성 장치(100)은 특징점을 이용하여 3D 모델을 생성할 수 있다. 커스터마이징 이미지 생성 장치(100)은 특징점을 반영하는 3D 모델을 생성할 수 있다. 이하에서, 특징점이 반영되어 최초로 생성된 3D 모델은 기초 3D 모델로 지칭될 수 있다. 예를 들어, 커스터마이징 이미지 생성 장치(100)은 특징점을 기초로 제로 베이스에서 3D 모델을 생성할 수 있다. 다른 예로, 커스터마이징 이미지 생성 장치(100)은 이미 존재하는 3D 모델에 특징점을 반영하여 수정된 3D 모델을 생성할 수도 있다. 커스터마이징 이미지 생성 장치(100)은 특징점을 기초로 이미 존재하는 복수의 3D 모델 중에서 적합한 3D 모델을 기본 모델로 선택할 수 있다. 커스터마이징 이미지 생성 장치(100)은 기본 모델의 가변 파라미터를 특징점을 기초로 변경함으로써 기초 3D 모델을 생성할 수 있다.The custom
커스터마이징 이미지 생성 장치(100)은 기초 3D 모델을 기존에 축적해온 데이터를 이용하여 수정할 수 있다. 커스터마이징 이미지 생성 장치(100)은 기존에 커스터마이징된 이미지들 중에서 기초 3D 모델을 수정하는데 사용될 기초 커스터마이징 이미지를 선택할 수 있다. 커스터마이징 이미지 생성 장치(100)은 특징점을 기초로 기초 커스터마이징 이미지를 선택할 수 있다. 커스터마이징 이미지 생성 장치(100)은 기초 커스터마이징 이미지를 이용하여 기초 3D 모델을 수정할 수 있다. 이처럼, 커스터마이징 이미지 생성 장치(100)은 기존의 커스터마이징 이미지를 이용하여 기초 3D 모델을 수정함으로써 사용자 또는 복수의 사용자들의 경향을 기초 3D 모델에 반영할 수 있다.The custom
커스터마이징 이미지 생성 장치(100)은 뉴럴 네트워크를 이용하여 기존에 축적해온 데이터를 기초 3D 모델에 반영할 수 있다. 뉴럴 네트워크는 학습 데이터를 이용하여 딥 러닝 방식으로 미리 학습될 수 있다. 학습 데이터는 뉴럴 네트워크를 학습시키기 위한 학습 데이터를 의미한다. 학습 데이터는 2D 입력 이미지 또는 커스터마이징 이미지를 포함할 수 있다. 학습 데이터는 2D 입력 이미지 또는 커스터마이징 이미지의 특징을 나타내는 벡터 정보를 포함할 수 있다. 학습 데이터는 학습 영상 쌍을 포함할 수 있다. 학습 영상 쌍은 제1 학습 영상 쌍과 제2 학습 영상 쌍을 포함한다. 제1 학습 영상 쌍은 2D 입력 이미지 및 2D 입력 이미지가 잘 반영된 커스터마이징 이미지를 포함할 수 있다. 제2 학습 영상 쌍은 2D 입력 이미지 및 2D 입력 이미지가 잘 반영되지 않은 커스터마이징 이미지를 포함할 수 있다.The custom
딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화 (abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다. 이 밖에도, 커스터마이징 이미지 생성 장치(100)은 GAN(Generative Adversarial Networks) 또는 VAE(Variational Auto Encoder)와 같은 제너레이티브 모델(Generative Model)을 이용할 수도 있다. 제너레이티브 모델은 샘플 이미지들로부터 실제 이미지와 유사한 이미지를 생성할 수 있는 모델을 만드는 데 이용된다. 예를 들어, 제너레이티브 모델은 사람의 얼굴 이미지들로부터 실제 사진과 같은 사람 얼굴 이미지를 생성해내는 데 이용될 수 있다.Deep learning is a set of machine learning algorithms that attempt high-level abstraction (a task that summarizes core contents or functions in large amounts of data or complex data) through a combination of several nonlinear transformation methods. Defined. Deep learning can be viewed as a field of machine learning that teaches computers to think in a broad framework. Examples of deep learning techniques include Deep Neural Networks (DNN), Convolutional Deep Neural Networks (CNN), Reccurent Neural Network (RNN), and Deep Belief Networks (DBN). have. In addition, the custom
커스터마이징 이미지 생성 장치(100)은 뉴럴 네트워크를 이용하여 기초 3D 모델을 수정할 수 있다. 커스터마이징 이미지 생성 장치(100)은 기초 3D 모델을 표현하는 입력 정보를 뉴럴 네트워크에 입력할 수 있다. 입력 정보는 벡터 형태로서 뉴럴 네트워크의 각각의 레이어를 거쳐 출력 벡터로 변환될 수 있다. 커스터마이징 이미지 생성 장치(100)은 출력 벡터를 기초로 기초 3D 모델을 수정할 수 있다. 이처럼, 커스터마이징 이미지 생성 장치(100)은 기존의 미리 학습된 뉴럴 네트워크를 이용하여 기초 3D 모델을 수정함으로써 기초 3D 모델의 품질을 향상시킬 수 있다.The custom
사용자(120)는 클라이언트(110)에 2D 입력 이미지를 입력할 수 있다. 사용자(120)는 클라이언트(110)에 2D 입력 이미지를 입력하고, 간단한 동작을 통하여 2D 입력 이미지로부터 출력 커스터마이징 이미지를 출력할 수 있다. 클라이언트(110)는 사용자(120)로부터 수신한 동작 입력을 기초로 출력 커스터마이징 이미지의 생성 과정을 시작할 수 있다. 여기서, 동작 입력은 클라이언트(110)의 특성에 기초한 직관적인 동작 입력을 포함할 수 있다. 이를 통해, 시스템은 2D 입력 이미지가 3D의 출력 커스터마이징 이미지로 변환되는 경험을 사용자(120)에게 제공하고, 사용자 경험을 향상시킬 수 있다.The
예를 들어, 사용자(120)는 폴더블(foldable) 단말기의 폴딩(folding) 동작을 통하여 출력 커스터마이징 이미지의 생성을 위한 동작 입력을 클라이언트(110)에 입력할 수 있다. 클라이언트(110)는 폴더블 단말기를 포함할 수 있다. 클라이언트(110)의 디스플레이는 접힐 수 있는 제1 면과 제2 면으로 형성될 수 있다. 사용자(120)가 입력한 2D 입력 이미지는 제1 면에 표시될 수 있다. For example, the
사용자(120)는 클라이언트(110)의 제1 면과 제2 면을 접을 수 있다. 클라이언트(110)는 폴딩 동작을 인식하고, 2D 입력 이미지에 대한 커스터마이징 이미지의 생성 과정을 시작할 수 있다. 클라이언트(110)는 커스터마이징 이미지 생성 장치(100)로 2D 입력 이미지를 전송할 수 있다.The
커스터마이징 이미지 생성 장치(100)는 2D 입력 이미지를 수신하고 분석할 수 있다. 커스터마이징 이미지 생성 장치(100)는 2D 입력 이미지로부터 특징점을 추출하고 커스터마이징 이미지 생성을 위해 축적한 데이터를 이용하여 출력 커스터마이징 이미지를 출력할 수 있다. The custom
커스터마이징 이미지 생성 장치(100)는 출력 커스터마이징 이미지를 클라이언트(110)에 전송할 수 있다. 클라이언트(110)는 출력 커스터마이징 이미지를 디스플레이의 제2 면에 표시할 수 있다. 이처럼, 제1 면에 표시된 2D 입력 이미지는 폴딩 동작을 통해 제2 면의 출력 커스터마이징 이미지로 표시됨으로써 사용자(120)에게 직관적인 사용자 경험을 제공할 수 있다.The customized
다른 예로, 사용자(120)는 디스플레이에 표시된 2D 입력 이미지에 대한 드래그(drag) 동작을 통하여 출력 커스터마이징 이미지의 생성을 위한 동작 입력을 클라이언트(110)에 입력할 수 있다. 클라이언트(110)는 디스플레이를 포함할 수 있다. 디스플레이는 접히는 제1 면 및 제2 면으로 구성될 수도 있고, 접히지 않는 하나의 면으로 구성될 수도 있다.As another example, the
디스플레이의 상단에는 사용자가 입력한 2D 입력 이미지가 표시될 수 있다. 사용자(120)는 드래그 동작을 통해 2D 입력 이미지를 디스플레이의 하단으로 이동할 수 있다. 클라이언트(110)는 사용자(120)의 디스플레이의 상단에 대한 터치 동작을 인식하고, 터치가 유지되는 상태로 디스플레이의 하단으로의 드래그 동작을 인식할 수 있다. 클라이언트(110)는 드래그 동작에 대응하여 2D 입력 이미지에 대한 커스터마이징 이미지의 생성 과정을 시작할 수 있다. 클라이언트(110)는 커스터마이징 이미지 생성 장치(100)로 2D 입력 이미지를 전송할 수 있다.A 2D input image input by a user may be displayed on the upper portion of the display. The
커스터마이징 이미지 생성 장치(100)는 2D 입력 이미지를 수신하고 분석할 수 있다. 커스터마이징 이미지 생성 장치(100)는 2D 입력 이미지로부터 특징점을 추출하고 커스터마이징 이미지 생성을 위해 축적한 데이터를 이용하여 출력 커스터마이징 이미지를 출력할 수 있다. The custom
커스터마이징 이미지 생성 장치(100)는 출력 커스터마이징 이미지를 클라이언트(110)에 전송할 수 있다. 클라이언트(110)는 출력 커스터마이징 이미지를 디스플레이의 하단에 표시할 수 있다. 이처럼, 디스플레이의 상단에 표시된 2D 입력 이미지는 드래그 동작을 통해 변환되고 디스플레이의 하단에 출력 커스터마이징 이미지가 표시됨으로써 사용자(120)에게 직관적인 사용자 경험을 제공할 수 있다.The customized
클라이언트(110)는 사용자의 키 조작에 따라 AP를 포함한 통신 중개장치를 이용하여 각종 데이터를 송수신할 수 있는 단말기를 말하는 것이며, 태블릿 PC(Tablet PC), 랩톱(Laptop), 개인용 컴퓨터(PC: Personal Computer), 스마트폰(Smart Phone), 개인휴대용 정보단말기(PDA: Personal Digital Assistant) 및 이동통신 단말기(Mobile Communication Terminal) 등 중 어느 하나일 수 있다. 클라이언트(110)는 폴더블 스마트폰을 포함할 수 있다. 클라이언트(110)는 AP 및 통신망을 이용하여 음성 또는 데이터 통신을 수행하는 단말기이며, AP 및 통신망을 경유하여 외부 장치와 통신하기 위한 프로그램 또는 프로토콜을 저장하기 위한 메모리, 해당 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하고 있는 단말기를 의미한다. 즉, 클라이언트(110)는 AP 및 통신망을 이용하여 통신이 가능하다면 그 어떠한 단말기도 가능하며, 노트북 컴퓨터, 이동통신 단말기, PDA 등 여하한 통신 컴퓨팅 장치를 모두 포함하는 넓은 개념이다. 한편, 클라이언트(110)는 사용자의 조작을 통한 입출력을 수행하기 위해 터치 스크린을 구비한 형태로 제작되는 것이 바람직하며, 사용자의 조작에 따른 입력을 통해 게임 프로그램을 구동할 수 있다. The
클라이언트(110)는 비디오 게임용 단말기, 오락실용 단말기, 휴대용 단말기, PC용 단말기, 유선 또는 무선 단말기를 적어도 하나 이상 포함하여 이루어지는 것이 바람직하며, 단말기에 구비된 소정의 키입력수단은 키보드, 마우스, 게임조작 유니트, 아날로그 유니트, 터치 스크린을 적어도 하나 이상 포함할 수 있다. The
클라이언트(110)는, 사용자 장비, 모바일, 무선 통신이 가능한 PC, 핸드폰, 키오스크, 셀룰러 폰, 셀룰러, 셀룰러 단말, 가입자 유닛, 가입자국, 이동국, 단말, 원격국, PDA, 원격 단말, 액세스 단말, 사용자 에이전트, 무선 접속 기능을 구비하는 휴대용 장치, 무선 모뎀과 같은, 무선 접속 매커니즘을 사용할 수 있는 임의의 장치 등으로 지칭될 수 있으나, 이들로 한정되지는 않는다. 클라이언트(110)는 단말기 또는 피어로 지칭될 수도 있다.The
커스터마이징 이미지 생성 장치(100)는 커스터마이징 이미지를 생성하기 위한 서버와 함께 게임 서버를 포함할 수 있다. 게임 서버는 클라이언트(110)가 접속되며, 접속된 클라이언트(110)로 서비스를 제공할 수 있다. 또한, 게임 서버는 회원 가입 절차를 진행하여 그에 따라 회원으로 가입된 사용자의 각종 정보를 저장하여 관리하고, 게임에 관련된 각종 아이템에 대한 구매 및 결제 기능을 제공할 수도 있다. 또한, 게임 서버는, 사용자 간에 게임 대전을 할 수 있도록, 복수의 클라이언트 각각에서 실행되는 게임 애플리케이션의 실행 데이터를 실시간으로 중계할 수도 있다.The custom
이러한 서버는 하드웨어적으로는 통상적인 웹 서버(Web Server) 또는 왑 서버(WAP Server)와 동일한 구성을 하고 있다. 그러나, 소프트웨어적으로는, C, C++, Java, Visual Basic, Visual C 등 여하한 언어를 통하여 구현되어 여러 가지 기능을 하는 프로그램 모듈(Module)을 포함한다.In terms of hardware, such a server has the same configuration as a typical web server (Web Server) or WAP server (WAP Server). However, in terms of software, it includes program modules that perform various functions by being implemented through any language such as C, C++, Java, Visual Basic, and Visual C.
또한, 서버는 일반적으로 인터넷과 같은 개방형 컴퓨터 네트워크를 통하여 불특정 다수 클라이언트 및/또는 다른 서버와 연결되어 있고, 클라이언트 또는 다른 서버의 작업수행 요청을 접수하고 그에 대한 작업 결과를 도출하여 제공하는 컴퓨터 시스템 및 그를 위하여 설치되어 있는 컴퓨터 소프트웨어(서버 프로그램)를 뜻하는 것이다.In addition, the server is generally connected to a large number of unspecified clients and/or other servers through an open computer network such as the Internet, and receives a request to perform work from a client or other server, derives the work result for it, and provides a computer system and It means computer software (server program) installed for him.
또한, 서버는, 전술한 서버 프로그램 이외에도, 서버 상에서 동작하는 일련의 응용 프로그램(Application Program)과 경우에 따라서는 내부 또는 외부에 구축되어 있는 각종 데이터베이스(DB: Database, 이하 "DB"라 칭함)를 포함하는 넓은 개념으로 이해되어야 할 것이다. 따라서, 서버는, 회원 가입 정보와, 게임에 대한 각종 정보 및 데이터를 분류하여 DB에 저장시키고 관리하는데, 이러한 DB는 서버의 내부 또는 외부에 구현될 수 있다.In addition, the server, in addition to the above-described server program, a series of application programs (Application Program) operating on the server and in some cases, various databases built inside or outside (DB: Database, hereinafter referred to as "DB") It should be understood as a broad concept that includes Accordingly, the server classifies member subscription information and various information and data about the game, stores and manages it in a DB, and this DB may be implemented inside or outside the server.
또한, 서버는, 일반적인 서버용 하드웨어에 도스(DOS), 윈도우(windows), 리눅스(Linux), 유닉스(UNIX), 매킨토시(Macintosh) 등의 운영체제에 따라 다양하게 제공되고 있는 서버 프로그램을 이용하여 구현될 수 있으며, 대표적인 것으로는 윈도우 환경에서 사용되는 웹사이트(Website), IIS(Internet Information Server)와 유닉스환경에서 사용되는 CERN, NCSA, APPACH등이 이용될 수 있다.In addition, the server can be implemented using server programs that are provided in various ways according to operating systems such as DOS, Windows, Linux, UNIX, and Macintosh on general server hardware. As a representative example, a website used in a Windows environment, Internet Information Server (IIS), and CERN, NCSA, APPACH, etc. used in a Unix environment may be used.
네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조 또는 서버와 클라이언트(110)들을 연결하는 망(Network)을 의미한다. 네트워크는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 3G, 4G, LTE, Wi-Fi 등이 포함되나 이에 한정되지는 않는다. 네트워크는 LAN, WAN 등의 폐쇄형 네트워크일 수도 있으나, 인터넷(Internet)과 같은 개방형인 것이 바람직하다. 인터넷은 TCP/IP 프로토콜 및 그 상위계층에 존재하는 여러 서비스, 즉 HTTP(HyperText Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol), SNMP(Simple Network Management Protocol), NFS(Network File Service), NIS(Network Information Service)를 제공하는 전 세계적인 개방형 컴퓨터 네트워크 구조를 의미한다. 또한, 클라이언트(110)가 이동통신 단말기이거나 스마트 폰 등인 경우, 네트워크는 3G, 4G, LTE, Wi-Fi 등의 이동통신망을 포함할 수 있다.The network refers to a connection structure capable of exchanging information between each node such as terminals and servers, or a network connecting the server and the
여기서 사용된 '서버'라는 용어는 논리적인 구성 단위를 나타내는 것으로서, 반드시 물리적으로 구분되는 구성 요소가 아니라는 점은 본 발명이 속하는 기술분야의 당업자에게 자명한 사항이다.The term'server' used herein denotes a logical structural unit, and it is obvious to a person skilled in the art that the present invention is not a physically classified component.
도 2는 일 실시예에 따른 커스터마이징 이미지 생성 방법의 전체 동작을 도시한 순서도이다.2 is a flowchart illustrating an overall operation of a method for generating a customized image according to an exemplary embodiment.
일 실시예에 따르면, 단계(201)에서, 커스터마이징 이미지 생성 장치(100)는 클라이언트로부터 2D 입력 이미지를 수신한다. 사용자(120)는 클라이언트(110)에 2D 입력 이미지를 입력하고, 간단한 동작을 통하여 2D 입력 이미지로부터 출력 커스터마이징 이미지를 출력할 수 있다. 클라이언트(110)는 사용자(120)로부터 수신한 동작 입력을 기초로 출력 커스터마이징 이미지의 생성 과정을 시작할 수 있다. 예를 들어, 사용자(120)는 폴더블(foldable) 단말기의 폴딩(folding) 동작을 통하여 출력 커스터마이징 이미지의 생성을 위한 동작 입력을 클라이언트(110)에 입력할 수 있다. 다른 예로, 사용자(120)는 디스플레이에 표시된 2D 입력 이미지에 대한 드래그(drag) 동작을 통하여 출력 커스터마이징 이미지의 생성을 위한 동작 입력을 클라이언트(110)에 입력할 수 있다.According to an embodiment, in
단계(203)에서, 커스터마이징 이미지 생성 장치(100)는 2D 입력 이미지로부터 특징점을 추출한다. 커스터마이징 이미지 생성 장치(100)는 2D 입력 이미지에 포함된 인물의 특징을 나타내는 정보를 특징점으로서 추출할 수 있다. 2D 입력 이미지에 포함된 인물은 특징점을 통하여 다른 인물과 구별될 수 있다. In
커스터마이징 이미지 생성 장치(100)는 데이터베이스로부터 특징점을 기초로 기초 커스터마이징 이미지를 선택할 수 있다. 커스터마이징 이미지 생성 장치(100)는 기초 커스터마이징 이미지 및 특징점을 기초로 최종 3D 모델을 생성하고, 최종 3D 모델을 이용하여 하나 이상의 프리셋 이미지를 제공할 수 있다.The customized
단계(205)에서, 커스터마이징 이미지 생성 장치(100)는 특징점을 이용하여 기초 3D 모델을 생성한다. 예를 들어, 커스터마이징 이미지 생성 장치(100)은 특징점을 기초로 제로 베이스에서 3D 모델을 생성할 수 있다. 다른 예로, 커스터마이징 이미지 생성 장치(100)은 이미 존재하는 3D 모델에 특징점을 반영하여 수정된 3D 모델을 생성할 수도 있다.In
단계(207)에서, 커스터마이징 이미지 생성 장치(100)는 데이터베이스로부터 특징점을 기초로 기초 커스터마이징 이미지를 선택한다. 커스터마이징 이미지 생성 장치(100)은 기존에 커스터마이징된 이미지들 중에서 기초 3D 모델을 수정하는데 사용될 기초 커스터마이징 이미지를 선택할 수 있다. 커스터마이징 이미지 생성 장치(100)은 특징점을 기초로 기초 커스터마이징 이미지를 선택할 수 있다. 커스터마이징 이미지 생성 장치(100)는 데이터베이스에 저장된 복수의 기초 커스터마이징 이미지 중에서 특징점과 유사한 파라미터를 가지는 기초 커스터마이징 이미지를 선택할 수 있다.In
단계(209)에서, 커스터마이징 이미지 생성 장치(100)는 기초 커스터마이징 이미지를 기초로 기초 3D 모델을 수정하여 최종 3D 모델을 생성한다. 커스터마이징 이미지 생성 장치(100)는 기초 커스터마이징 이미지의 파라미터를 기초로 기초 3D 모델을 수정하여 최종 3D 모델을 생성할 수 있다. 커스터마이징 이미지 생성 장치(100)은 기존의 커스터마이징 이미지를 이용하여 기초 3D 모델을 수정함으로써 사용자 또는 복수의 사용자들의 경향을 기초 3D 모델에 반영할 수 있다. 커스터마이징 이미지 생성 장치(100)는 최종 3D 모델을 이용하여 하나 이상의 프리셋 이미지를 제공할 수 있다.In
단계(213)에서, 클라이언트는 최종 3D 모델로부터 생성된 하나 이상의 프리셋 이미지 중에서 출력 커스터마이징 이미지를 선택할 수 있다. In
이후, 사용자는 하나 이상의 프리셋 이미지로부터 원하는 프리셋 이미지를 선택할 수 있다. 사용자는 선택한 프리셋 이미지의 파라미터를 수정하여 출력 커스터마이징 이미지를 생성할 수 있다. 출력 커스터마이징 이미지는 추천 모듈의 학습에 사용될 수 있다.Thereafter, the user may select a desired preset image from one or more preset images. The user can create an output custom image by modifying the parameters of the selected preset image. The output customization image can be used for training of the recommendation module.
2D 입력 이미지는 신체의 다양한 부분을 포함할 수 있다. 예를 들어, 2D 입력 이미지는 인물의 얼굴, 몸통, 팔 또는 다리를 포함할 수 있다. 커스터마이징 이미지 생성 장치(100)는 2D 입력 이미지에 포함된 인물의 다양한 신체 부위 각각에 대한 특징점을 추출하여 3D의 출력 커스터마이징 이미지를 생성할 수 있다.The 2D input image may include various parts of the body. For example, the 2D input image may include a person's face, torso, arms, or legs. The customized
다른 실시예에 따르면, 커스터마이징 이미지 생성 장치(100)는 하나 이상의 2D 입력 이미지에 포함된 인물의 신체 부위를 종합하여 3D의 출력 커스터마이징 이미지를 생성할 수도 있다. 커스터마이징 이미지 생성 장치(100)는 하나 이상의 신체 부위에 대응하는 하나 이상의 2D 입력 이미지를 수신할 수 있다. 커스터마이징 이미지 생성 장치(100)는 하나 이상의 2D 입력 이미지로부터 각각의 특징점을 추출할 수 있다. 커스터마이징 이미지 생성 장치(100)는 추출된 하나 이상의 2D 입력 이미지에 대응하는 특징점들을 결합하여 기초 3D 모델을 생성할 수 있다. 이후, 커스터마이징 이미지 생성 장치(100)는 기존에 축적한 데이터를 통해 기초 3D 모델을 수정하고 복수의 프리셋 이미지를 생성할 수 있다. 클라이언트(110)는 복수의 프리셋 이미지 중에서 하나의 프리셋 이미지를 출력 커스터마이징 이미지로서 선택할 수 있다.According to another embodiment, the customized
도 3은 일 실시예에 따른 커스터마이징 이미지를 생성하는 과정을 도시한 흐름도이다.3 is a flowchart illustrating a process of generating a customized image according to an exemplary embodiment.
도 3을 참조하면, 2D 입력 이미지로부터 출력 커스터마이징 이미지를 생성하는 시스템은 클라이언트(110) 및 커스터마이징 이미지 생성 장치(100)를 포함한다. 커스터마이징 이미지 생성 장치(100)는 특징점 추출부(111), 커스터마이징 이미지 생성부(113), 뉴럴 네트워크(115) 및 데이터베이스(117)를 포함할 수 있다.Referring to FIG. 3 , a system for generating an output custom image from a 2D input image includes a
클라이언트(110)는 커스터마이징 이미지 생성 장치(100)로 2D 입력 이미지(121)를 송신할 수 있다. 클라이언트(110)는 사용자(120)로부터 수신한 동작 입력을 기초로 출력 커스터마이징 이미지의 생성 과정을 시작할 수 있다. 특징점 추출부(111)는 클라이언트(110)로부터 2D 입력 이미지(121)를 수신한다. The
특징점 추출부(111)는 2D 입력 이미지(121)로부터 특징점을 추출한다. 특징점 추출부(111)는 2D 입력 이미지(121)에 포함된 인물의 특징을 나타내는 정보를 특징점으로서 추출할 수 있다. 2D 입력 이미지(121)에 포함된 인물은 특징점을 통하여 다른 인물과 구별될 수 있다. The
특징점 추출부(111)는 출출한 특징점을 커스터마이징 이미지 생성부(113) 및 데이터베이스(117)로 전송할 수 있다. 단계(123)에서, 특징점 추출부(111)는 특징점을 커스터마이징 이미지 생성부(113)로 전송할 수 있다. 단계(125)에서, 특징점 추출부(111)는 데이터베이스(117)로 특징점을 전송할 수 있다. 단계(123) 및 단계(125)는 동시에 또는 이시에 수행될 수 있다. The
커스터마이징 이미지 생성부(113)는 특징점을 이용하여 기초 3D 모델을 생성한다. 예를 들어, 커스터마이징 이미지 생성부(113)는 특징점을 기초로 제로 베이스에서 3D 모델을 생성할 수 있다. 다른 예로, 커스터마이징 이미지 생성 장치(100)은 이미 존재하는 3D 모델에 특징점을 반영하여 수정된 3D 모델을 생성할 수도 있다.The
데이터베이스(117)로부터 특징점을 기초로 기초 커스터마이징 이미지는 선택될 수 있다. 데이터베이스(117)로부터 기존에 커스터마이징된 이미지들 중에서 기초 3D 모델을 수정하는데 사용될 기초 커스터마이징 이미지(117)가 선택될 수 있다. 데이터베이스(117)에 저장된 복수의 기초 커스터마이징 이미지 중에서 특징점과 유사한 파라미터를 가지는 기초 커스터마이징 이미지(117)가 선택될 수 있다.A basic customized image may be selected from the
데이터베이스(117)는 기초 커스터마이징 이미지(117)를 커스터마이징 이미지 생성부(113)로 전송할 수 있다. 커스터마이징 이미지 생성부(113)는 기초 커스터마이징 이미지(117)를 기초로 기초 3D 모델을 수정하여 최종 3D 모델을 생성한다. 커스터마이징 이미지 생성부(113)는 기존의 커스터마이징 이미지(117)를 이용하여 기초 3D 모델을 수정함으로써 사용자 또는 복수의 사용자들의 경향을 기초 3D 모델에 반영할 수 있다.The
커스터마이징 이미지 생성부(113)는 최종 3D 모델(129)을 뉴럴 네트워크(115)로 전송할 수 있다. 뉴럴 네트워크(115)는 최종 3D 모델(129)를 입력으로 최종 3D 모델(131)을 생성할 수 있다. 뉴럴 네트워크(115)는 최종 3D 모델(131)을 커스터마이징 이미지 생성부(113)로 전송할 수 있다. 커스터마이징 이미지 생성 장치(100)은 기존의 미리 학습된 뉴럴 네트워크를 이용하여 기초 3D 모델을 수정함으로써 기초 3D 모델의 품질을 향상시킬 수 있다.The
커스터마이징 이미지 생성부(113)는 최종 3D 모델로부터 하나 이상의 프리셋 이미지를 생성할 수 있다. 커스터마이징 이미지 생성부(113)는 복수의 프리셋 이미지(133)를 클라이언트(110)로 송신할 수 있다. The
도 4는 일 실시예에 따른 커스터마이징 이미지를 생성하는 과정을 예시적으로 도시한 도면이다.4 is a diagram exemplarily illustrating a process of generating a custom image according to an embodiment.
단계(401)에서, 클라이언트(110)는 2D 입력 이미지를 디스플레이에 표시할 수 있다. 예를 들어, 2D 입력 이미지는 디스플레이의 일부 영역에 표시되고, 다른 영역에는 디폴트 파라미터가 반영된 기본적인 3D 모델이 표시될 수 있다. In
단계(403)에서, 클라이언트(110)는 간단한 동작 입력을 수신할 수 있다. 클라이언트(110)가 동작 입력을 수신함으로써 커스터마이징 과정이 시작될 수 있다. 예를 들어, 클라이언트(110)는 폴딩 동작 또는 드래그 동작을 수신할 수 있다. In
단계(405)에서, 클라이언트(110)는 2D 입력 이미지를 커스터마이징 이미지 생성 장치(100)로 송신할 수 있다. 커스터마이징 이미지 생성 장치(100)는 2D 입력 이미지로부터 특징점을 추출할 수 있다. In
단계(407)에서, 커스터마이징 이미지 생성 장치(100)는, 예를 들어, 2D 입력 이미지에 포함된 인물의 얼굴의 각 요소 별로 특징점을 분석할 수 있다.In
단계(409)에서, 커스터마이징 이미지 생성 장치(100)는 특징점을 커스터마이징 이미지의 각 요소별 파라미터 값으로 변환할 수 있다. 커스터마이징 이미지 생성 장치(100)는 각 요소별 파라미터 값을 이용하여 기초 3D 모델을 생성할 수 있다. In
단계(413)에서, 기초 커스터마이징 이미지가 데이터베이스로부터 선택될 수 있다. 기초 커스터마이징 이미지는 특징점을 기초로 선택될 수 있다. 특징점과 유사한 파라미터를 가지는 기초 커스터마이징 이미지가 선택될 수 있다.At
단계(411)에서, 기초 3D 모델은 기초 커스터마이징 이미지를 통해 수정될 수 있다. 커스터마이징 이미지 생성부(113)는 기초 커스터마이징 이미지를 이용하여 기초 3D 모델을 수정하고, 최종 3D 모델을 출력할 수 있다. In
단계(417)에서, 커스터마이징 이미지 생성 장치(100)는 최종 3D 모델로부터 하나 이상의 프리셋 이미지를 제공하고, 프리셋 이미지를 클라이언트(110)로 송신할 수 있다. 사용자는 클라이언트(110)에 표시된 하나 이상의 프리셋 이미지 중에서 원하는 프리셋 이미지를 선택하고 수정하여, 출력 커스터마이징 이미지를 출력할 수 있다.In
단계(415)에서, 사용자의 출력 커스터마이징 이미지는 추천 모듈을 학습하기 위해 사용될 수 있다.In
도 5는 일 실시예에 따른 커스터마이징 이미지 생성 장치의 전체 구성을 도시한 도면이다.5 is a diagram illustrating an overall configuration of an apparatus for generating a customized image according to an exemplary embodiment.
일 실시예에 따르면, 커스터마이징 이미지 생성 장치(100)는 적어도 하나의 프로세서(501) 및 I/O 인터페이스(503)를 포함한다. I/O 인터페이스(503)는 클라이언트로부터 2D 입력 이미지를 수신한다. 프로세서(501)는 2D 입력 이미지로부터 특징점을 추출할 수 있다. 프로세서(501)는 특징점을 이용하여 기초 3D 모델을 생성할 수 있다. 프로세서(501)는 데이터베이스로부터 특징점을 기초로 기초 커스터마이징 이미지를 선택할 수 있다. 프로세서(501)는 기초 커스터마이징 이미지를 기초로 기초 3D 모델을 수정하여 최종 3D 모델을 생성할 수 있다. 프로세서(501)는 뉴럴 네트워크를 이용하여 최종 3D 모델을 수정하여 최종 3D 모델을 생성할 수 있다. According to an embodiment, the custom
I/O 인터페이스(503)는 최종 3D 모델로부터 생성된 하나 이상의 프리셋 이미지를 클라이언트로 송신할 수 있다. I/O 인터페이스(503)는 하나 이상의 프리셋 이미지 중에서 선택된 출력 커스터마이징 이미지를 수신할 수 있다.The I/
도 6은 일 실시예에 따른 클라이언트의 전체 구성을 도시한 도면이다.6 is a diagram illustrating an overall configuration of a client according to an embodiment.
일 실시예에 따르면, 클라이언트(110)는 프로세서(601), 디스플레이(603) 및 I/O 인터페이스(605)를 포함한다. 디스플레이(603)는 제1 면(607) 및 제2 면(609)로 구성될 수 있다. 디스플레이(603)는 폴더블 디스플레이를 포함할 수 있다. I/O 인터페이스(605)는 커스터마이징 이미지 생성 장치(100)로부터 하나 이상의 프리셋 이미지를 수신할 수 있다. I/O 인터페이스(605)는 하나 이상의 프리셋 이미지 중에서 출력 커스터마이징 이미지의 선택 신호를 커스터마이징 이미지 생성 장치로 송신할 수 있다. 프리셋 이미지는 2D 입력 이미지, 데이터베이스에 저장된 기초 커스터마이징 이미지 및 뉴럴 네트워크를 기초로 생성된 3D 모델로부터 커스터마이징 이미지 생성 장치(100)에 의해 생성될 수 있다.According to one embodiment, the
도 7은 일 실시예에 따른 클라이언트의 커스터마이징 이미지를 생성하는 일례이다.7 is an example of generating a customized image of a client according to an embodiment.
일 실시예에 따르면, 단계(710)에서, 클라이언트(110)의 제1 면은 2D 입력 이미지를 입력하라는 기호(713)를 표시할 수 있다. 클라이언트(110)는 2D 입력 이미지(711)를 수신할 수 있다. 클라이언트(110)의 제1 면은 2D 입력 이미지를 표시할 수 있다. 폴딩 센서가 언폴딩 상태를 감지할 때, 제1 면은 2D 입력 이미지(721)를 표시할 수 있다. 클라이언트(110)의 제2 면은 디폴트 파라미터(717) 및 이를 반영한 3D 형상(715)를 표시할 수 있다. According to an embodiment, in
단계(720)에서, 사용자는 클라이언트(110)에 동작 입력을 입력할 수 있다. 예를 들어, 동작 입력은 폴딩/언폴딩 동작을 포함할 수 있다. 폴딩 센서는 제1 면 및 제2 면의 폴딩(folding) 상태 및 언폴딩(unfolding) 상태를 감지할 수 있다. 폴딩 센서가 폴딩 상태를 감지할 때 I/O 인터페이스는 커스터마이징 이미지 생성 장치로 2D 입력 이미지를 송신할 수 있다.In
단계(730)에서, I/O 인터페이스는 커스터마이징 이미지 생성 장치로부터 하나 이상의 프리셋 이미지를 수신할 수 있다. 제1 면에는 2D 입력 이미지(721)가 표시될 수 있다. 제2 면에는 복수의 프리셋 이미지(731, 733, 735, 737) 및 파라미터(732, 734, 736, 738)이 표시될 수 있다. 사용자는 하나 이상의 프리셋 이미지 중에서 출력 커스터마이징 이미지의 선택할 수 있다. I/O 인터페이스는 선택 신호를 커스터마이징 이미지 생성 장치로 송신할 수 있다.In
도 8은 다른 실시예에 따른 클라이언트의 커스터마이징 이미지를 생성하는 일례이다.8 is an example of generating a customized image of a client according to another embodiment.
일 실시예에 따르면, 단계(710)에서, 클라이언트(110)의 제1 면은 2D 입력 이미지를 입력하라는 기호(713)를 표시할 수 있다. 클라이언트(110)는 2D 입력 이미지(711)를 수신할 수 있다. 클라이언트(110)의 제1 면은 2D 입력 이미지를 표시할 수 있다. 클라이언트(110)의 제2 면은 디폴트 파라미터(717) 및 이를 반영한 3D 형상(715)를 표시할 수 있다. According to an embodiment, in
단계(720)에서, 사용자는 클라이언트(110)에 동작 입력을 입력할 수 있다. 예를 들어, 동작 입력은 드래그 동작을 포함할 수 있다. 터치 센서가 제1 면으로부터 제2 면을 향하는 방향으로 2D 입력 이미지의 드래그 동작을 감지할 때, I/O 인터페이스는 커스터마이징 이미지 생성 장치로 2D 입력 이미지를 송신할 수 있다.In
단계(730)에서, I/O 인터페이스는 커스터마이징 이미지 생성 장치로부터 하나 이상의 프리셋 이미지를 수신할 수 있다. 제1 면에는 2D 입력 이미지(721)가 표시될 수 있다. 제2 면에는 복수의 프리셋 이미지(731, 733, 735, 737) 및 파리미터(732, 734, 736, 738)이 표시될 수 있다. 사용자는 하나 이상의 프리셋 이미지 중에서 출력 커스터마이징 이미지의 선택할 수 있다. I/O 인터페이스는 선택 신호를 커스터마이징 이미지 생성 장치로 송신할 수 있다.In
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 적어도 하나로 선택적으로 결합하여 동작할 수도 있다. In the above, even if all the constituent elements constituting the embodiments of the present invention are described as being combined into one or operating in combination, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all the constituent elements may be selectively combined into at least one and operated.
또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. In addition, although all of the components may be implemented as one independent hardware, a program module that performs some or all functions combined in one or more hardware by selectively combining some or all of the components. It may be implemented as a computer program having Codes and code segments constituting the computer program may be easily inferred by those skilled in the art of the present invention.
이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.Such a computer program is stored in a computer-readable storage medium, and is read and executed by a computer, thereby implementing an embodiment of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, and the like.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. In addition, the terms such as "include", "consist of" or "have" described above mean that the corresponding component may be included unless otherwise stated, excluding other components. It should not be construed as being able to further include other components.
기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.All terms, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms generally used, such as terms defined in the dictionary, should be interpreted as being consistent with the meaning in the context of the related technology, and are not interpreted as ideal or excessively formal meanings unless explicitly defined in the present invention.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
100...커스터마이징 이미지 생성 장치 110...클라이언트100...
Claims (13)
상기 2D 입력 이미지로부터 특징점을 추출하는 동작;
데이터베이스로부터 상기 특징점을 기초로 기초 커스터마이징 이미지를 선택하는 동작; 및
상기 기초 커스터마이징 이미지 및 상기 특징점을 기초로 최종 3D 모델을 생성하고, 상기 최종 3D 모델을 이용하여 하나 이상의 프리셋 이미지를 제공하는 동작
을 포함하되,
상기 클라이언트는,
사용자의 입력을 기초로 상기 하나 이상의 프리셋 이미지 중 선택한 프리셋 이미지의 파라미터를 수정하고,
상기 기초 커스터마이징 이미지를 선택하는 동작은,
상기 데이터베이스에 저장된 복수의 기초 커스터마이징 이미지 중에서 상기 특징점과 유사한 파라미터를 가지는 기초 커스터마이징 이미지를 선택하고,
상기 프리셋 이미지를 제공하는 동작은,
상기 특징점을 기초로 기초 3D 모델을 생성하고, 상기 기초 커스터마이징 이미지를 이용하여 상기 생성한 기초 3D모델을 수정하여 상기 최종 3D 모델을 생성하는 커스터마이징 이미지 생성 방법.receiving a 2D input image from a client;
extracting feature points from the 2D input image;
selecting a basic customized image from a database based on the feature point; and
generating a final 3D model based on the basic customized image and the feature point, and providing one or more preset images using the final 3D model
Including,
the client,
modifying parameters of a preset image selected from among the one or more preset images based on a user's input,
The operation of selecting the basic customized image is,
selecting a basic customized image having parameters similar to the characteristic point from among a plurality of basic customized images stored in the database,
The operation of providing the preset image is,
A custom image generating method for generating a basic 3D model based on the feature points, and for generating the final 3D model by modifying the generated basic 3D model using the basic customized image.
상기 프리셋 이미지를 제공하는 동작은,
상기 기초 커스터마이징 이미지의 파라미터를 기초로 상기 최종 3D 모델을 생성하는,
커스터마이징 이미지 생성 방법.The method of claim 1,
The operation of providing the preset image is,
generating the final 3D model based on the parameters of the basic customized image,
How to create a custom image.
상기 프리셋 이미지를 제공하는 동작은,
상기 최종 3D 모델의 입력 파라미터를 뉴럴 네트워크에 입력하여 출력된 출력 파라미터를 기초로 최종 3D 모델을 생성하는,
커스터마이징 이미지 생성 방법.The method of claim 1,
The operation of providing the preset image is,
Input parameters of the final 3D model to a neural network to generate a final 3D model based on the output parameters,
How to create a custom image.
상기 2D 입력 이미지를 수신하는 동작은,
하나 이상의 신체 부위에 대응하는 하나 이상의 2D 입력 이미지를 수신하고,
상기 특징점을 추출하는 동작은,
상기 하나 이상의 2D 입력 이미지로부터 각각의 특징점을 추출하고,
상기 프리셋 이미지를 제공하는 동작은,
상기 추출된 하나 이상의 2D 입력 이미지에 대응하는 특징점들을 결합하여 상기 최종 3D 모델을 생성하는,
커스터마이징 이미지 생성 방법.The method of claim 1,
The operation of receiving the 2D input image is,
receiving one or more 2D input images corresponding to one or more body parts;
The operation of extracting the feature point is
extracting each feature point from the one or more 2D input images,
The operation of providing the preset image is,
generating the final 3D model by combining feature points corresponding to the extracted one or more 2D input images,
How to create a custom image.
사용자 입력에 의해 상기 하나 이상의 프리셋 이미지 중에서 선택되고 수정된 최종 커스터마이징 이미지를 이용하여 추천 모듈을 학습하는 동작을 더 포함하는, 커스터마이징 이미지 생성 방법.The method of claim 1,
The method further comprising the operation of learning a recommendation module by using the final customized image selected and modified from the one or more preset images by a user input.
클라이언트와 통신하는 I/O 인터페이스를 포함하고,
상기 I/O 인터페이스는, 상기 클라이언트로부터 2D 입력 이미지를 수신하고,
상기 프로세서는,
상기 2D 입력 이미지로부터 특징점을 추출하고,
데이터베이스로부터 상기 특징점을 기초로 기초 커스터마이징 이미지를 선택하고,
상기 기초 커스터마이징 이미지 및 상기 특징점을 기초로 최종 3D 모델을 생성하고, 상기 최종 3D 모델을 이용하여 하나 이상의 프리셋 이미지를 제공하되,
상기 클라이언트는,
사용자의 입력을 기초로 상기 하나 이상의 프리셋 이미지 중 선택한 프리셋 이미지의 파라미터를 수정하고,
상기 프로세서는,
상기 데이터베이스에 저장된 복수의 기초 커스터마이징 이미지 중에서 상기 특징점과 유사한 파라미터를 가지는 기초 커스터마이징 이미지를 선택하고,
상기 특징점을 기초로 기초 3D 모델을 생성하고, 상기 기초 커스터마이징 이미지를 이용하여 상기 생성한 기초 3D모델을 수정하여 상기 최종 3D 모델을 생성하는 커스터마이징 이미지 생성 장치.At least one processor; and
comprising an I/O interface to communicate with the client;
The I/O interface receives a 2D input image from the client,
The processor,
extracting feature points from the 2D input image,
selecting a basic customized image based on the feature point from the database,
A final 3D model is generated based on the basic customized image and the feature point, and one or more preset images are provided using the final 3D model,
the client,
modifying parameters of a preset image selected from among the one or more preset images based on a user's input;
The processor,
selecting a basic customized image having parameters similar to the feature point from among a plurality of basic customized images stored in the database,
A customized image generating apparatus for generating a basic 3D model based on the feature points, and for generating the final 3D model by modifying the generated basic 3D model using the basic customized image.
상기 프로세서는,
상기 기초 커스터마이징 이미지의 파라미터를 기초로 상기 최종 3D 모델을 생성하는,
커스터마이징 이미지 생성 장치.The method of claim 7,
The processor,
generating the final 3D model based on the parameters of the basic customized image,
Custom image generator.
상기 프로세서는,
상기 최종 3D 모델의 입력 파라미터를 뉴럴 네트워크에 입력하여 출력된 출력 파라미터를 기초로 최종 3D 모델을 생성하는,
커스터마이징 이미지 생성 장치.The method of claim 7,
The processor,
Input parameters of the final 3D model to a neural network to generate a final 3D model based on the output parameters,
Custom image generator.
상기 I/O 인터페이스는,
하나 이상의 신체 부위에 대응하는 하나 이상의 2D 입력 이미지를 수신하고,
상기 프로세서는,
상기 하나 이상의 2D 입력 이미지로부터 각각의 특징점을 추출하고,
상기 추출된 하나 이상의 2D 입력 이미지에 대응하는 특징점들을 결합하여 상기 최종 3D 모델을 생성하는,
커스터마이징 이미지 생성 장치.The method of claim 7,
The I/O interface is
receiving one or more 2D input images corresponding to one or more body parts;
The processor,
extracting each feature point from the one or more 2D input images,
generating the final 3D model by combining feature points corresponding to the extracted one or more 2D input images,
Custom image generator.
제1 면 및 제2 면을 포함하는 디스플레이;
상기 제1 면 및 상기 제2 면의 폴딩(folding) 상태 및 언폴딩(unfolding) 상태를 감지하는 폴딩 센서; 및
커스터마이징 이미지 생성 장치와 통신하는 I/O 인터페이스를 포함하고,
상기 폴딩 센서가 언폴딩 상태를 감지할 때, 상기 제1 면은 2D 입력 이미지를 표시하고,
상기 폴딩 센서가 폴딩 상태를 감지할 때, 상기 I/O 인터페이스는 상기 커스터마이징 이미지 생성 장치로 상기 2D 입력 이미지를 송신하고,
상기 I/O 인터페이스는, 상기 커스터마이징 이미지 생성 장치로부터 하나 이상의 프리셋 이미지를 수신하고, 상기 하나 이상의 프리셋 이미지 중에서 출력 커스터마이징 이미지의 선택 신호를 상기 커스터마이징 이미지 생성 장치로 송신하고,
상기 프리셋 이미지는, 상기 2D 입력 이미지, 데이터베이스에 저장된 기초 커스터마이징 이미지 및 뉴럴 네트워크를 기초로 생성된 3D 모델로부터 생성되되,
상기 적어도 하나의 프로세서는,
사용자의 입력을 기초로 상기 하나 이상의 프리셋 이미지 중에서 선택한 프리셋 이미지의 파라미터를 수정하여 상기 출력 커스터마이징 이미지를 생성하고,
상기 커스터마이징 이미지 생성 장치는,
상기 데이터베이스에 저장된 복수의 기초 커스터마이징 이미지 중에서 특징점과 유사한 파라미터를 가지는 기초 커스터마이징 이미지를 선택하고,
상기 특징점을 기초로 기초 3D 모델을 생성하고, 상기 기초 커스터마이징 이미지를 이용하여 상기 생성한 기초 3D모델을 수정하여 최종 3D 모델을 생성하는 클라이언트.At least one processor;
a display comprising a first side and a second side;
a folding sensor for detecting a folding state and an unfolding state of the first surface and the second surface; and
an I/O interface for communicating with a custom image generating device;
When the folding sensor detects an unfolded state, the first surface displays a 2D input image,
When the folding sensor detects the folding state, the I/O interface sends the 2D input image to the customizing image generating device,
The I/O interface receives one or more preset images from the customizing image generating device, and transmits a selection signal of an output customizing image among the one or more preset images to the customizing image generating device,
The preset image is generated from the 3D model generated based on the 2D input image, the basic customized image stored in the database, and the neural network,
The at least one processor,
Modifying a parameter of a preset image selected from among the one or more preset images based on a user's input to generate the output customized image,
The custom image generating device,
Selecting a basic customized image having parameters similar to feature points from among a plurality of basic customized images stored in the database,
A client that generates a basic 3D model based on the feature points, and modifies the generated basic 3D model using the basic customized image to generate a final 3D model.
제1 면 및 제2 면을 포함하는 디스플레이;
상기 제1 면 및 상기 제2 면의 터치(touch)를 감지하는 터치 센서; 및
커스터마이징 이미지 생성 장치와 통신하는 I/O 인터페이스를 포함하고,
상기 제1 면은 2D 입력 이미지를 표시하고,
상기 터치 센서가 상기 제1 면으로부터 상기 제2 면을 향하는 방향으로 상기 2D 입력 이미지의 드래그 동작을 감지할 때, 상기 I/O 인터페이스는 상기 커스터마이징 이미지 생성 장치로 상기 2D 입력 이미지를 송신하고,
상기 I/O 인터페이스는, 상기 커스터마이징 이미지 생성 장치로부터 하나 이상의 프리셋 이미지를 수신하고, 상기 하나 이상의 프리셋 이미지 중에서 출력 커스터마이징 이미지의 선택 신호를 상기 커스터마이징 이미지 생성 장치로 송신하고,
상기 프리셋 이미지는, 상기 2D 입력 이미지, 데이터베이스에 저장된 기초 커스터마이징 이미지 및 뉴럴 네트워크를 기초로 생성된 3D 모델로부터 생성되되,
상기 적어도 하나의 프로세서는,
사용자의 입력을 기초로 상기 하나 이상의 프리셋 이미지 중에서 선택한 프리셋 이미지의 파라미터를 수정하여 상기 출력 커스터마이징 이미지를 생성하고,
상기 커스터마이징 이미지 생성 장치는,
상기 데이터베이스에 저장된 복수의 기초 커스터마이징 이미지 중에서 특징점과 유사한 파라미터를 가지는 기초 커스터마이징 이미지를 선택하고,
상기 특징점을 기초로 기초 3D 모델을 생성하고, 상기 기초 커스터마이징 이미지를 이용하여 상기 생성한 기초 3D모델을 수정하여 최종 3D 모델을 생성하는 클라이언트.At least one processor;
a display comprising a first side and a second side;
a touch sensor for sensing a touch of the first surface and the second surface; and
an I/O interface for communicating with a custom image generating device;
The first side displays a 2D input image,
When the touch sensor detects a drag operation of the 2D input image in a direction from the first surface to the second surface, the I/O interface transmits the 2D input image to the custom image generating device,
The I/O interface receives one or more preset images from the customizing image generating device, and transmits a selection signal of an output customizing image among the one or more preset images to the customizing image generating device,
The preset image is generated from the 3D model generated based on the 2D input image, the basic customized image stored in the database, and the neural network,
The at least one processor,
Modifying a parameter of a preset image selected from among the one or more preset images based on a user's input to generate the output customized image,
The custom image generating device,
Selecting a basic customized image having parameters similar to feature points from among a plurality of basic customized images stored in the database,
A client that generates a basic 3D model based on the feature points, and modifies the generated basic 3D model using the basic customized image to generate a final 3D model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190058459A KR102259126B1 (en) | 2019-05-19 | 2019-05-19 | Appartus and method for generating customizing image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190058459A KR102259126B1 (en) | 2019-05-19 | 2019-05-19 | Appartus and method for generating customizing image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200133293A KR20200133293A (en) | 2020-11-27 |
KR102259126B1 true KR102259126B1 (en) | 2021-06-01 |
Family
ID=73641594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190058459A KR102259126B1 (en) | 2019-05-19 | 2019-05-19 | Appartus and method for generating customizing image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102259126B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102550973B1 (en) * | 2022-01-18 | 2023-07-05 | (주)에스프레소미디어 | Personalized metaverse character creation system using Artificial Intelligence deep learning |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101906431B1 (en) * | 2017-07-20 | 2018-10-11 | 네이버랩스 주식회사 | Method and system for 3d modeling based on 2d image recognition |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120046652A (en) * | 2010-11-02 | 2012-05-10 | 에스케이플래닛 주식회사 | System and method for recommending hair based on face recognition |
EP3734407A1 (en) * | 2011-02-10 | 2020-11-04 | Samsung Electronics Co., Ltd. | Portable device comprising a touch-screen display, and method for controlling same |
-
2019
- 2019-05-19 KR KR1020190058459A patent/KR102259126B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101906431B1 (en) * | 2017-07-20 | 2018-10-11 | 네이버랩스 주식회사 | Method and system for 3d modeling based on 2d image recognition |
Also Published As
Publication number | Publication date |
---|---|
KR20200133293A (en) | 2020-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11670033B1 (en) | Generating a background that allows a first avatar to take part in an activity with a second avatar | |
KR101925440B1 (en) | Method for providing vr based live video chat service using conversational ai | |
TWI628550B (en) | Synthetic question formulation | |
WO2018054330A1 (en) | Method and device for data processing and storage medium | |
CN108269110A (en) | Item recommendation method, system and user equipment based on community's question and answer | |
CN110050283A (en) | The media of the user's control of customization cover | |
KR102592310B1 (en) | System and method for providing virtual reality service based on artificial intelligence | |
CN113014471B (en) | Session processing method, device, terminal and storage medium | |
US20220207355A1 (en) | Generative adversarial network manipulated image effects | |
KR102259126B1 (en) | Appartus and method for generating customizing image | |
CN116524125A (en) | Meta universe aggregation method and platform | |
JP2009223419A (en) | Creation editing method for avatar in network chat service, chat service system and creation editing method for image data | |
CN116383494A (en) | Information resource pushing method, device and system based on live-action universe | |
CN116943220A (en) | Game artificial intelligence control method, device, equipment and storage medium | |
KR20240052043A (en) | Dialogue-guided augmented reality experience | |
CN111738087B (en) | Method and device for generating face model of game character | |
KR102235538B1 (en) | Method and apparatus for providing guide content | |
Meng et al. | De-anonymization Attacks on Metaverse | |
CN111753855B (en) | Data processing method, device, equipment and medium | |
KR102298124B1 (en) | Folderable device and method for displaying thereof | |
KR102641886B1 (en) | Augmented reality linkage system and method using 3d sculpture | |
KR102609706B1 (en) | System for providing internet of things based home training service | |
JP7390767B1 (en) | How to output the blueprint of a block object | |
KR102636063B1 (en) | Meta verse platform system based on web | |
US20240087266A1 (en) | Deforming real-world object using image warping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |