WO2011136408A1 - 3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체 - Google Patents
3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체 Download PDFInfo
- Publication number
- WO2011136408A1 WO2011136408A1 PCT/KR2010/002689 KR2010002689W WO2011136408A1 WO 2011136408 A1 WO2011136408 A1 WO 2011136408A1 KR 2010002689 W KR2010002689 W KR 2010002689W WO 2011136408 A1 WO2011136408 A1 WO 2011136408A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- avatar
- intersection
- costume
- clothing
- clothes
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/16—Cloth
Definitions
- the present invention relates to a three-dimensional automatic clothes transfer method and apparatus, and a computer-readable recording medium recording a program for executing the method, and more particularly, regardless of the mesh structure or size of the three-dimensional clothing and avatar It's about a technology that automatically puts on the avatar the desired costume.
- the present invention relates to a three-dimensional automatic clothes transfer method and apparatus and a computer-readable recording medium recording a program for executing the method.
- the existing clothing transfer technology is only compatible with avatars having the same mesh structure, and the technique of fitting the avatar also requires a user to directly input the feature points of the avatars. Although this is analyzed, it is not used for avatar fitting due to accuracy.
- the existing clothes draping technology has a problem that the simulation should be performed after arranging the clothes well before draping so that no crossover occurs between the avatar and the clothes, the clothes and the clothes.
- the object of the present invention devised to solve the above-mentioned problems is a three-dimensional avatar (a character that scans a game character or a body, the person who likes to wear a costume that an individual user has seen in a game, a movie, a TV, or a website) Costumes are compatible between avatars with different mesh structures between services, so that you can build a unified costume trading platform that allows you to directly dress in 3D costumes or purchase actual costumes. It is to provide a three-dimensional clothing automatic transfer wearing method and apparatus therefor.
- Another object of the present invention is to enable the construction of an integrated costume trading platform that allows game or movie producers, TV or web apparel content providers to sell three-dimensional clothing to all users connected to the platform, as well as users of the service.
- the present invention provides a method and apparatus for automatically switching 3D clothes to wear and make the clothes compatible between avatars having different mesh structures between services.
- another object of the present invention is to provide an integrated costume trading platform that can provide the three-dimensional costume content to the online shopping mall or TV home shopping itself provided by the fashion company that sells the actual clothing, and can be linked to the actual sales It is to provide a three-dimensional automatic dressing method and apparatus for the three-dimensional costume automatic transition to make the costume compatible between the avatars of different mesh structure between each service.
- another object of the present invention is to provide a method and apparatus for automatically mounting a three-dimensional clothes to automatically extract the feature point of the avatar and automatically fitting the avatar, and also fitting the avatar at high speed.
- another object of the present invention is to provide a method and apparatus for automatically switching three-dimensional clothing to drapes the clothing while removing the intersection in the state where the intersection between the avatar and the costume, the costume and the costume has already occurred.
- Still another object of the present invention is to provide a computer readable recording medium having recorded thereon a program for executing the three-dimensional automatic clothes transfer method.
- the three-dimensional costume automatic transition mounting method of the present invention in the avatar costume mounting method performed on a computer, (a) the first avatar and the costume Receiving a second avatar to newly wear a costume on the first avatar; (b) skinning the outfit to the first avatar so that the outfit moves in response to a change in shape of the first avatar; (c) fitting the first avatar skinned to the shape of the second avatar to match the shape of the second avatar; (d) modifying the skinned garment based on the skinned in step (b) to fit the fitted first avatar; (e) separating the deformed costume from the fitted first avatar and applying the separated costume to a second avatar; And (f) draping the costume without crossing in the second avatar wearing the separated costume.
- step (b) obtains the point closest to all the points of the meshes of the clothes from the surface of the first avatar, the point closest to all the points of the meshes of the clothes and on the surface of the first avatar It characterized in that to connect.
- step (c) may include: (c1) extracting feature points of the first avatar and the second avatar; (c2) matching the overall size and pose of the first avatar to the second avatar so that the extracted feature points of the first avatar and the second avatar match; And (c3) fitting a detailed body shape of the first avatar whose overall size and pose matches the second avatar.
- step (f) when there are multiple layers of meshes intersected between the clothes worn on the second avatar and the second avatar or the clothes on the second avatar, the mesh is found to cross between the outer garment and the underwear. Determining whether or not there is a mesh having an intersection, and performing steps (f2) and (f3); if there is no mesh having an intersection, ending without performing steps (f2) and (f3); (f2) If it is determined in step (f1) that the intersection occurs between the costume worn on the second avatar and the second avatar, the mesh in which the intersection of the costume worn on the second avatar occurs occurs outward of the skin of the second avatar.
- the outer direction or the inner direction of the second avatar in the three-dimensional space is determined.
- Calculate the distance field to determine the perception, and the mesh where the crossover of the outer garment is pushed in the direction of the gradient of the distance field obtained from the midpoint of the intersection line of the mesh where the crossover of the outer garment and the underwear occurs, and the mesh where the crossover of the underwear occurs To remove the crossover force of a preset magnitude that pushes in the opposite direction of the gradient of the distance field.
- the computer-readable recording medium of the present invention is characterized in that the program for executing the three-dimensional automatic clothes transfer method of the present invention is recorded. .
- the three-dimensional automatic clothes transfer device is a first avatar in costume and a second avatar to be newly dressed on the first avatar
- An input unit receiving an input;
- a skinning unit for skinning the clothes on the first avatar so that the received clothes move according to the shape change of the first avatar;
- a clothes deformation unit configured to deform the skinned garment based on the skinned unit in accordance with the fitted first avatar;
- a clothes transition unit separating the clothes deformed by the clothes deformation unit from the fitted first avatar and applying the separated clothes to a second avatar;
- a draping unit for draping the costume without crossing the second avatar wearing the separated costume.
- the skinning unit obtains the closest point from all the points of the meshes of the clothes to the surface of the first avatar, and connects the closest point from all the points of the meshes of the clothes to the surface of the first avatar. It features.
- the fitting unit may extract feature points of the first avatar and the second avatar, and display the overall size and pose of the first avatar so that the extracted feature points of the first avatar and the second avatar match the second avatar. After matching to, the detailed body shape of the first avatar is matched to the second avatar in full size and pose.
- the draping unit may determine whether or not a cross is found by crossing the outer garment and underwear when there is a plurality of meshes having an intersection between the garment worn on the second avatar and the second avatar or a garment worn on the second avatar.
- An intersection determination unit requesting to generate an intersection elimination force in the intersection elimination force generation unit when there is a generated mesh;
- intersection determination unit When the intersection determination unit is requested to generate an intersection elimination force, and when the intersection determination unit determines that an intersection occurs between the costume worn on the second avatar and the second avatar, the intersection of the costume worn on the second avatar is determined.
- 3 The distance field for determining whether the second avatar is outward or inward is calculated in the dimensional space, and the mesh where the crossover of the outer garment occurs is obtained from the center of the distance field obtained from the midpoint of the intersection line of the mesh where the crossover of the outer garment and underwear occurs. The mesh is pushed in the direction of the gradient and the intersection of the underwear occurs
- An intersection elimination force generator for generating an intersection elimination force of a preset magnitude pushing in a direction opposite to the gradient direction and requesting the drape simulation portion to perform a drape simulation process;
- the drape simulation process is performed by applying the generated cross elimination force of the preset size to the mesh, and when the drape simulation process is finished, the cross determination unit And a draping simulation unit requesting to determine whether the intersection has been removed.
- the three-dimensional avatars (game characters, avatars that scan their body, their favorite characters, etc.) that the user has the clothes that he saw in games, movies, TV, websites, etc.
- Three-dimensional costumes that allow costumes to be compatible between avatars with different mesh structures between services, so that you can build an integrated costume trading platform that can be worn immediately and can purchase 3D costumes or actual costumes.
- An automatic transition mounting method and apparatus can be provided.
- a computer-readable recording medium having recorded thereon a program for executing the three-dimensional automatic clothes transfer method is provided.
- FIG. 1 is a flow chart illustrating a three-dimensional automatic clothes transfer method according to a preferred embodiment of the present invention.
- FIG. 2 is a flowchart illustrating a detailed procedure of performing a drape simulation process of FIG. 1 according to a preferred embodiment of the present invention.
- FIG. 3 is a view showing a three-dimensional automatic clothes transfer device according to a preferred embodiment of the present invention.
- Figure 4 is a view showing the outline of the three-dimensional automatic clothing transfer technology according to a preferred embodiment of the present invention.
- FIG. 5 is a view showing the application range of the virtual costume before the application of the three-dimensional automatic clothes transfer platform according to a preferred embodiment of the present invention.
- FIG. 6 is a view showing a change in the sharing range of the virtual costume after the application of the three-dimensional automatic clothes transfer platform according to a preferred embodiment of the present invention.
- costume deformation part 250 costume transition part
- FIG. 1 is a flow chart illustrating a three-dimensional automatic clothes transfer method according to a preferred embodiment of the present invention.
- the first avatar to be dressed and the second avatar to be newly dressed to the avatar are received. (Step S100).
- the clothes are skinned to the first avatar so that the clothes move according to the shape change of the first avatar (step S110).
- step S110 it is preferable to obtain a point nearest to the surface of the first avatar from all the points of the meshes of the clothes, and skinning by connecting all points of the meshes of the clothes to the point closest to the surface of the first avatar.
- step S110 is to perform a skinning data generation operation that makes the costume look like an avatar's skin in order to transform the costume according to the avatar's pose or body shape, which is performed on the avatar surface from all points of the meshes of the costume. By calculating the nearest location is possible.
- the process of calculating the connection between the costume and the avatar is an algorithm for calculating the minimum distance between the geometry, so it can be implemented using the general method of calculating the minimum distance.
- this process creates a connection between all the points of the costume's meshes and the avatar, so that even if the avatar's shape changes, each point of the costume's meshes can follow the connected avatar. You can do it.
- the first avatar with the skinned clothes is fitted to fit the shape of the second avatar (step S120).
- the feature points of the first avatar and the second avatar are extracted (operation S122).
- the second avatar includes the overall size and pose of the first avatar so that the feature points of the extracted first avatar and the second avatar match. And matching the detailed body shape of the first avatar whose overall size and pose is matched to the second avatar (step S126).
- step S122 is used to automatically extract the feature points of the first avatar and the second avatar [see: Iat-Fai Leong, Fang JJ and Tsai MJ., “Automatic body feature extraction from a marker-less scanned human body ”, Computer-Aided Design, 2007], wherein the feature points refer to the main parts of the body that must match after the avatar is fitted.
- the body shape of the first avatar is fitted such that the feature points of the extracted first avatar and the second avatar match.
- the feature point of the first avatar is maintained while maintaining the body shape of the first avatar.
- the feature is given a constraint and a general optimization process is performed.
- the above-mentioned paper is a content of fitting a template avatar model to body scan data, which is different from the present invention of automatically extracting and fitting feature points between avatars having different mesh structures.
- step S126 is a process of fitting a detailed body shape
- the detailed fitting process can also be implemented using a general optimization solution, the optimization process usually requires a lot of calculation time.
- step S126 it is desirable to accelerate the optimization process using the multi-grid technique. If the multi-grid technique is successfully applied, the desired calculation time, which can take tens of minutes to minutes, can be achieved within one minute.
- Algebraic Multigrid that can be applied to deform any mesh structure [Lin Shi, Yizhou Yu, Nathan Bell and Wei-Wen Feng SIGGRAPH 2006 (ACM Transactions on Graphics, Vol. 24, No. 3, 2006)] can be applied to the optimization process, which is a linear system solving process, to accelerate the optimization process for fitting the detailed body shape.
- the skinned garment is deformed based on the skinned in step S110 to fit the fitted first avatar (step S130).
- step S110 since the costume worn on the first avatar is already skinned so that all the points of the meshes of the costume and the closest point on the surface of the first avatar are connected so that the size or body shape of the first avatar can be followed in step S110. It is possible to easily modify the costume to fit the first avatar fit to the body shape of the second avatar.
- the deformed clothes are separated from the fitted first avatar, and the separated clothes are applied to the second avatar (step S140).
- FIG. 2 is a flowchart illustrating a detailed procedure of performing a drape simulation process of FIG. 1 according to a preferred embodiment of the present invention.
- the step (step S150) of performing the draping simulation process of FIG. 1 includes determining whether or not to cross (step S152) and generating a cross removal force (step S154). And performing a drape simulation process (step S156).
- the draping simulation process is basically Pascal Volino, Nadia Magnenat-Thalmann: Resolving surface collisions through intersection contour minimization.
- step S152 The step of determining whether or not to cross (step S152) is to find the mesh having the intersection between the outer garment and underwear when there is more than one layer of the mesh and the garment worn on the second avatar or the clothes worn on the second avatar to determine whether or not the intersection. If it is determined that there is a mesh having an intersection, step S154 and step S156 are performed. If there is no mesh having an intersection, the process ends without performing step S154 and step S156.
- step S154 of generating an intersection elimination force when it is determined in step S152 that an intersection occurs between the costume worn on the second avatar and the second avatar, the mesh having the intersection of the costume worn on the second avatar occurs. Create a crossover removal force of a preset magnitude that pushes out of the skin of the second avatar,
- a distance field for determining whether the second avatar is outward or inward is determined in three-dimensional space.
- the mesh having the crossover of the outer garment is pushed in the gradient direction of the distance field obtained from the midpoint of the intersection line of the mesh having the crossover of the outer garment and the underwear, and the mesh having the crossover of the underwear has the distance Generates a cross magnitude removal force of a preset magnitude that pushes in the direction opposite the gradient direction of the field.
- the mesh having the intersection of the clothing of the second avatar is pushed out of the skin of the second avatar.
- the method can be applied immediately.
- the distance fields for avatars are Mark W. Jones and J. Andreas B ⁇ rentzen and Milos Sramek, 3D distance fields: A survey of techniques and applications, IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS, 2006 and Aveneesh Sud. , Miguel A. Otaduy, Dinesh Manocha, DiFi: Fast 3D Distance Field Computation Using Graphics Hardware, Eurographics , 2004].
- the distance field refers to a data structure that calculates and stores the distance from a specific location to the nearest avatar surface for every location in three-dimensional space. For each voxel, the distance from the center to the nearest avatar surface is calculated and stored in the voxel.
- the voxel is a group of graphic information defining a point in 3D space.
- This distance field mathematically corresponds to a scalar field, and a gradient for this field can be obtained.
- the gradient of the scalar field becomes a vector field, where the vector is a vector in the direction in which the scalar value increases most rapidly, that is, the avatar surface. It is the direction vector farthest from. After all, this is the "out of avatar" direction.
- the intersection segment the force applied to the triangular mesh of the outer garment (force ) Direction is the gradient of the distance field obtained from the midpoint of the intersection, that is, "avatar outward", and the direction of force applied to the triangular mesh of the underwear is "outward avatar" Is the opposite of.
- step S156 the draping simulation process is performed by applying a generated cross-cutting force of a predetermined size to the corresponding mesh, and when the draping simulation process is finished, the step S152 is performed again.
- step S154 After setting the size of the force (force) appropriately in step S154, and performing the drape simulation by reflecting the force in the drape simulation process, the intersection line between the two triangular meshes where the intersection occurs is reduced or It will disappear.
- the garment can be drape perfectly, and thus it can be used as a core technology for clothing e-commerce or costume design software.
- FIG. 3 is a view showing a three-dimensional automatic clothes transfer device according to a preferred embodiment of the present invention.
- the three-dimensional automatic clothes transfer device 200 is the input unit 210, skinning unit 220, fitting unit 230, costume deformation unit 240, costume transition unit 250 and The drape unit 260 is included.
- the input unit 210 receives a first avatar with a costume and a second avatar with a new costume.
- the skinning unit 220 skins the clothes to the first avatar so that the received clothes move according to the shape change of the first avatar.
- the skinning unit 220 obtains the point closest to the surface of the first avatar from all the points of the meshes of the clothes, and connects the point closest to the surface of the first avatar with all the points of the meshes of the clothes. It is done.
- fitting unit 230 fits the skinned first avatar to match the shape of the second avatar.
- the fitting unit 230 extracts feature points of the first avatar and the second avatar, and matches the overall size and pose of the first avatar to the second avatar so that the extracted feature points of the first avatar and the second avatar match. Afterwards, the detailed body shape of the first avatar having the same size and pose as the second avatar is fitted to the second avatar.
- the clothing deformation unit 240 deforms the skinned clothing based on the skinning unit 220 in accordance with the fitted first avatar.
- the costume transition unit 250 separates the costume deformed in the costume deformation unit 240 from the fitted first avatar, and applies the separated costume to the second avatar.
- the draping unit 260 drapes the costume without crossing in the second avatar dressed in a separate costume.
- the drape unit 260 includes an intersection determination unit 262, an intersection elimination force generator 264, and a drape simulation unit 266.
- the intersection determination unit 262 determines whether the intersection occurs by finding a mesh having an intersection between the outer garment and the underwear when there are multiple layers of the mesh that has the intersection between the costume worn on the second avatar and the second avatar, or the costume that has been worn on the second avatar, If there is a mesh having an intersection, the intersection elimination force generation unit 264 is requested to generate an intersection elimination force.
- the intersection elimination unit 262 when the crossing elimination force generation unit 264 is requested to generate the crossing elimination force from the intersection determination unit 262, the intersection elimination unit 262 generates an intersection between the clothes worn on the second avatar and the second avatar. If it is determined that, to generate a cross removal force (force) of a predetermined size to push the mesh having the intersection of the clothes on the second avatar out of the skin of the second avatar,
- a distance field for determining whether the second avatar is outward or inward is calculated in three-dimensional space.
- the mesh having the crossover of the outer garment is pushed in the direction of the gradient of the distance field obtained from the midpoint of the intersection line of the mesh having the crossover of the outer garment and the underwear, and the mesh having the crossover of the underwear is A cross removal force of a preset magnitude that pushes in a direction opposite to the gradient direction is generated, and the draping simulation unit 266 is requested to perform a draping simulation process.
- the draping simulation unit 266 when the draping simulation unit 266 is requested to perform the draping simulation process from the cross elimination force generating unit 264, the draping simulation unit 266 performs a draping simulation process by applying the generated predetermined cross elimination force to the mesh.
- the crossover determination unit 262 is requested to determine whether the crossover has been removed.
- FIG. 4 is a view showing an overview of the application of the three-dimensional automatic clothes transfer technology according to a preferred embodiment of the present invention.
- Figure 4 is a diagram showing the application of the three-dimensional automatic clothes transfer technology, the three-dimensional automatic clothes transfer technology provided by the present invention is a human body scanning field, three-dimensional clothing design And e-commerce.
- the output from the human body scanning system is a form that can not be directly used in a movie or a game, such as a large number of polygons and holes in several places, whereas automatic avatar fitting technology fits a well-crafted avatar model to human body scanning data. So you can create a format that can be used in movies and games with a click of the mouse.
- the manual work has to be arranged separately from the outside and the exterior so that the garments are properly draped, whereas the three-dimensional automatic transfer fitting technology provided by the present invention It can also be used to coordinate costumes in e-commerce.
- 5 is a view showing the application range of the virtual costume before the application of the three-dimensional automatic clothes transfer platform according to a preferred embodiment of the present invention.
- 6 is a view showing a change in the sharing range of the virtual costume after the application of the three-dimensional automatic clothes transfer platform according to a preferred embodiment of the present invention.
- FIG. 5 and FIG. 6 when a platform for trading virtual costumes is constructed using the 3D clothing automatic transfer mounting method and the apparatus of the present invention, different games, virtual world applications, online Avatar and costumes are fully compatible between shopping services.
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 컴퓨터에서 수행되는 아바타 의상 착장 방법에 있어서, (a) 의상이 입혀진 제1 아바타와 상기 제1 아바타에 입혀진 의상을 새로 입힐 제2 아바타를 입력받는 단계; (b) 상기 의상이 상기 제1 아바타의 모양 변화에 따라 움직이도록 상기 의상을 상기 제1 아바타에 스키닝하는 단계; (c) 상기 의상이 스키닝된 제1 아바타를 상기 제2 아바타의 형상에 맞도록 피팅하는 단계; (d) 상기 스키닝된 의상을 상기 피팅된 제1 아바타에 맞게 상기 (b) 단계에서 스키닝된 것에 기반하여 변형시키는 단계; (e) 상기 피팅된 제1 아바타에서 상기 변형된 의상을 분리시키고, 상기 분리된 의상을 제2 아바타에 입히는 단계; 및 (f) 상기 분리된 의상이 입혀진 제2 아바타에서 상기 의상을 교차없이 드레이핑하는 단계;를 포함하는 3차원 의상 자동 전이 착장 방법에 관한 것이다. 본 발명에 따르면, 개인 사용자가 게임이나 영화, TV, 웹사이트에서 본 의상을 자신이 가지고 있는 3차원 아바타(게임 캐릭터나 자기 몸을 스캐닝한 아바타, 자기가 좋아하는 캐릭터 등)에 바로 입혀볼 수 있고, 또 3차원 의상을 구매하거나 해당 실제의상을 구매할 수도 있는 통합 의상 거래 플랫폼의 구축이 가능하도록, 각각의 서비스 사이에서 메쉬 구조가 다른 아바타 간에도 의상이 호환 가능하게 하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공할 수 있다.
Description
본 발명은 3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체에 관한 것으로, 보다 상세하게는 3차원 의상과 아바타의 메쉬 구조나 크기에 상관없이 원하는 의상을 아바타에 자동으로 입힐 수 있는 기술에 관한 것이다.
본 발명은 3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체에 관한 것이다.
최근 온라인 게임에서의 의상 아이템 판매량은 전체 매출의 대부분을 차지할 정도록 엄청날 규모로, 세계 시장의 규모는 수조원에 달한다. 또한, 게임뿐만 아니라 세컨라이프나 퍼피레드, IMVU 같은 가상세계에서도 의상 아이템 판매는 서비스의 주 수익원이 되고 있다. 앞으로 3차원 의상 시장이 실제 의류 시장과 결합된다면, 즉 실제 의류를 판매하는 서비스에 3차원 의상이 활용된다면 그 시장 규모는 더욱 커질 것이다. 그러나 기존의 의상 거래 서비스들은 해당 서비스 내에만 의상과 아바타가 호환되는 결정적인 한계를 가지고 있다.
또한, 기존의 의상 전이 기술은 메쉬 구조가 같은 아바타간에서만 호환이 가능하였으며, 아바타를 피팅하는 기술 또한 아바타들의 특징점들을 사용자가 직접 입력해 주어야 하는 문제점이 있고, 3차원 스캐닝 소프트웨어에서도 이런 특징점을 자동으로 분석해 주기는 하지만 정확성 문제로 아바타 피팅에 사용되지는 않는 현실이다.
또한, 기존의 의상 드레이핑 기술은 아바타와 의상, 의상과 의상간에 교차가 발생하지 않도록 드레이핑 전에 의상을 잘 배치한 다음 시뮬레이션을 수행해야 하는 문제점이 있었다.
상술한 문제점을 해결하기 위해 안출된 본 발명의 목적은 개인 사용자가 게임이나 영화, TV, 웹사이트에서 본 의상을 자신이 가지고 있는 3차원 아바타(게임 캐릭터나 자기 몸을 스캐닝한 아바타, 자기가 좋아하는 캐릭터 등)에 바로 입혀볼 수 있고, 또 3차원 의상을 구매하거나 해당 실제의상을 구매할 수도 있는 통합 의상 거래 플랫폼의 구축이 가능하도록, 각각의 서비스 사이에서 메쉬 구조가 다른 아바타 간에도 의상이 호환 가능하게 하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공하기 위한 것이다.
또한, 본 발명의 다른 목적은 게임이나 영화 제작자, TV나 웹의 의상 콘텐츠 제공자들이 자기 서비스 사용자뿐만 아니라 플랫폼에 연결된 모든 사용자에게 3차원 의상을 판매할 수 있는 통합 의상 거래 플랫폼의 구축이 가능하도록, 각각의 서비스 사이에서 메쉬 구조가 다른 아바타 간에도 의상이 호환 가능하게 하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공하기 위한 것이다.
또한, 본 발명의 또 다른 목적은 실제 의류를 판매하는 패션회사에서 자체적으로 제공하는 온라인쇼핑몰이나 TV 홈쇼핑 등에 3차원 의상 콘텐츠를 제공하고 실의상 매출과 연계시킬 수 있는 통합 의상 거래 플랫폼의 구축이 가능하도록, 각각의 서비스 사이에서 메쉬 구조가 다른 아바타 간에도 의상이 호환 가능하게 하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공하기 위한 것이다.
또한, 본 발명의 또 다른 목적은 자동으로 아바타의 특징점을 추출하여 자동으로 아바타를 피팅하고, 또한, 고속으로 아바타를 피팅하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공하기 위함이다.
또한, 본 발명의 또 다른 목적은 아바타와 의상, 의상과 의상 사이에 이미 교차가 발생한 상태에서 교차를 제거해가면서 의상을 드레이핑 하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공하기 위함이다.
또한, 본 발명의 또 다른 목적은 3차원 의상 자동 전이 착장 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체를 제공하기 위함이다.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명의 3차원 의상 자동 전이 착장 방법은, 컴퓨터에서 수행되는 아바타 의상 착장 방법에 있어서, (a) 의상이 입혀진 제1 아바타와 상기 제1 아바타에 입혀진 의상을 새로 입힐 제2 아바타를 입력받는 단계; (b) 상기 의상이 상기 제1 아바타의 모양 변화에 따라 움직이도록 상기 의상을 상기 제1 아바타에 스키닝하는 단계; (c) 상기 의상이 스키닝된 제1 아바타를 상기 제2 아바타의 형상에 맞도록 피팅하는 단계; (d) 상기 스키닝된 의상을 상기 피팅된 제1 아바타에 맞게 상기 (b) 단계에서 스키닝된 것에 기반하여 변형시키는 단계; (e) 상기 피팅된 제1 아바타에서 상기 변형된 의상을 분리시키고, 상기 분리된 의상을 제2 아바타에 입히는 단계; 및 (f) 상기 분리된 의상이 입혀진 제2 아바타에서 상기 의상을 교차없이 드레이핑하는 단계;를 포함한다.
한편, 상기 (b)단계는, 상기 의상의 메쉬들의 모든 점들로부터 상기 제1 아바타의 표면상까지 가장 가까운 지점을 구하고, 상기 의상의 메쉬들의 모든 점들과 상기 제1 아바타의 표면상까지 가장 가까운 지점을 연결하는 것을 특징으로 한다.
또한, 상기 (c)단계는, (c1) 상기 제1 아바타와 제2 아바타의 특징점을 추출하는 단계; (c2) 상기 추출된 상기 제1 아바타와 제2 아바타의 특징점이 일치되도록 상기 제1 아바타의 전체 크기와 포즈를 상기 제2 아바타에 일치시키는 단계; 및 (c3) 상기 제2 아바타에 전체 크기와 포즈가 일치된 상기 제1 아바타의 세부적인 체형을 피팅하는 단계;를 포함한다.
또한, 상기 (f)단계는, (f1) 상기 제2 아바타에 입혀진 의상과 제2 아바타간에 교차가 발생한 메쉬 또는 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 메쉬를 찾아 교차 여부를 판단하고, 교차가 발생한 메쉬가 있는 경우에는 (f2) 및 (f3) 단계를 수행하고, 교차가 발생한 메쉬가 없는 경우에는 (f2)와 (f3) 단계를 수행하지 않고 종료하는 단계; (f2) 상기 (f1)단계에서 상기 제2 아바타에 입혀진 의상과 제2 아바타간에 교차가 발생한 것으로 판단한 경우에는, 상기 제2 아바타에 입혀진 의상의 교차가 발생한 메쉬를 제2 아바타의 피부 바깥 방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘을 생성하고, 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 것으로 판단하는 경우에는, 3차원 공간에서 상기 제2 아바타의 바깥 방향인지 안쪽 방향인지를 판단할 수 있는 디스턴스 필드를 계산하고, 겉옷의 교차가 발생한 메쉬는 겉옷과 속옷의 교차가 발생한 메쉬의 교차선분의 중점에서 구한 디스턴스 필드의 그레디언트 방향으로 밀어내고, 속옷의 교차가 발생한 메쉬는 상기 디스턴스 필드의 그레디언트 방향의 반대방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘을 생성하는 단계; 및 (f3) 상기 생성된 미리 설정된 크기의 교차 제거 힘을 해당 메쉬에 가하여 드레이핑 시뮬레이션 과정을 수행하고, 상기 드레이핑 시뮬레이션 과정이 종료되면 (f1) 단계를 수행하는 단계;를 포함한다.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명의 컴퓨터에서 판독 가능한 기록매체는 본 발명의 3차원 의상 자동 전이 착장 방법을 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 한다.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 또 다른 특징에 따르면, 본 발명의 3차원 의상 자동 전이 착장 장치는 의상이 입혀진 제1 아바타와 상기 제1 아바타에 입혀진 의상을 새로 입힐 제2 아바타를 입력받는 입력부; 상기 입력받은 의상이 상기 제1 아바타의 모양 변화에 따라 움직이도록 상기 의상을 상기 제1 아바타에 스키닝하는 스키닝부; 상기 의상이 스키닝된 제1 아바타를 상기 제2 아바타의 형상에 맞도록 피팅하는 피팅부; 상기 스키닝된 의상을 상기 피팅된 제1 아바타에 맞게 상기 스키닝부에서 스키닝된 것에 기반하여 변형시키는 의상변형부; 상기 피팅된 제1 아바타에서 상기 의상변형부에서 변형된 의상을 분리시키고, 상기 분리된 의상을 제2 아바타에 입히는 의상전이부; 및 상기 분리된 의상이 입혀진 제2 아바타에서 상기 의상을 교차없이 드레이핑하는 드레이핑부;를 포함한다.
한편, 상기 스키닝부는 상기 의상의 메쉬들의 모든 점들로부터 상기 제1 아바타의 표면상까지 가장 가까운 지점을 구하고, 상기 의상의 메쉬들의 모든 점들과 상기 제1 아바타의 표면상까지 가장 가까운 지점을 연결하는 것을 특징으로 한다.
또한, 상기 피팅부는, 상기 제1 아바타와 제2 아바타의 특징점을 추출하고, 상기 추출된 상기 제1 아바타와 제2 아바타의 특징점이 일치되도록 상기 제1 아바타의 전체 크기와 포즈를 상기 제2 아바타에 일치시킨 후, 상기 제2 아바타에 전체 크기와 포즈가 일치된 상기 제1 아바타의 세부적인 체형을 피팅하는 것을 특징으로 한다.
또한, 상기 드레이핑부는, 제2 아바타에 입혀진 의상과 상기 제2 아바타간에 교차가 발생한 메쉬 또는 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 메쉬를 찾아 교차 여부를 판단하고, 교차가 발생한 메쉬가 있는 경우에 교차 제거 힘 생성부에 교차 제거 힘을 생성하도록 요청하는 교차 여부 판단부;
상기 교차 여부 판단부로부터 교차 제거 힘을 생성하도록 요청받으면, 상기 교차 여부 판단부가 제2 아바타에 입혀진 의상과 상기 제2 아바타간에 교차가 발생한 것으로 판단하는 경우에는, 상기 제2 아바타에 입혀진 의상의 교차가 발생한 메쉬를 상기 제2 아바타의 피부 바깥 방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘을 생성하고, 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 것으로 판단하는 경우에는, 3차원 공간에서 상기 제2 아바타의 바깥 방향인지 안쪽 방향인지를 판단할 수 있는 디스턴스 필드를 계산하고, 겉옷의 교차가 발생한 메쉬는 겉옷과 속옷의 교차가 발생한 메쉬의 교차선분의 중점에서 구한 디스턴스 필드의 그레디언트 방향으로 밀어내고, 속옷의 교차가 발생한 메쉬는 상기 디스턴스 필드의 그레디언트 방향의 반대방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘을 생성하고, 드레이핑 시뮬레이션부에 드레이핑 시뮬레이션 과정을 수행하도록 요청하는 교차 제거 힘 생성부; 및
상기 교차 제거 힘 생성부로부터 드레이핑 시뮬레이션 과정을 수행하도록 요청받으면, 상기 생성된 미리 설정된 크기의 교차 제거 힘을 해당 메쉬에 가하여 드레이핑 시뮬레이션 과정을 수행하고, 드레이핑 시뮬레이션 과정이 종료되면 상기 교차 여부 판단부에 교차가 제거되었는 지를 판단하도록 요청하는 드레이핑 시뮬레이션부;를 포함한다.
이상 살펴본 바와 같은 본 발명에 따르면, 개인 사용자가 게임이나 영화, TV, 웹사이트에서 본 의상을 자신이 가지고 있는 3차원 아바타(게임 캐릭터나 자기 몸을 스캐닝한 아바타, 자기가 좋아하는 캐릭터 등)에 바로 입혀볼 수 있고, 또 3차원 의상을 구매하거나 해당 실제의상을 구매할 수도 있는 통합 의상 거래 플랫폼의 구축이 가능하도록, 각각의 서비스 사이에서 메쉬 구조가 다른 아바타 간에도 의상이 호환 가능하게 하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공할 수 있다.
또한, 본 발명에 따르면, 게임이나 영화 제작자, TV나 웹의 의상 콘텐츠 제공자들이 자기 서비스 사용자뿐 만 아니라 플랫폼에 연결된 모든 사용자에게 3차원 의상을 판매할 수 있는 통합 의상 거래 플랫폼의 구축이 가능하도록,각각의 서비스 사이에서 메쉬 구조가 다른 아바타 간에도 의상이 호환 가능하게 하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공할 수 있다.
또한, 본 발명에 따르면, 실제의류를 판매하는 패션회사에서 자체적으로 제공하는 온라인쇼핑몰이나 TV 홈쇼핑 등에 3차원 의상 콘텐츠를 제공하고 실의상 매출과 연계시킬 수 있는 통합 의상 거래 플랫폼의 구축이 가능하도록, 각각의 서비스 사이에서 메쉬 구조가 다른 아바타 간에도 의상이 호환 가능하게 하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공할 수 있다.
또한, 본 발명에 따르면, 자동으로 아바타의 특징점을 추출하여 자동으로 아바타를 피팅하고, 또한, 고속으로 아바타를 피팅하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공할 수 있다.
또한, 본 발명에 따르면, 아바타와 의상, 의상과 의상 사이에 이미 교차가 발생한 상태에서 교차를 제거해가면서 의상을 드레이핑 하는 3차원 의상 자동 전이 착장 방법 및 그 장치를 제공할 수 있다.
또한, 본 발명에 따르면, 3차원 의상 자동 전이 착장 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체를 제공할 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 방법을 나타낸 흐름도이다.
도 2는 본 발명의 바람직한 실시예에 따른 도 1의 드레이핑 시뮬레이션 과정을 수행하는 단계의 세부 절차를 나타낸 흐름도이다.
도 3은 본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 장치를 나타낸 도면이다.
도 4는 본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 기술적용 개요를 나타낸 도면이다.
도 5는 본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 플랫폼의 적용 전의 가상의상의 적용 범위를 나타낸 도면이다.
도 6은 본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 플랫폼의 적용 후의 가상의상의 공유 범위의 변화를 나타낸 도면이다.
** 도면 부호의 설명 **
200 : 3차원 의상 자동 전이 착장 장치 210 : 입력부
220 : 스키닝부 230 : 피팅부
240 : 의상변형부 250 : 의상전이부
260 : 드레이핑부 262 : 교차여부판단부
264 : 교차 제거 힘 생성부 266 : 드레이핑 시뮬레이션부
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 본 발명의 실시예들에 의하여 3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체를 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.
도 1은 본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 방법을 나타낸 흐름도이다.
본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 방법은 컴퓨터에서 수행되는 아바타 의상 착장 방법에 있어서, 먼저 의상이 입혀진 제1 아바타와 제1 아바타에 입혀진 의상을 새로 입힐 제2 아바타를 입력받는다(단계 S100).
그 다음, 의상이 제1 아바타의 모양 변화에 따라 움직이도록 그 의상을 제1 아바타에 스키닝한다(단계 S110).
한편, 단계 S110은 의상의 메쉬들의 모든 점들로부터 제1 아바타의 표면상까지 가장 가까운 지점을 구하고, 의상의 메쉬들의 모든 점들과 제1 아바타의 표면상까지 가장 가까운 지점을 연결하여 스키닝하는 것이 바람직하다.
좀 더 구체적으로, 단계 S110은 아바타의 포즈나 체형 변화에 따라 의상을 변형하기 위해서 의상을 아바타의 스킨처럼 만드는 스키닝 데이터 생성 작업을 수행하게 되는데, 이 작업은 의상의 메쉬들의 모든 점들로부터 아바타 표면상에서 가장 가까운 위치를 계산함으로써 가능하다.
한편, 의상과 아바타 사이의 연결 관계를 계산하는 과정은 geometry 사이의 최소 거리를 계산하는 알고리즘이므로 최소 거리를 계산하는 일반적인 방법을 사용하여 구현할 수 있다.
여기서, 최소 거리를 계산하는 일반적인 방법은 논문 [Seungwoo Oh, Hyungseok Kim, Nadia Magnenat-Thalmann, “Generating unified model for dressed virtual humans”, The Visual Computer, 21(8-10): 522~531, (Proc. Pacific Graphics 2005), 2005]을 참조하여 알 수 있다.
결국, 이 과정을 통해 의상의 메쉬들의 모든 점과 아바타 사이의 연결 관계가 형성되므로 아바타의 모양이 바뀌어도 의상의 메쉬들의 각 점이 연결된 아바타 부위를 따라가게 만들 수 있어 아바타 포즈나 체형에 맞게 의상을 변형시킬 수 있게 된다.
그 다음, 의상이 스키닝된 제1 아바타를 제2 아바타의 형상에 맞도록 피팅한다(단계 S120).
또한, 단계 S120은, 제1 아바타와 제2 아바타의 특징점을 추출하는 단계(단계 S122), 추출된 제1 아바타와 제2 아바타의 특징점이 일치되도록 제1 아바타의 전체 크기와 포즈를 제2 아바타에 일치시키는 단계(단계 S124) 및 제2 아바타에 전체 크기와 포즈가 일치된 제1 아바타의 세부적인 체형을 피팅하는 단계(단계 S126)를 포함하는 것이 바람직하다.
좀 더 구체적으로, 단계 S122는 제1 아바타와 제2 아바타의 특징점을 자동으로 추출하는 데[참조 : Iat-Fai Leong, Fang JJ and Tsai MJ., “Automatic body feature extraction from a marker-less scanned human body”, Computer-Aided Design, 2007], 여기서 특징점이란 아바타의 피팅 후에 반드시 일치해야 하는 신체의 주요 부위를 말한다.
한편, 아바타의 피팅시에 사용할 특징점은 피팅 방법에 따라 다양하게 선택할 수 있는 데, 엄지 발가락끝, 발뒤꿈치, 복숭아뼈, 무릅, 배꼽, 유두점, 어깨위점, 팔꿈치, 손목, 손가락끝, 턱끝, 머리끝 등이 될 수 있다.
또한, 단계 S124는 추출된 제1 아바타와 제2 아바타의 특징점이 일치되도록 제1 아바타의 체형을 피팅하는 데, 피팅 과정은 제1 아바타의 체형을 유지하면서 제1 아바타의 특징점이 제2 아바타의 특징점과 일치되도록 하기 위해 특징점을 constraint로 주고 일반적인 최적화 과정을 수행하게 된다.
여기서 일반적인 최적화 과정에 대해서는 [ALLEN, B., CURLESS, B., and POPOVIC Z. 2003. The space of all body shapes: reconstruction and parameterization from range scans. ACM Transactions on Graphics (ACM SIGGRAPH 2003), 22, 3, 587-594.]에 게시되어 있다.
다만, 상기 논문은 템플릿 아바타 모델을 바디스캔한 데이터에 피팅하는 내용으로 메쉬 구조가 다른 아바타 간에 특징점을 자동으로 추출하고 피팅하는 본 발명과는 차이가 있다.
또한, 단계 S126은 세부적인 체형을 피팅하는 과정으로, 세부 피팅과정 역시 일반적인 최적화 솔루션을 이용하여 구현할 수 있는 데 최적화 과정에는 보통 많은 계산 시간이 요구되는 문제가 있다.
따라서, 단계 S126에서는 멀티 그리드 기법을 이용하여 최적화 과정을 가속화하는 것이 바람직하다. 멀티 그리드 기법이 성공적으로 적용되면 수분에서 수십분이 걸리는 계산 시간을 1분 안에 원하는 결과를 얻을 수 있다.
즉, 임의의 메쉬 구조를 변형하는데 적용할 수 있는 Algebraic Multigrid 라 불리는 표준 멀티그리드 방법[참조 : Lin Shi, Yizhou Yu, Nathan Bell and Wei-Wen Feng SIGGRAPH 2006 (ACM Transactions on Graphics, Vol. 24, No. 3, 2006)]을 선형시스템 풀이 과정인 최적화 과정에 적용하여 세부 체형을 피팅하기 위한 최적화 과정을 가속화할 수 있게 된다.
한편, 아바타의 피팅 방법 자체에 대해서는 위에 게시된 논문들을 참조하여 볼 때 통상의 지식을 가진 자에게 명확하다고 할 수 있으므로 더 이상 자세한 설명은 생략하도록 한다.
그 다음, 스키닝된 의상을 피팅된 제1 아바타에 맞게 단계 S110에서 스키닝된 것에 기반하여 변형시킨다(단계 S130).
즉, 제1 아바타에 입혀져 있는 의상은 이미 단계 S110에서 제1 아바타의 크기나 체형이 변하게 되더라도 따라갈 수 있도록 의상의 메쉬들의 모든 점들과 제1 아바타의 표면상까지 가장 가까운 지점이 연결되도록 스키닝되어 있으므로 제2 아바타의 체형에 맞도록 피팅된 제1 아바타에 맞게 의상을 쉽게 변형시킬 수 있게 된다.
그 다음, 피팅된 제1 아바타에서 변형된 의상을 분리시키고, 분리된 의상을 제2 아바타에 입힌다(단계 S140).
마지막으로, 분리된 의상이 입혀진 제2 아바타에서 그 의상을 교차없이 드레이핑한다(단계 S150).
도 2는 본 발명의 바람직한 실시예에 따른 도 1의 드레이핑 시뮬레이션 과정을 수행하는 단계의 세부 절차를 나타낸 흐름도이다.
본 발명의 바람직한 실시예에 따른 도 1의 드레이핑 시뮬레이션 과정을 수행하는 단계(단계 S150)는, 교차 여부를 판단하는 단계(단계 S152)와, 교차 제거 힘(force)을 생성하는 단계(단계 S154) 및 드레이핑 시뮬레이션 과정을 수행하는 단계(단계 S156)를 포함한다.
여기서, 드레이핑 시뮬레이션 과정은 기본적으로 [Pascal Volino, Nadia Magnenat-Thalmann: Resolving surface collisions through intersection contour minimization. ACM Trans. Graph. 25(3): 1154-1159 (2006)]에 게시된 방법을 사용하게 된다.
다만, 위 방법은 교차가 발생한 옷이 여러 겹인 경우 겉옷과 속옷의 교차가 발생한 메쉬를 교차가 없어지도록 밀어낼 방향을 결정하기 곤란하므로 본 발명이 제시하는 드레이핑 시뮬레이션 과정은 아래에서 설명하는 디스턴스 필드(distance field)를 이용하여 보완한다.
교차 여부를 판단하는 단계(단계 S152)는 제2 아바타에 입혀진 의상과 제2 아바타간에 교차가 발생한 메쉬 또는 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 메쉬를 찾아 교차 여부를 판단하고, 교차가 발생한 메쉬가 있는 경우에는 단계 S154와 단계 S156을 수행하고, 교차가 발생한 메쉬가 없는 경우에는 단계 S154와 단계 S156을 수행하지 않고 종료한다.
좀 더 구체적으로, 위의 Pascal Volino 논문에 게시된 교차 검사 방법을 이용하여 제2 아바타에 입혀진 의상과 아바타간의 교차 여부 또는 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간의 교차 여부를 판단할 수 있다.
또한, 교차 제거 힘(force)을 생성하는 단계(단계 S154)는 단계 S152에서 제2 아바타에 입혀진 의상과 제2 아바타간에 교차가 발생한 것으로 판단한 경우에는, 제2 아바타에 입혀진 의상의 교차가 발생한 메쉬를 제2 아바타의 피부 바깥 방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘(force)을 생성하고,
제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 것으로 판단하는 경우에는, 3차원 공간에서 상기 제2 아바타의 바깥 방향인지 안쪽 방향인지를 판단할 수 있는 디스턴스 필드(distance field)를 계산하고, 겉옷의 교차가 발생한 메쉬는 겉옷과 속옷의 교차가 발생한 메쉬의 교차선분의 중점에서 구한 디스턴스 필드(distance field)의 그레디언트(gradient) 방향으로 밀어내고, 속옷의 교차가 발생한 메쉬는 상기 디스턴스 필드(distance field)의 그레디언트(gradient) 방향의 반대방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘(force)을 생성한다.
좀 더 구체적으로, 제2 아바타에 입혀진 의상과 제2 아바타가 교차했을 때는 제2 아바타에 입혀진 의상의 교차가 발생한 메쉬를 제2 아바타의 피부 바깥 방향으로 밀어내면 되기 때문에, 상기 Pascal Volino 논문에 게시된 방법을 바로 적용할 수 있다.
이에 반해, 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 경우에는 어떤 방향이 아바타 바깥 방향인지를 모르기 때문에 모든 3차원 공간에서 아바타 바깥 방향인지 안쪽 방향인지를 판단할 수 있는 디스턴스 필드(distance field)를 계산하여 옷과 옷을 밀어낼 힘(force)의 방향을 결정해야 한다.
여기서 아바타에 대한 디스턴스 필드(distance field)는 [Mark W. Jones and J. Andreas Bærentzen and Milos Sramek, 3D distance fields: A survey of techniques and applications, IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS, 2006]과 [Avneesh Sud, Miguel A. Otaduy, Dinesh Manocha, DiFi: Fast 3D Distance Field Computation Using Graphics Hardware,
Eurographics, 2004]를 참조하여 구할 수 있다.
한편, 디스턴스 필드(distance field)는 특정 위치에서 가장 가까운 아바타 표면까지의 거리를 3차원 공간상의 모든 위치에 대해 계산하여 저장해 놓는 데이터구조를 말하는 데, 이를 위해 보통 공간을 격자로 쪼개고 이때 생긴 각각의 복셀(voxel)마다 그 중심에서 가장 가까운 아바타 표면까지의 거리를 계산해서 복셀(voxel)에 저장해 놓게 된다. 여기서 복셀이란 3D 공간의 한 점을 정의한 일단의그래픽 정보를 말한다.
이 디스턴스 필드(distance field)는 수학적으로 말하면 스칼라 필드(scalar field)에 해당하고 이 필드(field)에 대한 그레디언트(gradient)를 구할 수 있다.
이때, 이 스칼라 필드(scalar field)의 그레디언트(gradient)는 벡터 필드(vector field)가 되는데 여기서 벡터(vector)는 결국 스칼라(scalar)값이 가장 급격하게 커지는 방향의 벡터(vector), 즉 아바타 표면으로부터 가장 멀어지는 방향 벡터(vector)가 된다. 결국 이 방향이 "아바타 바깥방향"이라고 할 수 있다.
즉, 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷의 삼각형 메쉬가 교차되면 교차된 부분은 하나의 선분으로 나타나게 되는 데, 그 선분을 교차선분이라고 했을 때 겉옷의 삼각형 메쉬에 가하는 힘(force)의 방향은 교차선분의 중점에서 구한 디스턴스 필드(distance field)의 그레디언트(gradient), 즉 "아바타 바깥방향"이 되고, 속옷의 삼각형 메쉬에 가해지는 힘(force)의 방향은 "아바타 바깥방향"의 반대방향이 된다.
또한, 드레이핑 시뮬레이션 과정을 수행하는 단계(단계 S156)는 생성된 미리 설정된 크기의 교차 제거 힘(force)을 해당 메쉬에 가하여 드레이핑 시뮬레이션 과정을 수행하고, 드레이핑 시뮬레이션 과정이 종료되면 단계 S152를 다시 수행한다.
좀 더 구체적으로, 단계 S154에서 힘(force)의 크기를 적절히 설정한 후, 그 힘(force)을 드레이핑 시뮬레이션 과정에 반영하여 드레이핑 시뮬레이션을 수행하면 교차가 발생한 두 삼각형 메쉬 사이의 교차선분이 줄어들거나 없어지게 된다.
즉, 이렇게 교차 검사 - 교차제거 힘(force) 생성 - 드레이핑 시뮬레이션 과정을 교차가 완전히 없어질 때까지 반복 수행함으로써 이미 교차가 발생한 상태에서 드레이핑 시뮬레이션을 시작하더라도 교차를 없애면서 의상을 완벽하게 드레이핑할 수 있게 된다.
따라서, 이미 교차가 발생한 상태에서 드레이핑 시뮬레이션을 시작하더라도 의상을 완벽하게 드레이핑할 수 있으므로 의류 전자상거래나 의상 디자인 소프트웨어 등에 핵심 기술로 활용될 수 있을 것이다.
도 3은 본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 장치를 나타낸 도면이다.
본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 장치(200)는 입력부(210), 스키닝부(220), 피팅부(230), 의상변형부(240), 의상전이부(250)와 드레이핑부(260)를 포함한다.
입력부(210)는 의상이 입혀진 제1 아바타와 제1 아바타에 입혀진 의상을 새로 입힐 제2 아바타를 입력받는다.
또한, 스키닝부(220)는 입력받은 의상이 제1 아바타의 모양 변화에 따라 움직이도록 의상을 제1 아바타에 스키닝한다.
한편, 스키닝부(220)는 의상의 메쉬들의 모든 점들로부터 제1 아바타의 표면상까지 가장 가까운 지점을 구하고, 의상의 메쉬들의 모든 점들과 제1 아바타의 표면상까지 가장 가까운 지점을 연결하는 것을 특징으로 한다.
또한, 피팅부(230)는 의상이 스키닝된 제1 아바타를 제2 아바타의 형상에 맞도록 피팅한다.
한편, 피팅부(230)는 제1 아바타와 제2 아바타의 특징점을 추출하고, 추출된 제1 아바타와 제2 아바타의 특징점이 일치되도록 제1 아바타의 전체 크기와 포즈를 제2 아바타에 일치시킨 후, 제2 아바타에 전체 크기와 포즈가 일치된 제1 아바타의 세부적인 체형을 피팅하는 것을 특징으로 한다.
또한, 의상변형부(240)는 스키닝된 의상을 피팅된 제1 아바타에 맞게 스키닝부(220)에서 스키닝된 것에 기반하여 변형시킨다.
또한, 의상전이부(250)는 피팅된 제1 아바타에서 의상변형부(240)에서 변형된 의상을 분리시키고, 분리된 의상을 제2 아바타에 입힌다.
또한, 드레이핑부(260)는 분리된 의상이 입혀진 제2 아바타에서 의상을 교차없이 드레이핑한다.
한편, 드레이핑부(260)는 교차 여부 판단부(262), 교차 제거 힘(force) 생성부(264) 및 드레이핑 시뮬레이션부(266)를 포함한다.
교차 여부 판단부(262)는 제2 아바타에 입혀진 의상과 제2 아바타간에 교차가 발생한 메쉬 또는 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 메쉬를 찾아 교차 여부를 판단하고, 교차가 발생한 메쉬가 있는 경우에 교차 제거 힘 생성부(264)에 교차 제거 힘을 생성하도록 요청한다.
또한, 교차 제거 힘 생성부(264)는 교차 여부 판단부(262)로부터 교차 제거 힘을 생성하도록 요청받으면, 교차 여부 판단부(262)가 제2 아바타에 입혀진 의상과 제2 아바타간에 교차가 발생한 것으로 판단하는 경우에는, 제2 아바타에 입혀진 의상의 교차가 발생한 메쉬를 제2 아바타의 피부 바깥 방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘(force)을 생성하고,
제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 것으로 판단하는 경우에는, 3차원 공간에서 제2 아바타의 바깥 방향인지 안쪽 방향인지를 판단할 수 있는 디스턴스 필드(distance field)를 계산하고, 겉옷의 교차가 발생한 메쉬는 겉옷과 속옷의 교차가 발생한 메쉬의 교차선분의 중점에서 구한 디스턴스 필드(distance field)의 그레디언트(gradient) 방향으로 밀어내고, 속옷의 교차가 발생한 메쉬는 디스턴스 필드의 그레디언트 방향의 반대방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘을 생성하고, 드레이핑 시뮬레이션부(266)에 드레이핑 시뮬레이션 과정을 수행하도록 요청한다.
또한, 드레이핑 시뮬레이션부(266)는 교차 제거 힘 생성부(264)로부터 드레이핑 시뮬레이션 과정을 수행하도록 요청받으면, 생성된 미리 설정된 크기의 교차 제거 힘(force)을 해당 메쉬에 가하여 드레이핑 시뮬레이션 과정을 수행하고, 드레이핑 시뮬레이션 과정이 종료되면 교차 여부 판단부(262)에 교차가 제거되었는 지를 판단하도록 요청한다.
도 4는 본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 기술 적용 개요를 나타낸 도면이다.
도 4를 참조하여 바람직한 실시예를 보면, 도 4는 3차원 의상 자동 전이 착장 기술의 적용 개요를 나타낸 도면으로, 본 발명이 제공하는 3차원 의상 자동 전이 착장 기술은 인체 스캐닝 분야, 3차원 의상 디자인 및 전자상거래 분야에서 활용될 수 있을 것이다.
현재 인체 스캐닝 시스템에서 출력해주는 결과물은 폴리곤수가 많고 군데군데 구멍이 뚫려 있는 등 영화나 게임에 바로 사용할 수 없는 형태인데 반해, 자동 아바타 피팅 기술을 이용하면 잘 제작해 놓은 아바타 모델을 인체 스캐닝 데이터에 피팅할 수 있으므로 마우스 클릭 한번으로 영화나 게임에서 쓸 수 있는 포맷으로 만들 수 있다.
또한, 3차원 의상 디자인 및 전자상거래 분야에서 교차가 발생한 상태에서 의상을 자연스럽게 드레이핑할 수 있는 기술을 사용하면 여러벌의 의상 코디를 손쉽게 할 수 있다.
즉, 현재의 의상 디자인 소프트웨어로 여러벌 의상을 코디하기 위해서는 의상이 제대로 드레이핑 되도록 일일이 겉과 속을 구분하여 배치해 줘야 하는 수작업이 필요한데 반해, 본 발명이 제공하는 3차원 의상 자동 전이 착장 기술은 의류 전자상거래에서 의상을 바로 코디해 보는 데에도 사용될 수 있다.
도 5는 본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 플랫폼의 적용 전의 가상의상의 적용 범위를 나타낸 도면이다. 도 6은 본 발명의 바람직한 실시예에 따른 3차원 의상 자동 전이 착장 플랫폼의 적용 후의 가상의상의 공유 범위의 변화를 나타낸 도면이다.
도 5와 도 6를 참조하여 바람직한 실시예를 보면, 본 발명의 3차원 의상 자동 전이 착장 방법과 그 장치를 이용하여 가상의상을 거래하는 플랫폼을 구축하게 되면, 서로 다른 게임, 가상세계 어플리케이션, 온라인 쇼핑 서비스간에 아바타와 의상을 완벽하게 호환할 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Claims (9)
- 컴퓨터에서 수행되는 아바타 의상 착장 방법에 있어서,(a) 의상이 입혀진 제1 아바타와 상기 제1 아바타에 입혀진 의상을 새로 입힐 제2 아바타를 입력받는 단계;(b) 상기 의상이 상기 제1 아바타의 모양 변화에 따라 움직이도록 상기 의상을 상기 제1 아바타에 스키닝하는 단계;(c) 상기 의상이 스키닝된 제1 아바타를 상기 제2 아바타의 형상에 맞도록 피팅하는 단계;(d) 상기 스키닝된 의상을 상기 피팅된 제1 아바타에 맞게 상기 (b) 단계에서 스키닝된 것에 기반하여 변형시키는 단계;(e) 상기 피팅된 제1 아바타에서 상기 변형된 의상을 분리시키고, 상기 분리된 의상을 제2 아바타에 입히는 단계; 및(f) 상기 분리된 의상이 입혀진 제2 아바타에서 상기 의상을 교차없이 드레이핑하는 단계;를 포함하는 3차원 의상 자동 전이 착장 방법.
- 제1항에 있어서, 상기 (b)단계는,상기 의상의 메쉬들의 모든 점들로부터 상기 제1 아바타의 표면상까지 가장 가까운 지점을 구하고, 상기 의상의 메쉬들의 모든 점들과 상기 제1 아바타의 표면상까지 가장 가까운 지점을 연결하는 것을 특징으로 하는 3차원 의상 자동 전이 착장 방법.
- 제1항에 있어서, 상기 (c)단계는,(c1) 상기 제1 아바타와 제2 아바타의 특징점을 추출하는 단계;(c2) 상기 추출된 상기 제1 아바타와 제2 아바타의 특징점이 일치되도록 상기 제1 아바타의 전체 크기와 포즈를 상기 제2 아바타에 일치시키는 단계; 및(c3) 상기 제2 아바타에 전체 크기와 포즈가 일치된 상기 제1 아바타의 세부적인 체형을 피팅하는 단계;를 포함하는 3차원 의상 자동 전이 착장 방법.
- 제1항에 있어서, 상기 (f)단계는,(f1) 상기 제2 아바타에 입혀진 의상과 제2 아바타간에 교차가 발생한 메쉬 또는 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 메쉬를 찾아 교차 여부를 판단하고, 교차가 발생한 메쉬가 있는 경우에는 (f2) 및 (f3) 단계를 수행하고, 교차가 발생한 메쉬가 없는 경우에는 (f2)와 (f3) 단계를 수행하지 않고 종료하는 단계;(f2) 상기 (f1)단계에서 상기 제2 아바타에 입혀진 의상과 제2 아바타간에 교차가 발생한 것으로 판단한 경우에는, 상기 제2 아바타에 입혀진 의상의 교차가 발생한 메쉬를 제2 아바타의 피부 바깥 방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘을 생성하고, 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 것으로 판단하는 경우에는, 3차원 공간에서 상기 제2 아바타의 바깥 방향인지 안쪽 방향인지를 판단할 수 있는 디스턴스 필드를 계산하고, 겉옷의 교차가 발생한 메쉬는 겉옷과 속옷의 교차가 발생한 메쉬의 교차선분의 중점에서 구한 디스턴스 필드의 그레디언트 방향으로 밀어내고, 속옷의 교차가 발생한 메쉬는 상기 디스턴스 필드의 그레디언트 방향의 반대방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘을 생성하는 단계; 및(f3) 상기 생성된 미리 설정된 크기의 교차 제거 힘을 해당 메쉬에 가하여 드레이핑 시뮬레이션 과정을 수행하고, 상기 드레이핑 시뮬레이션 과정이 종료되면 (f1) 단계를 수행하는 단계;를 포함하는 3차원 의상 자동 전이 착장 방법.
- 제1항 내지 제4항의 방법 중 어느 하나의 방법을 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체.
- 의상이 입혀진 제1 아바타와 상기 제1 아바타에 입혀진 의상을 새로 입힐 제2 아바타를 입력받는 입력부;상기 입력받은 의상이 상기 제1 아바타의 모양 변화에 따라 움직이도록 상기 의상을 상기 제1 아바타에 스키닝하는 스키닝부;상기 의상이 스키닝된 제1 아바타를 상기 제2 아바타의 형상에 맞도록 피팅하는 피팅부;상기 스키닝된 의상을 상기 피팅된 제1 아바타에 맞게 상기 스키닝부에서 스키닝된 것에 기반하여 변형시키는 의상변형부;상기 피팅된 제1 아바타에서 상기 의상변형부에서 변형된 의상을 분리시키고, 상기 분리된 의상을 제2 아바타에 입히는 의상전이부; 및상기 분리된 의상이 입혀진 제2 아바타에서 상기 의상을 교차없이 드레이핑하는 드레이핑부;를 포함하는 3차원 의상 자동 전이 착장 장치.
- 제6항에 있어서, 상기 스키닝부는,상기 의상의 메쉬들의 모든 점들로부터 상기 제1 아바타의 표면상까지 가장 가까운 지점을 구하고, 상기 의상의 메쉬들의 모든 점들과 상기 제1 아바타의 표면상까지 가장 가까운 지점을 연결하는 것을 특징으로 하는 3차원 의상 자동 전이 착장 장치.
- 제6항에 있어서, 상기 피팅부는,상기 제1 아바타와 제2 아바타의 특징점을 추출하고, 상기 추출된 상기 제1 아바타와 제2 아바타의 특징점이 일치되도록 상기 제1 아바타의 전체 크기와 포즈를 상기 제2 아바타에 일치시킨 후, 상기 제2 아바타에 전체 크기와 포즈가 일치된 상기 제1 아바타의 세부적인 체형을 피팅하는 것을 특징으로 하는 3차원 의상 자동 전이 착장 장치.
- 제6항에 있어서, 상기 드레이핑부는,제2 아바타에 입혀진 의상과 상기 제2 아바타간에 교차가 발생한 메쉬 또는 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 메쉬를 찾아 교차 여부를 판단하고, 교차가 발생한 메쉬가 있는 경우에 교차 제거 힘 생성부에 교차 제거 힘을 생성하도록 요청하는 교차 여부 판단부;상기 교차 여부 판단부로부터 교차 제거 힘을 생성하도록 요청받으면, 상기 교차 여부 판단부가 제2 아바타에 입혀진 의상과 상기 제2 아바타간에 교차가 발생한 것으로 판단하는 경우에는, 상기 제2 아바타에 입혀진 의상의 교차가 발생한 메쉬를 상기 제2 아바타의 피부 바깥 방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘을 생성하고, 제2 아바타에 입혀진 의상이 여러 겹인 경우 겉옷과 속옷간에 교차가 발생한 것으로 판단하는 경우에는, 3차원 공간에서 상기 제2 아바타의 바깥 방향인지 안쪽 방향인지를 판단할 수 있는 디스턴스 필드를 계산하고, 겉옷의 교차가 발생한 메쉬는 겉옷과 속옷의 교차가 발생한 메쉬의 교차선분의 중점에서 구한 디스턴스 필드의 그레디언트 방향으로 밀어내고, 속옷의 교차가 발생한 메쉬는 상기 디스턴스 필드의 그레디언트 방향의 반대방향으로 밀어내는 미리 설정된 크기의 교차 제거 힘을 생성하고, 드레이핑 시뮬레이션부에 드레이핑 시뮬레이션 과정을 수행하도록 요청하는 교차 제거 힘 생성부; 및상기 교차 제거 힘 생성부로부터 드레이핑 시뮬레이션 과정을 수행하도록 요청받으면, 상기 생성된 미리 설정된 크기의 교차 제거 힘을 해당 메쉬에 가하여 드레이핑 시뮬레이션 과정을 수행하고, 드레이핑 시뮬레이션 과정이 종료되면 상기 교차 여부 판단부에 교차가 제거되었는 지를 판단하도록 요청하는 드레이핑 시뮬레이션부;를 포함하는 3차원 의상 자동 전이 착장 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/695,143 US20130057544A1 (en) | 2010-04-27 | 2010-04-28 | Automatic 3d clothing transfer method, device and computer-readable recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2010-0038870 | 2010-04-27 | ||
KR1020100038870A KR101106104B1 (ko) | 2010-04-27 | 2010-04-27 | 3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2011136408A1 true WO2011136408A1 (ko) | 2011-11-03 |
Family
ID=44861684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2010/002689 WO2011136408A1 (ko) | 2010-04-27 | 2010-04-28 | 3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20130057544A1 (ko) |
KR (1) | KR101106104B1 (ko) |
WO (1) | WO2011136408A1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015023946A1 (en) * | 2013-08-16 | 2015-02-19 | Schlumberger Canada Limited | Pixel-based or voxel-based mesh editing |
CN106933439A (zh) * | 2015-12-29 | 2017-07-07 | 腾讯科技(深圳)有限公司 | 一种基于社交平台的图片处理方法及系统 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150006334A1 (en) * | 2013-06-26 | 2015-01-01 | International Business Machines Corporation | Video-based, customer specific, transactions |
US9865088B2 (en) | 2014-01-31 | 2018-01-09 | Empire Technology Development Llc | Evaluation of augmented reality skins |
EP3100256A4 (en) * | 2014-01-31 | 2017-06-28 | Empire Technology Development LLC | Augmented reality skin evaluation |
EP3100226A4 (en) | 2014-01-31 | 2017-10-25 | Empire Technology Development LLC | Augmented reality skin manager |
JP6205498B2 (ja) | 2014-01-31 | 2017-09-27 | エンパイア テクノロジー ディベロップメント エルエルシー | 対象者選択式拡張現実スキン |
CN105096153A (zh) * | 2014-11-04 | 2015-11-25 | 合肥轩明信息科技有限公司 | 一种基于三维扫描仪的网上商店营销方法 |
US9307360B1 (en) | 2015-01-09 | 2016-04-05 | NinthDecimal, Inc. | Systems and methods to identify a predefined geographical region in which a mobile device is located |
KR101665653B1 (ko) * | 2015-04-27 | 2016-10-13 | (주)클로버추얼패션 | 디지털 의상 객체 생성 방법 및 장치 |
WO2017059438A1 (en) * | 2015-10-02 | 2017-04-06 | Edward Knowlton | Synthetically fabricated and custom fitted dressware |
KR101808726B1 (ko) | 2016-09-28 | 2017-12-14 | (주)클로버추얼패션 | 3d 의상 착장 시뮬레이션 방법 및 장치 |
US9754410B2 (en) * | 2017-02-15 | 2017-09-05 | StyleMe Limited | System and method for three-dimensional garment mesh deformation and layering for garment fit visualization |
US11094136B2 (en) | 2017-04-28 | 2021-08-17 | Linden Research, Inc. | Virtual reality presentation of clothing fitted on avatars |
US11145138B2 (en) * | 2017-04-28 | 2021-10-12 | Linden Research, Inc. | Virtual reality presentation of layers of clothing on avatars |
US10373373B2 (en) | 2017-11-07 | 2019-08-06 | StyleMe Limited | Systems and methods for reducing the stimulation time of physics based garment simulations |
US10242498B1 (en) | 2017-11-07 | 2019-03-26 | StyleMe Limited | Physics based garment simulation systems and methods |
US10592960B2 (en) * | 2017-12-19 | 2020-03-17 | Futurewei Technologies, Inc. | Determining thermal insulation levels of clothing to wear at a destination |
KR102348137B1 (ko) * | 2018-03-30 | 2022-01-07 | (주)클로버추얼패션 | 아바타에 착장된 의상의 전이 패턴 생성 방법 |
KR102273317B1 (ko) * | 2019-08-19 | 2021-07-06 | (주)클로버추얼패션 | 의상 패턴들의 오토 그레이딩 방법 및 장치 |
KR102136620B1 (ko) | 2019-08-23 | 2020-07-23 | (주)클로버추얼패션 | 의상 패턴들을 표시하는 방법 및 장치 |
US11615601B2 (en) | 2021-03-15 | 2023-03-28 | Roblox Corporation | Layered clothing that conforms to an underlying body and/or clothing layer |
WO2022240082A1 (ko) * | 2021-05-12 | 2022-11-17 | (주)클로버추얼패션 | 의상 시뮬레이션 방법 및 장치 |
WO2023196757A2 (en) * | 2022-04-05 | 2023-10-12 | Khan Yasmina | Method for making customized articles of clothing and articles of clothing produced by the same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010100492A (ko) * | 2000-05-02 | 2001-11-14 | 최경규 | 3d 캐릭터에 의상을 갈아 입히는 방법과 이를 이용한사이버 패션 쇼 방법 |
KR20070010702A (ko) * | 2005-07-19 | 2007-01-24 | 에스케이네트웍스 주식회사 | 3차원 가상 캐릭터를 이용한 가상 피팅 서비스 제공 방법및 가상 피팅 서버 |
KR20070115821A (ko) * | 2007-10-24 | 2007-12-06 | 에스케이씨앤씨 주식회사 | 의류 착용 적합성 정보를 제공하는 의류 비즈니스 서비스방법 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2423121C2 (ru) * | 2005-02-28 | 2011-07-10 | Као Корпорейшн | Профилактическое антистрессовое средство |
KR20050065493A (ko) * | 2005-06-07 | 2005-06-29 | 이재성 | 이동식 다단계 쓰레기 분리함 |
GB2458388A (en) * | 2008-03-21 | 2009-09-23 | Dressbot Inc | A collaborative online shopping environment, virtual mall, store, etc. in which payments may be shared, products recommended and users modelled. |
US8090465B2 (en) * | 2010-03-04 | 2012-01-03 | Belinda Luna Zeng | Fashion design method, system and apparatus |
-
2010
- 2010-04-27 KR KR1020100038870A patent/KR101106104B1/ko active IP Right Grant
- 2010-04-28 WO PCT/KR2010/002689 patent/WO2011136408A1/ko active Application Filing
- 2010-04-28 US US13/695,143 patent/US20130057544A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010100492A (ko) * | 2000-05-02 | 2001-11-14 | 최경규 | 3d 캐릭터에 의상을 갈아 입히는 방법과 이를 이용한사이버 패션 쇼 방법 |
KR20070010702A (ko) * | 2005-07-19 | 2007-01-24 | 에스케이네트웍스 주식회사 | 3차원 가상 캐릭터를 이용한 가상 피팅 서비스 제공 방법및 가상 피팅 서버 |
KR20070115821A (ko) * | 2007-10-24 | 2007-12-06 | 에스케이씨앤씨 주식회사 | 의류 착용 적합성 정보를 제공하는 의류 비즈니스 서비스방법 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015023946A1 (en) * | 2013-08-16 | 2015-02-19 | Schlumberger Canada Limited | Pixel-based or voxel-based mesh editing |
GB2533495A (en) * | 2013-08-16 | 2016-06-22 | Schlumberger Holdings | Pixel-based or voxel-based mesh editing |
CN106933439A (zh) * | 2015-12-29 | 2017-07-07 | 腾讯科技(深圳)有限公司 | 一种基于社交平台的图片处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
KR101106104B1 (ko) | 2012-01-18 |
KR20110119260A (ko) | 2011-11-02 |
US20130057544A1 (en) | 2013-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011136408A1 (ko) | 3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체 | |
CN103116857B (zh) | 一种基于体感控制的虚拟样板房漫游系统 | |
WO2019156522A1 (ko) | 이미지/텍스트 기반 디자인 생성 장치 및 방법 | |
WO2021258971A1 (zh) | 虚拟换服饰的方法和装置、设备和介质 | |
KR20070120692A (ko) | 3차원 스캔 데이터로부터 인체치수와 의복호수 측정 시스템및 방법 | |
CN110189413A (zh) | 一种生成衣服变形模型的方法及系统 | |
JP6340313B2 (ja) | モデリングシステム、モデリングプログラム、及びモデリング方法 | |
Bang et al. | Estimating garment patterns from static scan data | |
Zhang et al. | Warpclothingout: A stepwise framework for clothes translation from the human body to tiled images | |
WO2022239937A1 (en) | Designing garment using style line | |
Liu | Computer 5G virtual reality environment 3D clothing design | |
Lin et al. | Cgpg-gan: An acne lesion inpainting model for boosting downstream diagnosis | |
CN112258389B (zh) | 虚拟换装方法及相关设备 | |
JP2001249957A (ja) | 衣服の型紙パターンの自動作成方法とその自動作成システム | |
WO2023160074A1 (zh) | 一种图像生成方法、装置、电子设备以及存储介质 | |
KR20140108450A (ko) | 아바타 의상 자동 착장 방법 | |
Wang et al. | TexFit: Text-Driven Fashion Image Editing with Diffusion Models | |
CN115147508A (zh) | 服饰生成模型的训练、生成服饰图像的方法和装置 | |
Pham et al. | Keypoints-based 2D virtual try-on network system | |
CN113032962A (zh) | 对服装纸样进行分析的服装结构虚拟仿真系统及方法 | |
Ning et al. | PICTURE: PhotorealistIC virtual Try-on from UnconstRained dEsigns | |
CN106097440A (zh) | 一种基于融合算法的3d植物建模引擎云服务平台 | |
CN112580652B (zh) | 虚拟装饰方法、装置、电子设备及存储介质 | |
Zhang et al. | Virtual performance and evaluation system of garment design based on kansei engineering | |
WO2024099034A1 (zh) | 虚拟场景的数据处理方法及装置、设备、介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10850776 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13695143 Country of ref document: US |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10850776 Country of ref document: EP Kind code of ref document: A1 |