KR102033161B1 - 아바타간 의상 전이 착장 방법 - Google Patents

아바타간 의상 전이 착장 방법 Download PDF

Info

Publication number
KR102033161B1
KR102033161B1 KR1020180037752A KR20180037752A KR102033161B1 KR 102033161 B1 KR102033161 B1 KR 102033161B1 KR 1020180037752 A KR1020180037752 A KR 1020180037752A KR 20180037752 A KR20180037752 A KR 20180037752A KR 102033161 B1 KR102033161 B1 KR 102033161B1
Authority
KR
South Korea
Prior art keywords
avatar
virtual reference
meshes
target
costume
Prior art date
Application number
KR1020180037752A
Other languages
English (en)
Other versions
KR20190114675A (ko
Inventor
전인용
Original Assignee
(주)클로버추얼패션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)클로버추얼패션 filed Critical (주)클로버추얼패션
Priority to KR1020180037752A priority Critical patent/KR102033161B1/ko
Priority to US16/368,892 priority patent/US10777022B2/en
Publication of KR20190114675A publication Critical patent/KR20190114675A/ko
Application granted granted Critical
Publication of KR102033161B1 publication Critical patent/KR102033161B1/ko
Priority to US16/991,995 priority patent/US10970939B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Abstract

컴퓨터 그래픽에 의해 가상 의상 객체를 아바타에 착장하는 기술이 개시된다. 쏘오스 아바타에 착장된 의상 객체를 전이하여, 타겟 아바타에 의상 객체를 착장하는 기술이 개시된다.
복수의 꼭지점(vertex)들이 서로 스프링으로 연결된 메쉬(mesh)로 모델링되며, 신체 표면에 밀착되도록 디자인된 가상 기준 의상이 준비된다. 가상 기준 의상(virtual reference garment)이 쏘오스 아바타에 착장된다. 동일한 가상 기준 의상은 타겟 아바타에도 착장된다. 쏘오스 아바타에 착장된 가상 기준 의상의 메쉬와, 타겟 아바타에 착장된 가상 기준 의상의 대응하는 메쉬의 위치 정보의 쌍들이 아바타간의 대응 맵(correspondence map)으로 산출된다.
추가적인 양상에 따르면, 쏘오스 아바타에 착장된 가상 기준 의상의 메쉬와, 타겟 아바타에 착장된 가상 기준 의상의 대응하는 메쉬간의 변형 변환(deformation transformation)이 산출되어 아바타간 변형 변환으로 저장된다.

Description

아바타간 의상 전이 착장 방법{method for transferring garment draping between avatars}
컴퓨터 그래픽 기술, 특히 컴퓨터 그래픽에 의해 의상을 아바타에 착장하는 기술이 개시된다.
Robert W. Sumner, Jovan Popovic, “Deformation Transfer for Triangle Meshes”, ACM Transactions on Graphics. 23, 3. August2004 에는 삼각형 메쉬로 모델링된 그래픽 객체간의 변형 전이(deformation transfer)에 대한 기본적인 개념을 개시하고 있다. 이 기술은 쏘오스 변형에 의해 발현되는 형태 상의 변화를 타겟에 전이하는 것을 목적으로 한다(The goal of deformation transfer is to transfer the change in shape exhibited by the source deformation onto the target). 여기서 쏘오스 객체의 각 메쉬의 변형의 정도는 의사변환 행렬(affine transformation matrix) 로 표현된다. 이 의사 변환 행렬은 삼각형 메쉬의 방향, 크기, 그리고 변형에 의해 초래된 비틀어짐의 변화량을 인코딩한다(encodes the change in orientation, scale, and skew induced by the deformation on the triangle). 이후에 쏘오스의 각 메쉬에 대응하는 타겟의 메쉬들을 정하여 대응 맵(correspondence map)이 산출된다. 이 대응 맵은 일반적으로 m : n 이다. 이후에 타겟의 각 메쉬에 대응되는 의사변환 행렬을 적용한다. 타겟의 각 메쉬에 대응되는 의사변환 행렬은 그 메쉬에 대응하는 쏘오스의 메쉬에 대해 산출된 것이다. 이후에, 인접한 메쉬간의 균일성(consistency)을 유지하기 위해, 타겟 메쉬들이 연결을 유지하면서 변형에 따른 에너지의 총합이 최소가 되도록 최적화되는 변위(displacement)가 각 타겟 메쉬에 대해 산출된다. 산출된 변위를 각 타겟 메쉬에 적용함으로써, 쏘오스의 변형이 타겟에 전이된 3D 모델이 구해진다.
여기서 대응 맵(correspondence map)은 사용자가 선택한 마커 점들(userselected marker points)의 도움을 받아 쏘오스 삼각형 메쉬에 가장 근접한 무게중심을 가진 삼각형 메쉬를 찾아서 결정한다. 이는 타겟 변형의 도출에 사람이 개입필요하다는 제한을 초래한다.
본 출원인에 의해 출원되어 2014.09.11.자 공개된 공개특허공보 제2014-0108451호는 의상 자동 전이 착장 방법을 개시하고 있다. 이 방법에 따르면, 의상을 아바타의 스킨처럼 만들고 의상의 각 점들로부터 아바타 표면 상에서 가장 가까운 위치를 계산함으로써 의상의 모든 점과 아바타 표면의 점 사이에 연결 관계를 형성한다. 이후에 특징점에 기초하여 아바타간 피팅을 통해 아바타의 크기와 포즈(pose)를 일치시킨다. 이후에 피팅된 아바타에 착장된 의상을 그대로 타겟 아바타로 옮긴 후 발생한 교차(collision)를 제거한다. 이러한 방법은 두 아바타의 형태(shape)가 많이 다른 경우에는 교차(collision)가 많이 발생하기 때문에 전이 착장이 어렵다. 또 두 아바타간 대응하는 특징점들을 매핑시키는 것을 자동화하는 것에 관해 설명하고 있지 않다.
제안된 발명은 쏘오스 아바타에 착장된 의상을 효과적으로 타겟 아바타에 착장시키는 방법을 제공하는 것을 목적으로 한다.
나아가 제안된 발명은 쏘오스 아바타와 타겟 아바타의 형태가 많이 다른 경우에도 쏘오스 아바타에 착장된 의상을 효과적으로 타겟 아바타에 착장시킬 수 있도록 하는 것을 또다른 목적으로 한다.
일 양상에 따르면, 복수의 꼭지점(vertex)들이 서로 스프링으로 연결된 메쉬(mesh)로 모델링되며, 신체 표면에 밀착되도록 디자인된 가상 기준 의상이 준비된다. 쏘오스 아바타(source avatar)에 착장(draping)된 가상 기준 의상과, 타겟 아바타(target avatar)에 착장된 가상 기준으로부터, 대응하는 메쉬의 위치 정보의 쌍들을 아바타간의 대응 맵(correspondence map)으로 산출한다.
추가적인 양상에 따르면, 쏘오스 아바타에 착장된 가상 기준 의상의 메쉬와, 타겟 아바타에 착장된 가상 기준 의상의 대응하는 메쉬간의 변형 변환(deformation transformation)이 산출되어 아바타간 변형 변환으로 저장된다.
가상 기준 의상을 이용하여, 형태가 완전히 다른 두 아바타 사이에서 대응 맵이 효율적으로 구해질 수 있다.
나아가 가상 기준 의상을 이용하여, 형태가 완전히 다른 두 아바타 사이에서 아바타 표면 간의 변형 변환이 효율적으로 구해질 수 있다.
나아가 가상 기준 의상을 이용하여, 표면이 메쉬로 모델링되지 않은 아바타에 대해서도 아바타 표면간의 변형 변환이 효율적으로 구해질 수 있다.
이를 통해 형태가 완전히 다른 두 아바타 간의 의상 전이 착장이 효율적으로 처리될 수 있다.
도 1은 제안된 발명의 일 실시예에 따른 아바타간 의상 전이 착장 방법의 구성을 도시한 흐름도이다.
도 2는 도 1의 대응 맵 산출 단계의 일 실시예에 따른 구성을 도시한 흐름도이다.
도 3은 도 1에서 의상 착장 전이 단계의 일 실시예의 구성을 도시한 흐름도이다.
도 4는 가상 기준 의상을 쏘오스 아바타 및 타겟 아바타에 착장한 모습을 도시한다.
도 5는 쏘오스 의상과 산출된 타겟 의상이 각 아바타에 착장된 모습을 예시한다.
전술한, 그리고 추가적인 양상들은 첨부된 도면을 참조하여 설명하는 실시예들을 통해 구체화된다. 각 실시예들의 구성 요소들은 다른 언급이나 상호간에 모순이 없는 한 실시예 내에서 다양한 조합이 가능한 것으로 이해된다.
제안된 발명은 컴퓨팅 장치에서 실행되는 그래픽 프로그램에 의해 구현된다. 컴퓨팅 장치는 마이크로프로세서와, 마이크로프로세서에 의해 실행되는 프로그램과 데이터가 저장되는 메모리를 포함한다. 본 명세서에서 '명령어 세트'는 컴퓨터 프로그램에서 하나의 프로그램 모듈에 포함된 명령어들이거나, 또는 컴퓨터 프로그램에서 연속된 명령어들이거나, 또는 컴퓨터 프로그램에서 몇 군데 불연속적으로 존재하나 하나의 통일된 기능을 수행하는 명령어들일 수 있다. 컴퓨터 프로그램으로 구현된 방법을 구성하는 단계들은 하나 혹은 복수의 명령어 세트로 구현될 수 있다.
도 1은 제안된 발명의 일 실시예에 따른 아바타간 의상 전이 착장 방법의 구성을 도시한 흐름도이다. 도시된 바와 같이, 일 실시예에 따른 아바타간 의상 전이 착장 방법은 대응 맵 산출 단계(S100)와, 아바타 변형 산출 단계(S200)와, 의상 착장 전이 단계(S300)를 포함한다.
일 양상에 따르면, 먼저 복수의 꼭지점(vertex)들이 서로 스프링으로 연결된 메쉬(mesh)로 모델링되며, 신체 표면에 밀착되도록 디자인된 가상 기준 의상이 준비된다. 일 실시예에서 메쉬는 삼각형이다. 일반적으로 가상 의상은 꼭지점(vertex)들이 서로 스프링으로 연결되고, 각각이 질량을 가지는 메쉬로 모델링되지만, 가상 기준 의상의 경우 다양한 형태를 가진 여러 아바타의 표면을 일반적으로 모델링하기 위한 것이므로, 질량을 가질 필요는 없다. 그러나 배제할 필요도 없다.
의상을 아바타에 착장하는 과정은 사용자가 2D 패턴을 아바타에 적절히 배치하고 재봉선에 재봉을 지시하면 시뮬레이션을 통해 2D 패턴이 3D 의상 객체로 변환된다. 제안된 발명의 일 실시예에 따르면, 사용자가 가상 기준 의상의 2D 패턴을 쏘오스 아바타(source avatar)에 적절히 배치하고 재봉선에 재봉을 지시하여 3D 의상 객체로 변환한 후, 생성된 결과물, 즉 쏘오스 아바타에 착장(draping)된 가상 기준 의상이 산출된다. 추가로, 사용자가 동일한 가상 기준 의상의 2D 패턴을 타겟 아바타(target avatar)에 적절히 배치하고 재봉선에 재봉을 지시하여 3D 의상 객체로 변환한 후, 생성된 결과물, 즉 타겟 아바타에 착장(draping)된 가상 기준 의상이 산출된다. 대응 맵 산출 단계(S100)는 이 두 가상 기준 의상, 즉 쏘오스 아바타(source avatar)에 착장(draping)된 가상 기준 의상과, 타겟 아바타(target avatar)에 착장된 가상 기준 의상으로부터 대응 맵(correspondence map)을 산출한다. 대응 맵은 쏘오스 아바타에 착장된 가상 기준 의상의 메쉬와, 타겟 아바타에 착장된 가상 기준 의상의 대응하는 메쉬의 위치 정보의 쌍들을 포함하여 구성된다(단계 S100). 이 대응 맵은 메모리에 저장된다. 일 예로, 메쉬의 위치 정보는 메쉬의 꼭지점의 위치 정보일 수 있다. 또다른 예로, 메쉬의 위치 정보는 메쉬의 무게 중심의 위치 정보일 수 있다. 이에 의해 아바타 표면이 메쉬로 모델링되지 않은 경우, 예를 들어 아바타가 폴리곤(polygon)에 의해 모델링된 경우에도 전이 착장이 용이하게 처리될 수 있다.
또다른 양상에 따르면, 가상 기준 의상의 착장 과정을 포함하는 대응 맵 산출 과정이 자동으로 수행된다. 도 2는 대응 맵 산출 단계의 또다른 실시예에 따른 구성을 도시한 흐름도이다. 도시된 바와 같이, 대응 맵 산출을 위해 먼저 가상 기준 의상(virtual reference garment)이 쏘오스 아바타에 착장된다(단계 S110). 사용자가 쏘오스 아바타를 선택하면, 제안된 발명에 따른 프로그램은 3D 객체 인식을 통해 쏘오스 아바타의 특징점, 예를 들면 머리, 어깨선, 팔, 다리를 인식하여 가상 기준 의상의 2D 패턴을 적절히 배치한다. 가상 기준 의상의 2D 패턴에는 재봉선 정보가 미리 입력되어 있으며, 배치된 2D 패턴들이 이 재봉선에 의해 연결된 후 착장된다. 가상 기준 의상이 착장되어 가상 기준 의상의 메쉬들이 쏘오스 아바타 표면에 밀착됨에 의해, 쏘오스 아바타 표면이 모델링된다.
동일한 가상 기준 의상은 타겟 아바타에도 착장된다(단계 S130). 두 아바타의 착장은 동시에 처리될 수도 있고, 순서에 무관하게 순차적으로 처리될 수도 있다. 사용자가 타겟 아바타를 선택하면, 제안된 발명에 따른 프로그램은 3D 객체 인식을 통해 타겟 아바타의 특징점, 예를 들면 머리, 어깨선, 팔, 다리를 인식하여 가상 기준 의상의 2D 패턴을 적절히 배치한다. 가상 기준 의상의 2D 패턴에는 재봉선 정보가 미리 입력되어 있으며, 배치된 2D 패턴들이 이 재봉선에 의해 연결된 후 착장된다. 가상 기준 의상이 착장되어 가상 기준 의상의 메쉬들이 타겟 아바타 표면에 밀착됨에 의해, 타겟 아바타 표면이 모델링된다(단계 S130).
이에 의해 아바타 표면이 메쉬로 모델링되지 않은 경우, 예를 들어 아바타가 폴리곤(polygon)에 의해 모델링된 경우에도 전이 착장이 용이하게 처리될 수 있다.
이후에 쏘오스 아바타에 착장된 가상 기준 의상의 메쉬와, 타겟 아바타에 착장된 가상 기준 의상의 대응하는 메쉬의 위치 정보의 쌍들이 아바타간의 대응 맵(correspondence map)으로 산출된다(단계 S150). 동일한 가상 기준 의상이 착장되었기 때문에, 대응하는 메쉬들이 직접적으로 식별될 수 있다.
일 예로, 메쉬의 위치 정보는 메쉬의 꼭지점의 위치 정보일 수 있다. 또다른 예로, 메쉬의 위치 정보는 메쉬의 무게 중심의 위치 정보일 수 있다.
도 4는 이 가상 기준 의상이 쏘오스 아바타 및 타겟 아바타에 착장된 모습을 도시한다. 동일한 가상 기준 의상이 착장되었으므로, 두 아바타에 있어서 볼륨이나 형태는 달라졌지만 메쉬의 연결 관계나 개수는 동일하다. 메쉬는 설명의 목적으로 도시된 것이며, 일반적으로 실제 시뮬레이션 결과에서는 보이지 않는다.
일반적으로 가상 의상의 메쉬의 싸이즈는 시뮬레이션될 때 움직임의 섬세함 정도에 따라 부위별로 달리 모델링되는 것이 계산을 줄이는 측면에서 유리하다. 그러나 여기서 메쉬는 단지 아바타 표면을 모델링하기 위한 것이므로, 메쉬의 싸이즈가 모두 동일하더라도 무방하다. 이 가상 기준 의상은 쏘오스 아바타(source avatar)와 타겟 아바타(target avatar) 표면에 밀착되어, 시각화하여 화면에 출력하면 마치 아바타가 내복을 입은 것처럼 보인다.
이 가상 기준 의상은 아바타의 표면을 모델링하기 위해 임시로 사용되며, 다양한 디자인의 의상이 착장될 수 있는 아바타 표면을 모두 커버한다. 즉, 치마, 반바지, 바지, 티셔츠, 원피스 등 모든 종류의 옷이 커버할 가능성이 있는 아바타 표면의 모든 영역을 커버해야 한다.
이러한 가상 기준 의상을 이용한 아바타간 대응 맵의 산출은 인체 뿐 아니라 동물에도 폭 넓게 적용할 수 있다. 대응 맵은 의상 객체의 전이 착장 뿐 아니라 배경 기술란에서 언급한 바와 같이 일반적으로 변형 전이(deformation transfer)에 적용될 수 있다.
다음으로, 아바타 변형(avatar deformation)이 산출된다(단계 S200). 아바타 변형(avatar deformation)은 쏘오스 아바타 표면의 메쉬와, 대응 맵에 따라 타겟 아바타 표면의 대응하는 메쉬간의 변형 변환(deformation transformation)으로 정의된다. 이 변형 변환은 흔히 의사 변환 행렬(affine transformation matrix)과 변위 행렬(displacement matrix)의 합으로 표현된다. 또다른 예에서, 무게중심 좌표계(barycentric coordinate)를 적절히 설정하고 변환함에 따라, 변형 변환은 의사 변환 행렬만으로 표시될 수 있다. 아바타의 표면이 메쉬로 모델링된 경우, 대응 맵을 이용하여 쏘오스 아바타와 타겟 아바타 표면의 메쉬들을 매핑시킬 수 있다.
또다른 양상에 따르면, 아바타 변형은 쏘오스 아바타에 착장된 가상 기준 의상의 메쉬와, 타겟 아바타에 착장된 가상 기준 의상의 대응하는 메쉬간의 변형 변환(deformation transformation)으로 구해질 수 있다. 여기서 아바타 표면에 밀착된 가상 기준 의상의 메쉬들이 아바타 자체의 표면을 모델링한 것으로 취급된다.
이후에, 쏘오스 아바타에 착장된 타겟 의상이 산출된 대응 맵과 아바타 변형을 이용하여 타겟 아바타에 착장된다(단계 S300). 쏘오스 아바타에 착장된 타겟 의상의 메쉬들을 상기 대응 맵에 따라 타겟 아바타의 대응하는 메쉬의 위치에 배치하고 상기 아바타 변형을 적용하여 타겟 아바타에 타겟 의상을 착장한다. 대응 맵이 주어지고, 변형 변환이 주어질 때 그래픽 객체간의 변형 전이(deformation transfer)에 관한 기술은 배경기술에 언급된 기술을 비롯하여 다양한 기술이 알려져 있다.
이후에, 타겟 아바타에 착장된 타겟 의상이 출력된다. 일 실시예에서 타겟 의상은 타겟 아바타에 착장된 상태로 디스플레이에 렌더링되어 출력된다. 또다른 예로, 타겟 의상은 단지 내부 메모리에 그래픽 객체 데이터로 저장된다.
도 5는 좌측에 쏘오스 의상이 쏘오스 아바타에 착장된 모습을, 우측에 산출된 타겟 의상이 타겟 아바타에 착장된 모습을 예시한다. 제안된 발명은 아바타의 형태가 크게 다르거나 팔 다리나 상반신, 하반신의 비율이 크게 다른 경우에도 적용될 수 있다.
도 3은 도 1에서 의상 착장 전이 단계의 일 실시예의 구성을 도시한 흐름도이다. 도시된 바와 같이, 일 실시예에 따른 의상 착장 전이 단계는 의사 변환 단계(S310)와, 추가 변형 산출 단계(S330)와, 추가 변형 단계(S350)를 포함한다. 먼저, 의사 변환(affine transformation) 단계에서 쏘오스 아바타에 착장된 타겟 의상의 메쉬들을 대응 맵에 따라 타겟 아바타의 대응하는 위치에 배치하고 각각의 메쉬에 아바타 변형을 적용한다(단계 S310). 의사 변환은 메쉬의 변형에 의해 야기된 방향(orientation), 크기(scale), 틀어짐(skew)의 변화분을 인코딩한다.
이후에 추가 변형 산출 단계에서 타겟 의상의 인접한 메쉬간의 연결성을 유지하면서 각 메쉬들의 추가적인 변형에 따른 에너지의 총합이 최소가 되도록 추가 변형 분포(additional deformation distribution)를 구한다(단계 S330). 에너지 총합은 예를 들면 의사 변환 단계(S310)에서 배치된 메쉬들의 모든 꼭지점들에 대해 연결성 제한(continuity constraints)을 유지하면서 변형된 타겟 메쉬와의 차분의 절대값의 제곱을 모든 메쉬들의 모든 꼭지점들에 대해 가산한 목적함수로 표현될 수 있다. 이러한 목적 함수는 예를 들어 L2 Norm이 될 수 있으나, 다양한 예로 구현 가능하다. 일 실시예에서 이 목적함수의 그래디언트(gradient)를 0으로 하는 타겟 메쉬의 추가 변형들이 모두 구해진다. 여기서 모든 타겟 메쉬들의 추가 변형값들이 추가 변형 분포로 저장된다(단계 S330). 이와 같은 최적화 과정은 전이 변형(deformation transfer)에 있어서 알려져 있으므로 자세한 설명은 생략한다. 이후에 구해진 추가 변형 분포에 따라 타겟 의상의 각 메쉬에 추가적인 변형을 적용한다(단계 S350).
이상에서 본 발명을 첨부된 도면을 참조하는 실시예들을 통해 설명하였지만 이에 한정되는 것은 아니며, 이들로부터 당업자라면 자명하게 도출할 수 있는 다양한 변형예들을 포괄하도록 해석되어야 한다. 특허청구범위는 이러한 변형예들을 포괄하도록 의도되었다.
S100 : 대응 맵 산출 단계 S110 : 소오스 아바타 표면 모델링 단계
S130 : 타겟 아바타 표면 모델링 단계 S150 : 맵 산출 단계
S200 : 아바타 변형 산출 단계 S300 : 의상 착장 전이 단계
S310 : 의사 변환 단계 S330 : 추가 변형 산출 단계
S350 : 추가 변형 단계 S400 : 의상 출력 단계

Claims (14)

  1. 의상 전이 착장 방법에 있어서,
    복수의 꼭지점(vertex)들이 서로 스프링으로 연결된 메쉬(mesh)로 모델링되며, 신체 표면에 밀착되도록 디자인된 가상 기준 의상을 준비하는 단계;
    원본 아바타(source avatar) 및 타겟 아바타(target avatar)에 상기 가상 기준 의상을 착장(draping)하는 단계;
    상기 원본 아바타에 착장된 가상 기준 의상의 메쉬들과 상기 타겟 아바타에 착장된 가상 기준 의상의 메쉬들 사이의 미리 정해진 대응 관계를 포함하는 대응 맵(correspondence map)을 획득하는 단계;
    상기 원본 아바타에 착장된 가상 기준 의상의 메쉬들과, 상기 대응 맵에 따라 상기 타겟 아바타에 착장된 가상 기준 의상의 대응하는 메쉬들간의 변형 변환(deformation transformation)을 포함하는 아바타 변형(avatar deformation)을 산출하는 단계; 및
    상기 원본 아바타에 착장된 의상의 메쉬들에 상기 아바타 변형을 적용하여 상기 타겟 아바타에 상기 의상을 전이 착장시키는 단계
    를 포함하는 아바타간 의상 전이 착장 방법.
  2. 삭제
  3. 삭제
  4. 청구항 1에 있어서,
    상기 의상을 전이 착장시키는 단계는:
    상기 원본 아바타에 착장된 상기 의상의 메쉬들을 상기 대응 맵에 따라 상기 타겟 아바타의 대응하는 위치에 배치하고 각각의 메쉬에 상기 아바타 변형을 적용하는 의사 변환(affine transformation) 단계
    를 포함하는 아바타간 의상 전이 착장 방법.
  5. 청구항 1에 있어서,
    상기 아바타 변형은 상기 원본 아바타에 착장된 가상 기준 의상의 메쉬들의 무게중심 좌표계로부터 상기 타겟 아바타에 착장된 가상 기준 의상의 대응하는 메쉬들의 무게중심 좌표계로 대응시키는 변환 정보를 포함하는 아바타간 의상 전이 착장 방법.
  6. 삭제
  7. 삭제
  8. 마이크로프로세서와, 마이크로프로세서에 의해 실행되는 프로그램과 데이터가 저장되는 메모리를 포함하는 컴퓨팅 장치로 구현되는 아바타간 의상 전이 착장 장치에 있어서, 상기 프로그램이:
    복수의 꼭지점(vertex)들이 서로 스프링으로 연결된 메쉬(mesh)로 모델링되며 신체 표면에 밀착되도록 디자인된 가상 기준 의상을 준비하고, 원본 아바타(source avatar) 및 타겟 아바타(target avatar)에 상기 가상 기준 의상을 착장(draping)하며, 상기 원본 아바타에 착장된 가상 기준 의상의 메쉬들과 상기 타겟 아바타에 착장된 가상 기준 의상의 메쉬들 사이의 미리 정해진 대응 관계를 포함하는 대응 맵(correspondence map)을 획득하는 대응 맵 획득 명령어 세트;
    상기 원본 아바타에 착장된 가상 기준 의상의 메쉬들과, 상기 대응 맵에 따라 상기 타겟 아바타에 착장된 가상 기준 의상의 대응하는 메쉬들간의 변형 변환(deformation transformation)을 포함하는 아바타 변형(avatar deformation)을 산출하는 아바타 변형 산출 명령어 세트; 및
    상기 원본 아바타에 착장된 의상의 메쉬들을 상기 아바타 변형을 적용하여 상기 타겟 아바타에 상기 의상을 전이 착장시키는 의상 착장 전이 명령어 세트;
    를 포함하는 아바타간 의상 전이 착장 장치.
  9. 삭제
  10. 삭제
  11. 청구항 8에 있어서, 의상 착장 전이 명령어 세트는:
    상기 원본 아바타에 착장된 상기 의상의 메쉬들을 상기 대응 맵에 따라 상기 타겟 아바타의 대응하는 위치에 배치하고 각각의 메쉬에 상기 아바타 변형을 적용하는 의사 변환(affine transformation) 명령어 세트
    를 포함하는 아바타간 의상 전이 착장 장치.
  12. 청구항 8에 있어서,
    상기 아바타 변형은 상기 원본 아바타에 착장된 가상 기준 의상의 메쉬들의 무게중심 좌표계로부터 상기 타겟 아바타에 착장된 가상 기준 의상의 대응하는 메쉬들의 무게중심 좌표계로 대응시키는 변환 정보를 포함하는 아바타간 의상 전이 착장 장치.
  13. 삭제
  14. 삭제
KR1020180037752A 2018-03-30 2018-03-30 아바타간 의상 전이 착장 방법 KR102033161B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180037752A KR102033161B1 (ko) 2018-03-30 2018-03-30 아바타간 의상 전이 착장 방법
US16/368,892 US10777022B2 (en) 2018-03-30 2019-03-29 Apparatus and method for transferring garment draping between avatars
US16/991,995 US10970939B2 (en) 2018-03-30 2020-08-12 Apparatus and method for transferring garment draping between avatars

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180037752A KR102033161B1 (ko) 2018-03-30 2018-03-30 아바타간 의상 전이 착장 방법

Publications (2)

Publication Number Publication Date
KR20190114675A KR20190114675A (ko) 2019-10-10
KR102033161B1 true KR102033161B1 (ko) 2019-10-16

Family

ID=68053790

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180037752A KR102033161B1 (ko) 2018-03-30 2018-03-30 아바타간 의상 전이 착장 방법

Country Status (2)

Country Link
US (2) US10777022B2 (ko)
KR (1) KR102033161B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021107202A1 (ko) * 2019-11-28 2021-06-03 주식회사 지이모션 의상의 3차원 모델링 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10984581B2 (en) * 2019-07-17 2021-04-20 Pixar UV transfer
CN112070854B (zh) * 2020-09-02 2023-08-08 北京字节跳动网络技术有限公司 一种图像生成方法、装置、设备及存储介质
CN115623873A (zh) * 2021-05-12 2023-01-17 柯镂虚拟时尚股份有限公司 模拟服装的方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100860375B1 (ko) * 2006-12-05 2008-09-25 한국전자통신연구원 캐릭터 애니메이션과 메쉬 변형을 이용한 카툰 애니메이션제작 방법 및 시스템
KR100947439B1 (ko) * 2008-06-12 2010-03-12 주식회사 넥슨 체형 변화에 따라 아이템을 실시간으로 모핑하는 시스템 및방법
KR20140108451A (ko) * 2013-02-28 2014-09-11 (주)클로버추얼패션 아바타 3차원 의상 자동 전이 착장 방법
US9754410B2 (en) * 2017-02-15 2017-09-05 StyleMe Limited System and method for three-dimensional garment mesh deformation and layering for garment fit visualization

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Sumner and Popovic. Deformation transfer for triangle meshes. ACM Transactions on graphics, 2004년, pp. 399-405. 1부.*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021107202A1 (ko) * 2019-11-28 2021-06-03 주식회사 지이모션 의상의 3차원 모델링 방법
US11321935B2 (en) 2019-11-28 2022-05-03 Z-Emotion Co., Ltd. Three-dimensional (3D) modeling method of clothing

Also Published As

Publication number Publication date
US10777022B2 (en) 2020-09-15
US20190304200A1 (en) 2019-10-03
KR20190114675A (ko) 2019-10-10
US20200372724A1 (en) 2020-11-26
US10970939B2 (en) 2021-04-06

Similar Documents

Publication Publication Date Title
KR102033161B1 (ko) 아바타간 의상 전이 착장 방법
US10529127B2 (en) System and method for simulating realistic clothing
US10922898B2 (en) Resolving virtual apparel simulation errors
KR102348137B1 (ko) 아바타에 착장된 의상의 전이 패턴 생성 방법
KR101778833B1 (ko) 3d 의류 모델 복원 방법 및 장치
Li et al. Modeling 3D garments by examples
US11308707B2 (en) Automated grading of clothing patterns of garment
US20200027155A1 (en) Systems and Methods for Visualizing Garment Fit
US11151786B2 (en) Grading garment that includes supplemental material
US11734887B2 (en) Generating clothing patterns of garment using bounding volumes of body parts
KR102332069B1 (ko) 부자재 요소를 포함하는 의상의 그레이딩 방법 및 장치
Lee et al. Heuristic misfit reduction: a programmable approach for 3D garment fit customization
JP5161229B2 (ja) 着装シミュレーション装置とシミュレーション方法、シミュレーションプログラム
KR102273317B1 (ko) 의상 패턴들의 오토 그레이딩 방법 및 장치
Wan et al. Shape deformation using skeleton correspondences for realistic posed fashion flat creation
US20230306699A1 (en) Virtual garment wrapping for draping simulation
Li et al. 3D fashion fast modeling from photographs

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant