KR102136620B1 - 의상 패턴들을 표시하는 방법 및 장치 - Google Patents

의상 패턴들을 표시하는 방법 및 장치 Download PDF

Info

Publication number
KR102136620B1
KR102136620B1 KR1020190103928A KR20190103928A KR102136620B1 KR 102136620 B1 KR102136620 B1 KR 102136620B1 KR 1020190103928 A KR1020190103928 A KR 1020190103928A KR 20190103928 A KR20190103928 A KR 20190103928A KR 102136620 B1 KR102136620 B1 KR 102136620B1
Authority
KR
South Korea
Prior art keywords
avatar
feature points
placement plate
dimensional
patterns
Prior art date
Application number
KR1020190103928A
Other languages
English (en)
Inventor
주은정
Original Assignee
(주)클로버추얼패션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)클로버추얼패션 filed Critical (주)클로버추얼패션
Priority to KR1020190103928A priority Critical patent/KR102136620B1/ko
Application granted granted Critical
Publication of KR102136620B1 publication Critical patent/KR102136620B1/ko
Priority to US16/999,604 priority patent/US11094115B2/en
Priority to US17/380,984 priority patent/US11734887B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06K9/00362
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Abstract

일 실시예에 따른 의상 패턴들을 표시하는 방법 및 장치는 3 차원 아바타의 데이터로부터 추출한 특징점들의 위치에 기초하여 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성을 결정하고, 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들을 배치하여 의상 패턴들의 초기 위치를 결정하며, 초기 위치에 따라 의상 패턴들을 3차원 아바타에 착장시킨다.

Description

의상 패턴들을 표시하는 방법 및 장치{METHODE AND APPARATUS OF DISPLAYING CLOTHES PATTERNS}
실시예들은 의상 패턴들을 표시하는 방법 및 장치에 관한 것이다.
의상(clothes)은 사람이 착용한 경우에 3차원으로 보이지만, 실제로는 2차원의 패턴(pattern)에 따라 재단된 천(fabric) 조각의 조합에 해당하므로 2차원에 가깝다. 의상의 재료가 되는 천은 유연(flexible)하기 때문에 착용한 사람의 신체 모양이나 움직임에 따라 그 모습이 시시각각 달라질 수 있다. 예를 들어, 중력, 바람, 또는 신체와의 충돌에 의해서 착용한 의상이 흘러내리거나, 주름이 지고 접힐 수 있다. 이때, 의상이 흘러내리거나 주름지는 양상은 천의 물성에 따라 달라질 수 있다. 천과 같이 유연한 재료로 제작되는 의상을 3차원으로 실제에 가깝게 시뮬레이션하기 위해서는 단단한(rigid) 재료로 제작된 객체를 모델링하는 것과는 다른 접근 방법이 요구된다.
일 실시예에 따르면, 3차원 아바타의 치수 및 형상에 맞는 배치판을 형성하기 위해 수작업으로 배치판의 위치 등을 설정하지 않고도 3차원 아바타의 형상을 분석하여 배치판 및 배치 포인트들을 자동으로 생성할 수 있다.
일 실시예에 따르면, 3차원 아바타의 형상을 2차원 형상으로 단순화하여 특징점들을 추출함으로써 프로세서의 부하를 줄이는 동시에 처리 속도 또한 향상시킬 수 있다.
일 실시예에 따르면, 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들이 자동 배치되어 의상 패턴들의 위치가 결정됨으로써 수작업에 의한 배치 과정이 없이도 빠르고 정확하게 신체 부위에 의상 패턴들을 배치할 수 있다.
일 실시예에 따르면, 의상 패턴들을 표시하는 방법은 3 차원 아바타의 데이터로부터 특징점들을 추출하는 단계; 상기 특징점들의 위치에 기초하여 상기 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판(bounding volumes)의 속성을 결정하는 단계; 상기 신체 부위별 배치판의 속성에 따라 상기 배치판 위에 배치 포인트들(arrangement points)을 배치하는 단계; 및 상기 배치 포인트들에 기초하여 의상 패턴들의 초기 위치를 결정하는 단계를 포함한다.
상기 신체 부위별 배치판의 속성을 결정하는 단계는 상기 3차원 아바타의 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 및 양 발목 중 적어도 한 위치에 상기 신체 부위별 배치판을 형성하는 단계; 및 상기 특징점들의 위치에 기초하여 상기 신체 부위별 배치판의 속성을 결정하는 단계를 포함할 수 있다.
상기 신체 부위별 배치판은 상기 3차원 아바타의 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 및 양 발목 각각에 대응할 수 있다.
상기 신체 부위별 배치판은 상기 신체 부위를 감싸는 입체 기둥으로 구성되고, 상기 신체 부위별 배치판의 속성은 상기 입체 기둥의 단면 형상, 상기 입체 기둥의 길이, 상기 입체 기둥의 위치 및 상기 입체 기둥의 자세(orientation) 중 적어도 하나를 포함할 수 있다.
상기 특징점들을 추출하는 단계는 상기 3차원 아바타의 데이터를 호출하는 단계; 상기 3차원 아바타의 데이터에 기초하여 상기 3차원 아바타의 2차원 형상을 생성하는 단계; 및 상기 2차원 형상으로부터 상기 특징점들을 추출하는 단계를 포함할 수 있다.
상기 3차원 아바타의 2차원 형상을 생성하는 단계는 상기 3차원 아바타를 특정 방향으로 정렬하는 단계; 상기 특정 방향으로 정렬된 3차원 아바타의 2차원 상의 점의 분포를 분석하는 단계; 및 상기 분석 결과에 기초하여, 상기 3차원 아바타의 특정 방향의2차원 형상을 생성하는 단계를 포함할 수 있다.
상기 특정 방향은 정면, 측면, 및 상면(top view) 중 적어도 하나를 포함할 수 있다.
상기 2차원 형상으로부터 상기 특징점들을 추출하는 단계는 상기 3 차원 아바타의 정면 방향의 2차원 형상으로부터 상기 3 차원 아바타의 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 양 발목, 겨드랑이, 사타구니, 양 손가락 끝, 양 손가락 사이, 양 손등, 양 팔꿈치, 양 무릎, 양 발등, 양 발가락 끝, 및 양 발 뒤꿈치 중 적어도 하나에 대응하는 특징점들을 추출하는 단계; 상기 3차원 아바타의 측면 방향의 2차원 형상으로부터 상기 3차원 아바타의 머리, 목, 엉덩이, 배, 가슴, 양 손의 손가락 끝, 양 손의 손가락 사이, 양 발 뒤꿈치, 양 발가락 끝 중 적어도 하나에 대응하는 특징점들을 추출하는 단계; 및 상기 측면 방향의 2차원 형상을 정면으로 회전시켜 상기 엉덩이와 배에 대응하는 특징점들을 연결한 평면에서 양 옆으로 가장 돌출한 지점으로부터 상기 3차원 아바타의 골반에 대응하는 특징점들을 추출하는 단계 중 적어도 하나를 포함할 수 있다.
상기 3 차원 아바타의 데이터로부터 특징점들을 추출하는 단계는 상기 3 차원 아바타의 데이터의 변형을 감지하는 단계; 및 상기 3 차원 아바타의 데이터의 변형에 반응하여, 상기 변형된 3 차원 아바타의 데이터로부터 상기 특징점들을 재 추출하는 단계를 포함할 수 있다.
상기 특징점들은 상기 3 차원 아바타의 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 양 발목, 겨드랑이, 사타구니, 골반, 엉덩이, 배, 가슴, 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 손가락 끝, 양 손가락 사이, 양 손등, 양 발등, 양 발가락 끝, 및 양 발 뒤꿈치 중 적어도 하나에 대응할 수 있다.
상기 3차원 아바타는 미리 설정된 신체 치수에 기초하여 제작된 3차원 아바타, 상기 설정된 신체 치수를 변경한 치수에 기초하여 제작된 3차원 아바타, 사용자에 의해 자체 제작된 3차원 아바타, 상기 사용자의 신체를 3차원 스캔한 데이터에 기초하여 제작된 3차원 아바타, 및 복수의 이미지들을 다각도에서 촬영한 복수의 2차원 이미지 데이터들에 기초하여 제작된 3차원 아바타 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 의상 패턴들을 표시하는 방법은 3 차원 아바타의 데이터로부터 추출한 특징점들의 위치에 기초하여 상기 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성을 결정하는 단계; 상기 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들을 배치하여 의상 패턴들의 초기 위치를 결정하는 단계; 및 상기 초기 위치에 따라 상기 의상 패턴들을 상기 3차원 아바타에 착장시키는 단계를 포함한다.
상기 신체 부위별 배치판의 속성을 결정하는 단계는 상기 3 차원 아바타의 데이터로부터 특징점들을 추출하는 단계; 상기 3차원 아바타의 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 및 양 발목 중 적어도 한 위치에 상기 신체 부위별 배치판을 형성하는 단계; 및 상기 특징점들의 위치에 기초하여 상기 신체 부위별 배치판의 속성을 결정하는 단계를 포함할 수 있다.
상기 특징점들을 추출하는 단계는 상기 3차원 아바타의 데이터를 호출하는 단계; 상기 3차원 아바타의 데이터에 기초하여 상기 3차원 아바타의 2차원 형상을 생성하는 단계; 및 상기 2차원 형상으로부터 상기 특징점들을 추출하는 단계를 포함할 수 있다.
상기 3차원 아바타의 2차원 형상을 생성하는 단계는 상기 3차원 아바타를 특정 방향으로 정렬하는 단계; 상기 특정 방향으로 정렬된 3차원 아바타의 2차원 상의 점의 분포를 분석하는 단계; 및 상기 분석 결과에 기초하여, 상기 3차원 아바타의 특정 방향의2차원 형상을 생성하는 단계를 포함할 수 있다.
상기 3 차원 아바타의 데이터로부터 특징점들을 추출하는 단계는 상기 3 차원 아바타의 데이터의 변형을 감지하는 단계; 및 상기 3 차원 아바타의 데이터의 변형에 반응하여, 상기 변형된 3차원 아바타의 데이터로부터 상기 특징점들을 재 추출하는 단계를 포함할 수 있다.
상기 신체 부위별 배치판은 상기 신체 부위를 감싸는 입체 기둥으로 구성되고, 상기 신체 부위별 배치판의 속성은 상기 입체 기둥의 단면 형상, 상기 입체 기둥의 길이, 상기 입체 기둥의 위치 및 상기 입체 기둥의 자세 중 적어도 하나를 포함할 수 있다.
상기 의상 패턴들은 상기 배치판 및 상기 배치 포인트들에 대응하는 정보를 포함할 수 있다.
일 실시예에 따르면, 의상 패턴들을 표시하는 장치는 3 차원 아바타의 데이터로부터 추출한 특징점들의 위치를 수신하는 사용자 인터페이스; 및 상기 특징점들의 위치에 기초하여 상기 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성을 결정하고, 상기 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들을 배치하여 의상 패턴들의 초기 위치를 결정하며, 상기 초기 위치에 따라 상기 의상 패턴들을 상기 3차원 아바타에 착장시키는 프로세서를 포함한다.
상기 의상 패턴들을 표시하는 장치는 상기 3차원 아바타에 착장된 의상 패턴들을 출력하는 출력 장치를 더 포함할 수 있다.
일 측에 따르면, 3차원 아바타의 치수 및 형상에 맞는 배치판을 형성하기 위해 수작업으로 배치판의 위치 등을 설정하지 않고도 3차원 아바타의 형상을 분석하여 배치판 및 배치 포인트들을 자동으로 생성할 수 있다.
일 측에 따르면, 3차원 아바타의 형상을 2차원 형상으로 단순화하여 특징점들을 추출함으로써 프로세서의 부하를 줄이는 동시에 처리 속도 또한 향상시킬 수 있다.
일 측에 따르면, 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들이 자동 배치되어 의상 패턴들의 위치가 결정됨으로써 수작업에 의한 배치 과정이 없이도 빠르고 정확하게 신체 부위에 의상 패턴들을 배치할 수 있다.
도 1은 일 실시예에 따른 의상 패턴들을 표시하는 방법을 나타낸 흐름도.
도 2는 일 실시예에 따라 특징점들의 위치에 기초하여 신체 부위별 배치판의 속성을 결정하는 방법을 설명하기 위한 도면.
도 3은 일 실시예에 따른 3차원 아바타 및 3차원 아바타의 신체 부위 별로 대응하는 의상 패턴들을 도시한 화면.
도 4는 일 실시예에 따른 신체 부위별 배치판들을 도시한 도면.
도 5는 일 실시예에 따른 배치 포인트들에 기초하여 의상 패턴들의 초기 위치를 결정하는 방법을 설명하기 위한 도면.
도 6은 다른 실시예에 따른 의상 패턴들을 표시하는 방법을 나타낸 흐름도.
도 7은 일 실시예에 따른 초기 위치에 따라 의상 패턴들을 3차원 아바타에 착장시키는 방법을 설명하기 위한 도면.
도 8은 일 실시예에 따른 서로 다른 체형의 3차원 아바타들에 대응하여 생성된 배치판들을 도시한 도면.
도 9는 일 실시예에 따른 의상 패턴들을 표시하는 장치의 블록도.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에 따른 의상 패턴들을 표시하는 방법을 나타낸 흐름도이다. 도 1을 참조하면, 일 실시예에 따른 의상 패턴들을 표시하는 장치(이하, '표시 장치')는 3 차원 아바타의 데이터로부터 특징점들을 추출한다(110). 3 차원 아바타의 일 예시는 아래의 도 3의 315를 참조할 수 있다. 3차원 아바타의 데이터는 예를 들어, 3차원 아바타의 신체 치수, 및 각 신체 부분의 위치 좌표 등을 포함할 수 있다. '특징점들'은 가상 의상을 3차원 아바타에 착장시킬 때 주요 위치가 되는 3차원 아바타 상의 지점들에 해당할 수 있다. 특징점들은 예를 들어, 3 차원 아바타의 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 양 발목, 겨드랑이, 사타구니, 골반, 엉덩이, 배, 가슴, 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 손가락 끝, 양 손가락 사이, 양 손등, 양 발등, 양 발가락 끝, 및 양 발 뒤꿈치 중 적어도 하나에 대응할 수 있다. 일반적으로 '착장(draping)'은 바디(body)에 직접 천을 대면서 디자인을 창작하거나, 예정된 디자인의 다트나 이음을 재단하면서 입체적으로 의상을 완성하는 기법을 의미한다. 본 명세서에서 '착장'은 컴퓨터 프로그램에 의해 패턴 정보 또는 의상 패턴들을 결합하여 3D 의상 객체를 3차원 아바타에 입히는 과정으로 이해될 수 있다.
표시 장치는 특징점들의 위치에 기초하여 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판(bounding volumes)의 속성을 결정한다(120). 3차원 아바타의 체형은 키 및/또는 몸무게에 따라 체격에 나타나는 특징으로 분류될 수 있으며, 예를 들어, 마른 체형, 표준 체형, 상체 비만 체형, 하체 비만 체형, 상,하체 비만 체형, 마른 비만 체형 등을 포함할 수 있다. 3차원 아바타의 체형은 예를 들어, 의상 패턴들에 의해 제작되는 의상을 착용할 대상자의 신체 치수 또는 인종별, 나이별 및/또는 성별에 따른 평균인의 신체 치수에 기초하여 결정될 수 있다.
신체 부위별 배치판은 예를 들어, 아래의 도 4의 화면에 도시된 것과 같이 3차원 아바타의 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리(얼굴), 목, 양 다리, 좌우 하반신, 및 양 발목 각각에 대응할 수 있다. 일 실시예에 따르면, 양 팔, 양 다리를 위한 배치판의 경우 양 팔꿈치와 양 무릎을 기준으로 분할될 수도 있다.
신체 부위별 배치판은 예를 들어, 해당 신체 부위를 감싸는 입체 기둥의 형태로 구성될 수 있다. 입체 기둥은 예를 들어, 원기둥, 타원 기둥, 다각 기둥 등을 포함할 수 있다. 신체 부위별 배치판은 입체 기둥 이외에도 다양한 형태로 구성될 수 있으며, 반드시 이에 한정되지 않는다.
신체 부위별 배치판의 속성은 예를 들어, 입체 기둥의 단면 형상, 입체 기둥의 길이, 입체 기둥의 위치 및 자세(orientation) 등을 포함할 수 있다. 입체 기둥의 단면 형상은 입체 기둥의 폭(width)에 관한 속성으로, 단면의 유형(예를 들어, 타원, 원, 다각형 등)에 따라 다르게 설정될 수 있다. 예를 들어, 단면의 유형이 타원인 경우, 단면 형상은 타원의 긴 반지름, 및 타원의 짧은 반지름을 포함할 수 있다. 또한, 입체 기둥의 위치는 예를 들어, x, y, z 좌표로 표현되는 정보에 해당할 수 있다. 입체 기둥의 자세는 예를 들어, 피치(pitch), 요우(yaw), 롤(roll)의 3축 회전 각도로 표현되는 정보에 해당할 수 있다.
단계(120)에서 표시 장치는 예를 들어, 3차원 아바타의 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 및 양 발목 중 중 적어도 한 위치에 신체 부위별 배치판을 형성할 수 있다. 표시 장치는 특징점들의 위치에 기초하여 신체 부위별 배치판의 속성을 결정할 수 있다. 표시 장치가 특징점들을 추출하고, 특징점들의 위치에 기초하여 신체 부위별 배치판의 속성을 결정하는 방법은 아래의 도 2를 참조하여 구체적으로 설명한다.
표시 장치는 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들(arrangement points)을 배치한다(130). 표시 장치는 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들을 생성하여 배치할 수 있다. 할 수 있다.
표시 장치는 배치 포인트들에 기초하여 의상 패턴들의 초기 위치를 결정한다(140). 일반적으로 '의상 패턴'은 의상을 구성할 때 소재를 재단하기 위한 종이 옷본에 해당하며, 본 명세서에서 '의상 패턴들'은 컴퓨터 프로그램에 의해 가상으로 제작되는 2차원의 평면의 패턴에 해당할 수 있다. 의상 패턴들은 예를 들어, 사용자가 3차원 아바타에 착장시키고자 하는 의상의 제작에 이용되는 의상 패턴들일 수 있다. 일 실시예에 따른 의상 패턴들의 일 예시는 아래의 도 3의 화면(330)을 참조할 수 있다.
일 실시예에 따른 의상 패턴들은 3차원 가상 의상(virtual clothes)의 시뮬레이션을 위하여 수많은 삼각형 메쉬(mesh)들의 합으로 모델링되는 가상의 2차원 의상 패턴들일 수 있다. 메쉬의 세 꼭지점은 질량을 가지고 있는 점(point mass)이며, 메쉬의 각 변은 그 질량을 연결하는 탄성을 가지고 있는 스프링들로 표현될 수 있다. 이에 따라, 의상 패턴들은 예를 들어, 질량-스프링 모델(Mass-Spring Model)에 의해 모델링될 수 있다. 여기서, 스프링들은 사용되는 천(fabric)의 물성에 따라 예를 들어, 신축(stretch), 비틀림(shear), 및 굽힘(bending)에 대한 각 저항값(resist)을 가질 수 있다. 각 꼭지점들은 중력 등과 같은 외부적인 힘(external force)과 신축, 비틀림, 및 굽힘의 내부적인 힘(internal force)의 작용에 따라 움직일 수 있다. 외부적인 힘과 내부적인 힘을 계산하여 각 꼭지점에 가해지는 힘을 구하면, 각 꼭지점의 변위 및 움직임의 속도를 구할 수 있다. 그리고 각 시점(time step)의 메쉬의 꼭지점들의 움직임을 통하여 가상 의상의 움직임을 시뮬레이션할 수 있다. 삼각형 메쉬로 이루어진 2차원의 가상 의상 패턴들을 3차원의 아바타에 착장(draping)시키면 물리 법칙에 기반한 자연스러운 모습의3차원 가상 의상을 구현할 수 있다. 표시 장치가 의상 패턴들의 초기 위치를 결정하는 방법은 아래의 도 5를 참조하여 구체적으로 설명한다.
일 실시예에 따른 표시 장치는 전술한 단계(110) 내지 단계(140)의 각 과정에서 처리된 결과를 디스플레이 등의 화면을 통해 사용자에게 보여줄 수 있다.
도 2는 일 실시예에 따라 특징점들의 위치에 기초하여 신체 부위별 배치판의 속성을 결정하는 방법을 설명하기 위한 도면이다. 도 2를 참조하면, 3차원 아바타의 2차원 형상(211, 231) 및 특징점들(215, 235)이 도시된 도면들(210, 230)이 도시된다.
일 실시예에 따른 표시 장치는 3차원 아바타의 데이터를 호출하고, 3차원 아바타의 데이터에 기초하여 도면(210) 및 도면(230)에 도시된 것과 같은3차원 아바타의 2차원 형상(211, 231)을 생성할 수 있다.
표시 장치는 3차원 아바타를 특정 방향으로 정렬할 수 있다. 특정 방향은 예를 들어, 정면, 측면, 및 상면(top view) 중 적어도 하나 및/또는 이들의 조합일 수 있다. 표시 장치는 예를 들어, 정면 방향 및 측면 방향과 같은 특정 방향으로 정렬된 3차원 아바타의 2차원 상의 점을 분포를 분석하고, 분석 결과에 기초하여 3차원 아바타의 특정 방향의 2차원 형상을 생성할 수 있다.
표시 장치는 예를 들어, 미리 정해진 해상도(이하, 투사 해상도)로 3차원 아바타를 2차원 평면에 투사함으로써 3차원 아바타의 특정 방향에 해당하는 2차원 형상을 생성할 수 있다. 2차원 형상은 투사 해상도로 분포된 복수의 점들을 포함할 수 있고, 복수의 점들을 통하여 2차원 형상이 표현될 수 있다. 일 실시예에 따르면, 투사 해상도는 3차원 아바타의 매쉬 그리드 상의 점들에 대응하는 해상도보다 낮을 수 있고, 이로 인하여 특징점을 추출하기 위한 프로세스가 간소화될 수 있다.
표시 장치는 예를 들어, 도면(210)과 같은 정면 방향의 2차원 형상(211)을 생성하고, 도면(230)과 같은 측면 방향의 2차원 형상(231)을 생성할 수 있다.
표시 장치는 도면(210) 및 도면(230)에 도시된 2차원 형상들(211, 231)로부터 특징점들(215,235)을 추출할 수 있다. 특징점들(215,235)의 위치는 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성을 결정하는 데에 기초가 될 수 있다.
표시 장치는 예를 들어, 정면 방향의 2차원 형상(211)으로부터 3 차원 아바타의 3 차원 아바타의 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 양 발목, 겨드랑이, 사타구니, 양 손의 손가락 끝, 양 손의 손가락 사이(의 골), 양 손등, 양 팔꿈치, 양 무릎, 양 발등, 양 발가락 끝, 및 양 발 뒤꿈치 중 적어도 하나에 대응하는 특징점들(215)을 추출할 수 있다.
표시 장치는 겨드랑이에 대응하는 특징점들을 예를 들어, 3 차원 아바타의 팔과 몸통 사이의 꺾임이 있는 지점으로부터 추출할 수 있다. 표시 장치는 어깨에 대응하는 특징점들을 예를 들어, 3 차원 아바타의 겨드랑이로부터 머리 방향으로 일정 거리 떨어진 지점으로부터 추출할 수 있다. 표시 장치는 손목에 대응하는 특징점들을 예를 들어, 3 차원 아바타의 겨드랑이와 어깨의 중간 지점으로부터 직선으로 연결되는 지점이면서 두께가 얇은 지점으로부터 추출할 수 있다. 표시 장치는 사타구니에 대응하는 특징점들을 예를 들어, 3 차원 아바타의 다리와 다리 사이의 꺾임이 있는 지점으로부터 추출할 수 있다. 표시 장치는 발목에 대응하는 특징점들을 예를 들어, 3 차원 아바타의 사타구니로부터 일정 거리 떨어진 지점으로부터 직선으로 연결되는 지점이면서 두께가 얇은 지점으로부터 추출할 수 있다.
표시 장치는 양 팔꿈치에 대응하는 특징점들을 예를 들어, 양 팔의 길이에서 일정 비율에 위치하는 점으로부터 추출할 수 있다. 또한, 표시 장치는 양 무릎에 대응하는 특징점들을 예를 들어, 양 다리 길이에서 일정 비율에 위치하는 점으로부터 추출할 수 있다.
표시 장치는 예를 들어, 측면 방향의 2차원 형상(231)으로부터 3차원 아바타의 머리, 목, 엉덩이, 배, 가슴, 양 손의 손가락 끝, 양 손의 손가락 사이(의 골), 양 발 뒤꿈치, 및 양 발가락 끝 중 적어도 하나에 대응하는 특징점들(235)을 추출할 수 있다.
또는 표시 장치는 예를 들어, 측면 방향의 2차원 형상(231)을 정면으로 회전시켜 엉덩이와 배에 대응하는 특징점들을 연결한 평면에서 양 옆으로 가장 돌출한 지점으로부터 3차원 아바타의 골반(pelvis)에 대응하는 특징점들을 추출할 수 있다. 일 실시예에서는 3차원 아바타의 형상을 2차원으로 단순화하여 특징점들을 추출하므로 적은 데이터를 이용하여 빠르고 효율적으로 특징점들을 추출할 수 있다.
예를 들어, 특징점들을 추출하고자 하는 3차원 아바타가 사용자 자체 제작 아바타인 경우, 사용자의 선호에 따라 3차원 아바타가 마네킹처럼 머리, 손, 발의 형상이 없는 경우도 존재할 수 있다. 3차원 아바타에 손이 없는 경우라면, 표시 장치는 예를 들어, 3차원 아바타의 겨드랑이에 위치한 특징점으로부터 일정 거리가 떨어진 지점 근처의 메쉬 분포를 분석하여 그 지점이 손목인지 또는 손인지를 판단할 수 있다.
또는, 특징점들을 추출하고자 하는 3차원 아바타가 인체의 3차원 스캔 데이터에 기초하여 제작한 3차원 아바타인 경우, 2차원 형상의 획득 시에 신체 일부분의 메쉬가 비는 것으로 나타날 수 있다. 이러한 경우, 표시 장치는 인체의 3차원 스캔 데이터로부터 신체의 대략의 형상을 감지하여 특징점들을 추출할 수 있다.
실시예에 따라서, 표시 장치는 딥 러닝을 이용하여 2차원 투사 없이도 3차원 아바타의 데이터로부터 특징점들을 추출할 수 있다. 표시 장치는 예를 들어, 3차원 아바타를 다각도로 렌더링하여 한 장 이상의 이미지를 획득하고, 딥 러닝 모델을 통하여 한 장 이상의 이미지로부터 특징점들을 추출할 수도 있다. 혹은 표시 장치는 딥 러닝 모델을 통하여 3차원 아바타에 대응하는 데이터로부터 바로 특징점들을 추출할 수도 있다.
표시 장치는 특징점들의 위치에 기초하여 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성을 결정할 수 있다. 일 실시예에 따른 표시 장치가 전술한 과정을 통해 추출한 특징점들의 위치에 기초하여 신체 부위별 배치판의 속성을 결정하는 방법은 다음과 같다. 이하, 설명의 편의를 위하여 입체 기둥의 단면 유형이 원형인 경우를 가정한다. 이 경우, 입체 기둥의 단면 형상은 반지름(radius)을 포함할 수 있다.
표시 장치는 양 팔의 특징점들의 위치를 기초로, 양 팔의 배치판의 속성 중 기둥의 자세를 팔 방향(Arm direction)으로 결정할 수 있다. 이때, '팔 방향'은 예를 들어, 겨드랑이(Armpit)과 어깨(Shoulder)의 중심점(center point)과 손목(Wrist)을 잇는 방향에 해당할 수 있다. 표시 장치는 양 팔의 배치판의 속성 중 입체 기둥의 위치를 겨드랑이 또는 어깨의 중심점 및 손목의 중심으로 결정할 수 있다. 표시 장치는 양 팔의 배치판의 속성 중 입체 기둥의 반지름을 예를 들어, 팔 방향 벡터로부터 겨드랑이 위치까지의 거리, 팔 방향 벡터로부터 어깨까지의 거리 중 큰 값으로 결정할 수 있다. 또한, 표시 장치는 양 팔의 배치판의 속성 중 입체 기둥의 길이를 팔 방향 길이의 일정 비율로 결정할 수 있다.
표시 장치는 양 손목의 특징점의 위치를 기초로, 양 손목의 배치판의 속성 중 입체 기둥의 자세를 팔 방향으로 결정하고, 입체 기둥의 위치를 손목으로 결정할 수 있다. 표시 장치는 양 손목의 배치판의 속성 중 입체 기둥의 반지름 및 길이를 예를 들어, 팔 배치판의 일정 비율로 결정할 수 있다.
표시 장치는 좌우 몸통의 특징점의 위치를 기초로, 좌우 몸통의 배치판의 속성 중 입체 기둥의 자세를 y 축 방향(상하 방향)으로 결정하고, 입체 기둥의 x 축 위치를 우측 골반을 중심으로, y 축 위치를 어깨 또는 골반을 중심으로, z 축 위치를 몸통의 전면(front) 및 후면(back)을 중심으로 결정할 수 있다. 여기서, x축은 아바타의 좌우 방향, y축은 아바타의 상하 방향, 그리고 z축은 아바타의 전후 방향에 대응할 수 있다. 표시 장치는 좌우 몸통의 배치판의 속성 중 입체 기둥의 반지름은 좌, 우 골반 및 몸통의 전면 또는 후면의 길이에 기초하여 결정할 수 있다. 또한, 표시 장치는 좌우 몸통의 배치판의 길이를 예를 들어, 어깨 중심에서 골반 중심까지의 거리로 결정할 수 있다.
표시 장치는 양 어깨의 특징점의 위치를 기초로, 양 어깨의 배치판의 속성 중 입체 기둥의 자세를 z 방향으로 결정하고, 입체 기둥의 위치를 어깨의 특징점의 위치에 기초하여 결정할 수 있다. 표시 장치는 양 어깨의 배치판의 속성 중 입체 기둥의 반지름을 어깨 좌,우 특징점들 간의 넓이를 기초로 결정하고, 양 어깨의 배치판의 길이를 예를 들어, 15.5 cm와 같은 고정값으로 결정할 수 있다.
표시 장치는 머리의 3방향(예를 들어, 좌, 우, 및 수직 방향, 또는 x, y, z축 방향)의 특징점들의 위치를 기초로, 머리의 배치판의 속성 중 입체 기둥의 자세를 머리의 좌 또는 우의 특징점의 y 축 방향, 및 머리의 수직 방향 특징점의 z 축 방향으로 결정할 수 있다. 표시 장치는 머리의 배치판의 속성 중 입체 기둥의 위치를 머리 중심(Head center)의 특징점의 위치로 결정할 수 있다. 표시 장치는 머리의 배치판의 속성 중 입체 기둥의 반지름을 예를 들어, x, z 축 방향의 머리 크기(Head size)의 값으로 결정하고, 배치판의 길이를 예를 들어, y 축 방향의 머리 크기의 값으로 결정할 수 있다.
표시 장치는 목의 특징점들의 위치를 기초로, 목의 배치판의 속성 중 입체 기둥의 자세를 목의 특징점들의 위치를 기초로 결정할 수 있다. 표시 장치는 목의 배치판의 속성 중 입체 기둥의 위치는 목의 중심(Neck center) 또는 목 방향(Neck direction)으로 결정될 수 있다. '목 방향'은 예를 들어, 목의 특징점들에 의해 결정될 수 있다. 표시 장치는 목의 배치판의 속성 중 입체 기둥의 반지름을 예를 들어, 머리 크기의 일정 비율로 결정하고, 배치판의 길이를 예를 들어, 목 방향의 길이로 결정할 수 있다.
표시 장치는 양 다리의 특징점들의 위치를 기초로, 양 다리를 감싸는 양 다리의 배치판의 속성을 결정할 수 있다. 표시 장치는 양 다리의 배치판의 속성 중 입체 기둥의 자세는 다리 방향(leg direction)의 특징점들의 위치를 기초로 결정할 수 있다. 이때, '다리 방향'은 예를 들어, 몸통 전면, 후면, 및 골반의 특징점들의 위치에 기반한 정점과 발목을 있는 방향일 수 있다. 표시 장치는 양 다리의 배치판의 속성 중 입체 기둥의 위치를 다리 방향의 중점으로 결정할 수 있다. 표시 장치는 양 다리의 배치판의 속성 중 입체 기둥의 반지름을 몸통의 전면, 후면, 및 골반의 특징점들 간의 거리의 일정 비율로 결정할 수 있다. 표시 장치는 양 다리의 배치판의 길이를 예를 들어, 다리 방향의 길이로 결정할 수 있다. 양 다리의 배치판은 바지용 배치판일 수 있다.
표시 장치는 좌우 하반신의 특징점들의 위치를 기초로, 하반신 전체를 통으로 감싸는 좌우 하반신의 배치판의 속성을 결정할 수 있다. 표시 장치는 좌우 하반신의 배치판의 속성 중 입체 기둥의 자세를 다리 방향으로 결정할 수 있다. 표시 장치는 좌우 하반신의 배치판의 속성 중 입체 기둥의 위치를 몸통의 전면, 후면, 및 골반의 특징점들의 위치에 기초하여 결정할 수 있다. 표시 장치는 좌우 하반신의 배치판의 속성 중 입체 기둥의 반지름을 몸통의 전면, 후면, 골반의 특징점들 간의 거리의 일정 비율로 결정할 수 있다. 표시 장치는 양 다리의 배치판의 길이를 예를 들어, 제작하고자 하는 스커트의 길이에 따라 다리 방향의 길이의 일정 비율로 결정할 수 있다. 좌우 하반신의 배치판은 스커트용 배치판일 수 있다.
표시 장치는 양 발목의 배치판의 속성 중 입체 기둥의 위치를 다리 방향으로 결정할 수 있다. 표시 장치는 양 발목의 배치판의 속성 중 입체 기둥의 위치를 발목의 특징점들의 위치로 결정하고, 양 발목의 배치판의 반지름을 양 다리 배치판의 일정 비율로 결정할 수 있다. 표시 장치는 양 발목의 배치판의 길이 또한 양 다리 배치판의 일정 비율로 결정할 수 있다.
도면에 도시하지 않았으나, 표시 장치는 예를 들어, 상면(top view) 방향의 2차원 형상을 생성할 수 있다.
표시 장치는 예를 들어, 상면 방향의 2차원 형상으로부터 양 손의 손가락 끝, 양 손의 손가락 사이(의 골), 양 손등, 양 어깨, 머리, 양 팔꿈치, 양 발가락 끝, 및 양 발 뒤꿈치 중 적어도 하나에 대응하는 특징점들을 추출할 수 있다.
정면, 측면 및 상면 방향에 따라 추출 가능한 특징점들로 전술한 사항들은 예시적인 것으로, 정면, 측면 및 상면 방향 각각에서 추출 가능한 특징점들은 아바타의 포즈에 따라 다양하게 변경될 수 있다.
도 3은 일 실시예에 따른 3차원 아바타 및 3차원 아바타의 신체 부위 별로 대응하는 의상 패턴들을 도시한 화면이다. 도 3을 참조하면, 일 실시예에 따른 3차원 아바타(315)를 표시한 화면(310) 및 의상 패턴들(335)을 표시한 화면(330)이 도시된다.
일 실시예에 따른 3차원 아바타(315)는 예를 들어, 미리 설정된 신체 치수에 기초하여 제작될 수도 있고, 미리 설정된 신체 치수를 변경한 치수에 기초하여 제작될 수도 있으며, 사용자에 의해 자체 제작되거나, 또는 사용자의 신체를 3차원 스캔한 데이터에 기초하여 제작될 수 있다. 또한, 3차원 아바타(315)는 예를 들어, 복수의 이미지들을 서로 다른 각도들에서 촬영한 복수의 2차원 이미지 데이터들에 기초하여 제작 혹은 재구성(reconstruct) 될 수 있다.
일 실시예에 따른 의상 패턴들(335)은 사용자가 3차원 아바타(315)에 착장시키고자 하는 가상 의상에 대응될 수 있다. 예를 들어, 사용자가 3차원 아바타(315)에 착장시킬 가상 의상으로 "티셔츠"를 선택한 경우, 표시 장치는 화면(330)와 같이 티셔츠에 해당하는 의상 패턴들(335)을 제공할 수 있다.
의상 패턴들(335)은 3차원 아바타(315)의 신체 부위 별로 대응하는 것일 수 있다. 의상 패턴들(335)은 3차원 아바타의 치수 또는 체형이 변경된 경우, 변경된 치수 또는 체형에 따라 변경된 3차원 아바타(315)의 신체 부위별 배치판의 속성에 의해 자동으로 배치되는 배치 포인트들에 의해 별도의 배치 포인트 설정 과정이 없이도 3차원 아바타(315)의 신체 부위에 배치될 수 있다.
도 4는 일 실시예에 따른 신체 부위별 배치판들을 도시한 도면이다. 도 4를 참조하면, 일 실시예에 따른 신체 부위별 배치판들(410, 420, 430, 440, 450, 460, 470, 480, 490)이 도시된다.
일 실시예에 따른 배치판들은 예를 들어, 몸통의 배치판(410), 팔의 배치판(420), 손목의 배치판(430), 어깨의 배치판(440), 다리의 배치판(450), 발목의 배치판(460), 하반신의 배치판(470), 목의 배치판(480), 머리의 배치판(490)을 포함할 수 있다.
몸통의 배치판(410)은 예를 들어, 좌측 몸통과 우측 몸통, 또는 전면 몸통과 후면 몸통의 2개의 배치판들로 구성될 수 있다.
팔의 배치판(420)은 예를 들어, 좌,우 양 팔의 배치판들로 구성되고, 손목의 배치판(430)은 예를 들어, 좌,우 양 손목의 배치판들로 구성될 수 있다.
어깨의 배치판(440)은 예를 들어, 좌, 우 양 어깨의 배치판들로 구성될 수 있다.
다리의 배치판(450)은 예를 들어, 좌, 우 양 다리의 배치판들로 구성될 수 있고, 발목의 배치판(460)은 예를 들어, 좌, 우 양 발목의 배치판들로 구성될 수 있다.
하반신의 배치판(470)은 예를 들어, 좌, 우 하반신의 배치판들로 구성될 수 있다.
목의 배치판(480)은 예를 들어, 좌, 우 양 목의 배치판들로 구성될 수 있다.
머리의 배치판(490)은 예를 들어, 좌, 우, 수직 방향, 또는 x(가로), y(세로), z(깊이)의 3방향의 머리의 배치판들로 구성될 수 있다.
일 실시예에 따른 신체 부위별 배치판들(410, 420, 430, 440, 450, 460, 470, 480, 490) 각각에는 신체 부위별 배치판의 속성에 따라 예를 들어, 점 또는 별 형태의 배치 포인트들(405)이 배치될 수 있다. 실시예에 따라서, 배치 포인트들(405)은 점 또는 별 이외에도 삼각형, 사각형, 그 밖의 다각형의 형태를 가질 수 있으며, 반드시 이에 한정되는 것은 아니다.
도 5는 일 실시예에 따른 배치 포인트들에 기초하여 의상 패턴들의 초기 위치를 결정하는 방법을 설명하기 위한 도면이다. 도 5를 참조하면, 일 실시예에 따른 배치판들에 의상 패턴들(530)이 배치된 화면이 도시된다.
일 실시예에 따른 의상 패턴들(530)은 배치판들 및 배치 포인트들(510)에 대응하는 정보를 포함할 수 있다. 의상 패턴들(530)은 예를 들어, 3차원 아바타의 어느 신체 부위의 어느 배치판의 어느 배치 포인트에 배치되어야 하는지에 대한 정보를 포함할 수 있다. 표시 장치는 의상 패턴들(530)에 포함된 정보에 따라 의상 패턴들(530)이 배치되어야 하는 배치판 위의 배치 포인트들(510)을 파악하여 의상 패턴들(530)의 초기 위치를 결정할 수 있다. 표시 장치는 결정된 초기 위치에 따라 의상 패턴들(530)을 3차원 아바타에 배치할 수 있다.
일 실시예에 따르면, 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들(510)이 자동 배치되어 의상 패턴들(530)의 초기 위치가 결정될 수 있다. 이에 따라, 사용자가 3차원 아바타에 착장시키고자 하는 의상 패턴들(530)을 선택한 후, 의상 패턴들(530)을 착장 시킬 위치에 가까운 배치 포인트들을 직접 선택하여 배치하지 않더라도 해당 패턴이 3차원 아바타의 적절한 위치에 자동적으로 착장될 수 있다. 이에 따라, 3차원 아바타의 치수가 변경되거나 치수가 지정되지 않은 3차원 아바타를 사용할 경우에도 수동으로 배치판 및 배치 포인트들의 설정을 변경할 필요가 없어 업무 효율을 높일 수 있다.
도 6은 다른 실시예에 따른 의상 패턴들을 표시하는 방법을 나타낸 흐름도이다. 도 6을 참조하면, 일 실시예에 따른 표시 장치는 3 차원 아바타의 데이터로부터 추출한 특징점들의 위치에 기초하여 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성을 결정한다(610). 표시 장치는 예를 들어, 3차원 아바타의 데이터로부터 특징점들을 추출할 수 있다. 표시 장치는 예를 들어, 3차원 아바타의 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 및 양 발목 중 적어도 한 위치에 신체 부위별 배치판을 형성할 수 있다. 표시 장치는 특징점들의 위치에 기초하여 신체 부위별 배치판의 속성을 결정할 수 있다. 표시 장치가 특징점들을 추출하는 방법 및 특징점들의 위치에 기초하여 신체 부위별 배치판의 속성을 결정하는 방법은 전술한 도 2에 대한 설명과 동일하므로 해당 부분의 설명을 참조하기로 한다.
표시 장치는 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들을 배치하여 의상 패턴들의 초기 위치를 결정한다(620).
표시 장치는 초기 위치에 따라 의상 패턴들을 3차원 아바타에 착장시킨다(630). 일 실시예에 따른 표시 장치는 전술한 과정을 통해 결정된 초기 위치에 따라 의상 패턴들이 3차원 아바타에 착장된 최종 화면만을 사용자에게 표시할 수도 있고, 또는 도 1을 통해 전술한 것과 같이 의상 패턴들을 표시하기 위한 각 과정의 동작 화면을 순차적으로 사용자에게 표시할 수도 있다. 표시 장치가 의상 패턴들을 3차원 아바타에 착장시키는 방법은 아래의 도 7을 참조하여 구체적으로 설명한다.
도 7은 일 실시예에 따른 초기 위치에 따라 의상 패턴들을 3차원 아바타에 착장시키는 방법을 설명하기 위한 도면이다. 도 7을 참조하면, 의상 패턴들이 3차원 아바타에 위치된 화면(710) 및 3차원 아바타에 해당 의상 패턴들에 따른 가상 의상이 착장된 화면(730)이 도시된다.
예를 들어, 화면(710)와 같이 신체 부위별 배치판에 의해 의상 패턴들이 3차원 아바타에 위치되면, 표시 장치는 신체 부위별 배치판을 제거하고, 의상 패턴들을 서로 재봉하여 제작되는 가상 의상인 티셔츠를 화면(730)과 같이 3차원 아바타에 착장한 결과를 시뮬레이션하여 사용자에게 표시할 수 있다.
도 8은 일 실시예에 따른 서로 다른 체형의 3차원 아바타들에 대응하여 생성된 배치판들이 도시된다. 도 8을 참조하면, 서로 다른 체형의 3차원 아바타들(810, 830, 850)의 신체 부위별 배치판들이 도시된다.
예를 들어, 사용자가 3차원 아바타의 키, 및 몸무게 등과 같은 속성을 달리 설정하여 3차원 아바타의 데이터가 변형되었다고 하자. 이 경우, 표시 장치는 3 차원 아바타의 데이터의 변형을 감지하고, 3 차원 아바타의 데이터의 변형에 반응하여 변형된 3차원 아바타의 데이터로부터 특징점들을 재 추출할 수 있다. 표시 장치는 재 추출한 특징점들의 위치에 기초하여 서로 다른 체형의 3차원 아바타들(810, 830, 850)의 체형 및 자세가 반영된 신체 부위별 배치판의 속성을 결정할 수 있다. 표시 장치는 신체 부위별 배치판의 속성에 따라 배치 포인트들이 배치된 배치판들을 표시할 수 있다.
도 9는 일 실시예에 따른 의상 패턴들을 표시하는 장치의 블록도이다. 도 9를 참조하면, 일 실시예에 따른 의상 패턴을 표시하는 장치('표시 장치')(900)는 사용자 인터페이스(910), 및 프로세서(930)를 포함한다. 표시 장치(900)는 메모리(950), 및 출력 장치(970)를 더 포함할 수 있다. 사용자 인터페이스(910), 프로세서(930), 메모리(950), 출력 장치(970)는 통신 버스(905)를 통해 서로 통신할 수 있다.
사용자 인터페이스(910)는 3 차원 아바타의 데이터로부터 추출한 특징점들의 위치를 수신한다. 사용자 인터페이스(910)는 예를 들어, 스타일러스 펜, 마우스, 키보드, 터치 인터페이스를 통한 터치 입력 등을 포함할 수 있다.
프로세서(930)는 사용자 인터페이스(910)를 통해 수신한 특징점들의 위치에 기초하여 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성을 결정한다. 프로세서(930)는 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들을 배치하여 의상 패턴들의 초기 위치를 결정한다. 프로세서(930)는 초기 위치에 따라 의상 패턴들을 3차원 아바타에 착장시킨다.
메모리(950)는 예를 들어, 3 차원 아바타의 데이터, 사용자 인터페이스(910)를 통해 수신한 특징점들의 위치, 프로세서(930)가 결정한 신체 부위별 배치판의 속성, 및 의상 패턴들의 초기 위치, 의상 패턴들이 착장된 3차원 아바타의 데이터 등을 저장할 수 있다. 메모리(950)는 휘발성 메모리 또는 비 휘발성 메모리일 수 있다.
출력 장치(970)는 3차원 아바타에 착장된 의상 패턴들을 출력할 수 있다. 출력 장치(970)는 3차원 아바타에 착장된 의상 패턴들을 화면 상에 출력할 수도 있고, 또는 의상 패턴 제작 장치 등으로 출력할 수도 있다. 출력 장치(970)는 예를 들어, 디스플레이일 수도 있고, 표시 장치(900)의 외부와 통신하는 통신 인터페이스일 수도 있다.
이 밖에도, 프로세서(930)는 도 1 내지 도 8을 통해 전술한 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(930)는 프로그램을 실행하고, 표시 장치(900)를 제어할 수 있다. 프로세서(930)에 의하여 실행되는 프로그램 코드는 메모리(950)에 저장될 수 있다. 프로세서(930)는 예를 들어, CPU(Central Processing Unit), GPU(Graphics Processing Unit), 또는 NPU(Neural network Processing Unit)으로 구성될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 시스템이가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 시스템에 의하여 해석되거나 처리 시스템에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 시스템, 가상 시스템(virtual equipment), 컴퓨터 저장 매체 또는 시스템에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 시스템, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
900: 의상 패턴을 표시하는 장치('표시 장치')
905: 통신 버스
910: 사용자 인터페이스
930: 프로세서
950: 메모리
970: 출력 장치

Claims (21)

  1. 3 차원 아바타의 데이터에 기초하여, 특정 방향으로 정렬된 상기 3차원 아바타의 2차원 상의 점의 분포를 분석하는 단계;
    상기 분석 결과에 기초하여 생성되는 상기 3차원 아바타의 특정 방향의 2차원 형상으로부터 특징점들을 추출하는 단계;
    상기 특징점들의 위치에 기초하여 상기 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판(bounding volumes)의 속성을 결정하는 단계;
    상기 신체 부위별 배치판의 속성에 따라 상기 배치판 위에 배치 포인트들(arrangement points)을 배치하는 단계; 및
    상기 배치 포인트들에 기초하여 의상 패턴들의 초기 위치를 결정하는 단계
    를 포함하는, 의상 패턴들을 표시하는 방법.
  2. 제1항에 있어서,
    상기 신체 부위별 배치판의 속성을 결정하는 단계는
    상기 3차원 아바타의 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 및 양 발목 중 적어도 한 위치에 상기 신체 부위별 배치판을 형성하는 단계; 및
    상기 특징점들의 위치에 기초하여 상기 신체 부위별 배치판의 속성을 결정하는 단계
    를 포함하는, 의상 패턴들을 표시하는 방법.
  3. 제1항에 있어서,
    상기 신체 부위별 배치판은
    상기 3차원 아바타의 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 및 양 발목 각각에 대응하는, 의상 패턴들을 표시하는 방법.
  4. 제1항에 있어서,
    상기 신체 부위별 배치판은
    상기 신체 부위를 감싸는 입체 기둥으로 구성되고,
    상기 신체 부위별 배치판의 속성은
    상기 입체 기둥의 단면 형상, 상기 입체 기둥의 길이, 상기 입체 기둥의 위치 및 상기 입체 기둥의 자세(orientation) 중 적어도 하나를 포함하는, 의상 패턴들을 표시하는 방법.
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 특정 방향은
    정면, 측면, 및 상면(top view) 중 적어도 하나를 포함하는, 의상 패턴들을 표시하는 방법.
  8. 제1항에 있어서,
    상기 2차원 형상으로부터 상기 특징점들을 추출하는 단계는
    상기 3 차원 아바타의 정면 방향의 2차원 형상으로부터 상기 3 차원 아바타의 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 양 발목, 겨드랑이, 사타구니, 양 손가락 끝, 양 손가락 사이, 양 손등, 양 팔꿈치, 양 무릎, 양 발등, 양 발가락 끝, 및 양 발 뒤꿈치 중 적어도 하나에 대응하는 특징점들을 추출하는 단계;
    상기 3차원 아바타의 측면 방향의 2차원 형상으로부터 상기 3차원 아바타의 머리, 목, 엉덩이, 배, 가슴, 양 손의 손가락 끝, 양 손의 손가락 사이, 양 발 뒤꿈치, 및 양 발가락 끝 중 적어도 하나에 대응하는 특징점들을 추출하는 단계; 및
    상기 측면 방향의 2차원 형상을 정면으로 회전시켜 상기 엉덩이와 배에 대응하는 특징점들을 연결한 평면에서 양 옆으로 가장 돌출한 지점으로부터 상기 3차원 아바타의 골반에 대응하는 특징점들을 추출하는 단계
    중 적어도 하나를 포함하는, 의상 패턴들을 표시하는 방법.
  9. 제1항에 있어서,
    상기 3 차원 아바타의 데이터로부터 특징점들을 추출하는 단계는
    상기 3 차원 아바타의 데이터의 변형을 감지하는 단계; 및
    상기 3 차원 아바타의 데이터의 변형에 반응하여, 상기 변형된 3차원 아바타의 데이터로부터 상기 특징점들을 재 추출하는 단계
    를 포함하는, 의상 패턴들을 표시하는 방법.
  10. 제1항에 있어서,
    상기 특징점들은
    상기 3 차원 아바타의 양 팔, 양 손목, 좌우 몸통, 양 어깨, 머리, 목, 양 다리, 좌우 하반신, 양 발목, 겨드랑이, 사타구니, 골반, 엉덩이, 배, 가슴, 양 손, 양 발, 양 팔꿈치, 양 무릎, 양 손가락 끝, 양 손가락 사이, 양 손등, 양 발등, 양 발가락 끝, 및 양 발 뒤꿈치 중 적어도 하나에 대응하는, 의상 패턴들을 표시하는 방법.
  11. 제1항에 있어서,
    상기 3차원 아바타는
    미리 설정된 신체 치수에 기초하여 제작된 3차원 아바타
    상기 설정된 신체 치수를 변경한 치수에 기초하여 제작된 3차원 아바타,
    사용자에 의해 자체 제작된 3차원 아바타,
    상기 사용자의 신체를 3차원 스캔한 데이터에 기초하여 제작된 3차원 아바타, 및
    복수의 이미지들을 다각도에서 촬영한 복수의 2차원 이미지 데이터들에 기초하여 제작된 3차원 아바타
    중 적어도 하나를 포함하는, 의상 패턴들을 표시하는 방법.
  12. 제1항에 있어서,
    상기 초기 위치에 따라 상기 의상 패턴들을 상기 3차원 아바타에 착장시키는 단계
    를 더 포함하는, 의상 패턴들을 표시하는 방법.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 제12항에 있어서,
    상기 의상 패턴들은
    상기 배치판 및 상기 배치 포인트들에 대응하는 정보를 포함하는, 의상 패턴들을 표시하는 방법.
  19. 하드웨어와 결합되어 제1항 내지 제4항, 제7항 내지 제12항, 및 제18항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
  20. 3 차원 아바타의 데이터에 기초하여, 특정 방향으로 정렬된 상기 3차원 아바타의 2차원 상의 점의 분포를 분석하고, 상기 분석 결과에 기초하여 생성되는 상기 3차원 아바타의 상기 특정 방향의 2차원 형상으로부터 특징점들의 위치를 추출하며, 상기 특징점들의 위치에 기초하여 상기 3차원 아바타의 체형 및 자세가 반영된 신체 부위별 배치판의 속성을 결정하고, 상기 신체 부위별 배치판의 속성에 따라 배치판 위에 배치 포인트들을 배치하여 의상 패턴들의 초기 위치를 결정하며, 상기 초기 위치에 따라 상기 의상 패턴들을 상기 3차원 아바타에 착장시키는 프로세서
    를 포함하는, 의상 패턴들을 표시하는 장치.
  21. 제20항에 있어서,
    상기 3차원 아바타에 착장된 의상 패턴들을 출력하는 출력 장치
    를 더 포함하는, 의상 패턴들을 표시하는 장치.
KR1020190103928A 2019-08-23 2019-08-23 의상 패턴들을 표시하는 방법 및 장치 KR102136620B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190103928A KR102136620B1 (ko) 2019-08-23 2019-08-23 의상 패턴들을 표시하는 방법 및 장치
US16/999,604 US11094115B2 (en) 2019-08-23 2020-08-21 Generating clothing patterns of garment using bounding volumes of body parts
US17/380,984 US11734887B2 (en) 2019-08-23 2021-07-20 Generating clothing patterns of garment using bounding volumes of body parts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190103928A KR102136620B1 (ko) 2019-08-23 2019-08-23 의상 패턴들을 표시하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102136620B1 true KR102136620B1 (ko) 2020-07-23

Family

ID=71894330

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190103928A KR102136620B1 (ko) 2019-08-23 2019-08-23 의상 패턴들을 표시하는 방법 및 장치

Country Status (2)

Country Link
US (2) US11094115B2 (ko)
KR (1) KR102136620B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102274508B1 (ko) * 2020-02-26 2021-07-08 (주)클로버추얼패션 의상의 패턴 조각에 다트를 표시하는 방법 및 장치
WO2023229348A1 (ko) * 2022-05-23 2023-11-30 (주)클로버추얼패션 텍스쳐 이미지 시뮬레이션 방법 및 그 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11321913B2 (en) * 2019-11-28 2022-05-03 Z-Emotion Co., Ltd. Three-dimensional (3D) modeling method of clothing
CN114662172B (zh) * 2022-05-19 2022-08-16 武汉纺织大学 一种基于神经网络的服装布料动态仿真模拟方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119260A (ko) * 2010-04-27 2011-11-02 (주)클로버추얼패션 3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0101371D0 (en) * 2001-01-19 2001-03-07 Virtual Mirrors Ltd Production and visualisation of garments
WO2012061834A1 (en) * 2010-11-07 2012-05-10 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for interactive garment modeling and editing
GB201102794D0 (en) * 2011-02-17 2011-03-30 Metail Ltd Online retail system
US9754410B2 (en) * 2017-02-15 2017-09-05 StyleMe Limited System and method for three-dimensional garment mesh deformation and layering for garment fit visualization
US20200027155A1 (en) * 2017-03-29 2020-01-23 Google Llc Systems and Methods for Visualizing Garment Fit
US10872475B2 (en) * 2018-02-27 2020-12-22 Soul Vision Creations Private Limited 3D mobile renderer for user-generated avatar, apparel, and accessories
KR102173900B1 (ko) * 2019-07-11 2020-11-04 호전실업 주식회사 의복 디자인 생성 방법 및 시스템과 이를 위한 통합 애플리케이션 프로그램

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119260A (ko) * 2010-04-27 2011-11-02 (주)클로버추얼패션 3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Lori Griffiths, ‘Marvelous Designer Beginner Tutorial,’ Fearless Makers, https://www.fearlessmakers.com/marvelous-designer-beginner-tutorial/, 2015.04.08. 1부.* *
Lori Griffiths, ‘Marvelous Designer Bounding Volumes & Arrangement Points,’ Fearless Makers, https://www.fearlessmakers.com/md-bounding-volumes-arrangement-points/ , 2015.08.20. 1부.* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102274508B1 (ko) * 2020-02-26 2021-07-08 (주)클로버추얼패션 의상의 패턴 조각에 다트를 표시하는 방법 및 장치
WO2023229348A1 (ko) * 2022-05-23 2023-11-30 (주)클로버추얼패션 텍스쳐 이미지 시뮬레이션 방법 및 그 장치

Also Published As

Publication number Publication date
US11094115B2 (en) 2021-08-17
US11734887B2 (en) 2023-08-22
US20210350619A1 (en) 2021-11-11
US20210056754A1 (en) 2021-02-25

Similar Documents

Publication Publication Date Title
KR102136620B1 (ko) 의상 패턴들을 표시하는 방법 및 장치
Meng et al. Interactive virtual try-on clothing design systems
CA2863097C (en) System and method for simulating realistic clothing
Guan et al. Drape: Dressing any person
Magnenat-Thalmann Modeling and simulating bodies and garments
Zurdo et al. Animating wrinkles by example on non-skinned cloth
Gültepe et al. Real-time virtual fitting with body measurement and motion smoothing
US11145098B2 (en) Method and apparatus of simulating apparel reflecting binding
US11151786B2 (en) Grading garment that includes supplemental material
US11308707B2 (en) Automated grading of clothing patterns of garment
Magnenat-Thalmann et al. 3d web-based virtual try on of physically simulated clothes
CN107958488A (zh) 服装裁片的交互式编辑与缝合方法及装置
Fuhrmann et al. Interaction-free dressing of virtual humans
CN108230455A (zh) 一种基于骨骼驱动的虚拟服装变形仿真方法
CN114511369A (zh) 在线试穿方法及装置
KR20210021929A (ko) 의상 시뮬레이션 방법 및 장치
Lee et al. Heuristic misfit reduction: a programmable approach for 3D garment fit customization
WO2009104777A1 (ja) 着装シミュレーション装置とシミュレーションプログラム、及びシミュレーション方法
KR20210021898A (ko) 부자재 요소를 포함하는 의상의 그레이딩 방법 및 장치
KR102273317B1 (ko) 의상 패턴들의 오토 그레이딩 방법 및 장치
Zhong Redressing three-dimensional garments based on pose duplication
EP2048588A1 (en) Device and its method for dressing simulation and program
KR102228099B1 (ko) 의상의 패턴 조각들의 결합을 위한 가이드를 제공하는 방법 및 장치
JPH11250282A (ja) Cgアニメーション画像作成方法及びこの画像作成方法を用いたcgアニメーション画像作成装置
EP4250243A1 (en) Method and apparatus for determining body part boundary surface of three-dimensional avatar

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant