KR100828935B1 - 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션방법 - Google Patents

디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션방법 Download PDF

Info

Publication number
KR100828935B1
KR100828935B1 KR1020060094445A KR20060094445A KR100828935B1 KR 100828935 B1 KR100828935 B1 KR 100828935B1 KR 1020060094445 A KR1020060094445 A KR 1020060094445A KR 20060094445 A KR20060094445 A KR 20060094445A KR 100828935 B1 KR100828935 B1 KR 100828935B1
Authority
KR
South Korea
Prior art keywords
fabric
clothing
garment
image
brightness
Prior art date
Application number
KR1020060094445A
Other languages
English (en)
Other versions
KR20060108271A (ko
Inventor
곽노윤
Original Assignee
곽노윤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 곽노윤 filed Critical 곽노윤
Priority to KR1020060094445A priority Critical patent/KR100828935B1/ko
Publication of KR20060108271A publication Critical patent/KR20060108271A/ko
Application granted granted Critical
Publication of KR100828935B1 publication Critical patent/KR100828935B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 의류 모델 영상에서 의류 형상을 분할한 후에 분할된 의류 형상 영역의 음영 및 조명 특성을 유지하면서 사용자가 선택한 새로운 직물 패턴을 그 위에 가상적으로 착용시킬 수 있는 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법을 제공함에 그 목적이 있다.
본 발명은 완성된 의류를 착용하거나 전시한 상태를 담고 있는 의류 모델 영상에서 원하는 의류 형상 영역을 분할하고, 다음으로 의류 형상 영역의 명도 성분에 대한 평균 명도값을 계산한 후, 의류 형상 영역에 포함된 각 화소의 명도값에서 평균 명도값을 감산하여 명도 차분 맵(intensity difference map)을 산출함으로써 의류 형상 영역의 음영 및 조명 특성을 추출하고, 이후, 사용자 입력이나 시스템 입력을 통해 의류 모델 영상의 의류 형상 영역에 가상적으로 착용시키고 싶은 직물 패턴이나 직물 색이 선택되면, '명도 차분 맵에 소정의 반영 비율을 곱한 값'과 '직물 패턴이나 직물 색의 명도 성분값'을 대응되는 화소단위로 합산한 후, 이 합산 결과값으로 의류 모델 영상에서 의류 형상 영역의 명도 성분값을 대체하고, 의류 형상 영역 내 채도 성분값과 색상 성분값은 상기 선택된 직물의 패턴이나 색의 채도 성분값과 색상 성분값으로 각각 대체하는 직물 텍스쳐 매핑(textile texture mapping)을 수행함으로써 디지털 직물 원단의 착의상태를 근사적으로 확인할 수 있는 것이 특징이다.
본 발명에 따르면, 다양한 디지털 환경에서 실시간 처리가 가능하고 자연스럽고 사실적인 착용감을 제공할 뿐만 아니라 사용자의 수작업을 최대한 제거한 반자동화 처리가 가능하기 때문에 높은 실용성과 편리한 사용자 인터페이스를 제공할 수 있다.
본 발명에 따르면 실제 의복을 제작하지 않은 상태에서도 직물 원단의 디자인이 의복의 외관에 미치는 영향을 시뮬레이션할 수 있음에 따라 직물 디자이너의 창작활동을 도와줄 수 있고, 온라인상에서 직물 원단이나 의류를 거래할 시에 구매자의 의사결정을 지원해 B2B 또는 B2C 전자상거래 행위를 촉진할 수 있다. 더불어 기성복이나 맞춤복 모두에 대해 소비자가 자신의 취향에 어울리는 직물 패턴을 용이하게 선택하고 디자인하여 주문제작을 수행하는 거래환경을 조성할 수 있다.
디지털 패션 디자인, 실사 기반 가상 드레이핑 시뮬레이션, 반자동 의류 형상 분할, 직물 텍스쳐 매핑, 가상 의류 생성

Description

디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법{Method of Image-based Virtual Draping Simulation for Digital Fashion Design}
도 1은 D&M 테크놀로지 VWS의 의류 영역 분할 과정에서 생성된 중간 결과 영상들을 나타낸 예시도,
도 2는 VWS의 의사 3D 그리드 프로젝트 설정 과정에서 생성된 중간 결과 영상들을 나타낸 예시도,
도 3은 VWS의 색 변경 과정에서 생성된 중간 결과 영상들을 나타낸 예시도,
도 4는 VWS의 직물 패턴 매핑 과정에서 생성된 중간 결과 영상들을 나타낸 예시도,
도 5는 VWS의 색 변경 및 직물 패턴 매핑 결과 영상을 나타낸 예시도,
도 6은 본 발명에 따른 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법의 바람직한 실시예를 나타낸 흐름도,
도 7은 복원 기반 개방-폐쇄 연산에 의한 영상 단순화 단계에 따른 결과 영상을 나타낸 예시도,
도 8은 사용자 입력에 의한 영역 성장 및 추가 병합 단계에서 생성된 중간 결과 영상들을 나타낸 예시도,
도 9는 본 발명의 바람직한 실시예를 소프트웨어로 구현한 VirtualCODY 1.0의 시작 화면을 나타낸 예시도,
도 10은 본 발명의 바람직한 실시예를 이용한 직물 패턴의 가상 착의 과정의 일례를 나타낸 예시도,
도 11은 본 발명의 바람직한 실시예를 이용한 직물 패턴의 가상 착의 과정의 또 다른 일례를 나타낸 예시도,
도 12는 본 발명의 바람직한 실시예의 BABY 영상에 적용한 사례를 나타낸 예시도,
도 13은 본 발명의 바람직한 실시예의 WRAP-SKIRT 영상에 적용한 사례를 나타낸 예시도,
도 14는 본 발명의 바람직한 실시예의 PARKA 영상에 적용한 사례를 나타낸 예시도,
도 15는 본 발명의 바람직한 실시예의 NECKTIE 영상에 적용한 사례를 나타낸 예시도,
도 16은 본 발명의 바람직한 실시예의 CELADON 영상에 적용한 사례를 나타낸 예시도이다.
본 발명은 실사 기반 가상 드레이핑 시뮬레이션 방법에 관한 것으로, 더욱 상세하게는 2D 의류 모델 영상에서 의류 형상을 분할한 후에 분할된 의류 형상 영역의 음영 및 조명 특성을 유지하면서 사용자가 선택한 새로운 직물 패턴을 그 위에 가상적으로 착용시킬 수 있는 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법에 관한 것이다.
오늘날 패션 디자인 분야에서 컴퓨터 소프트웨어를 사용하는 것은 이미 보편적인 일이다. 세계적으로 유명한 패턴 캐드 회사는 프랑스의 렉트라시스템(Lectra System), 미국의 거버시스템(Gerber System), 투카 CAD(Tuka CAD), SGS 옵티텍스(SGS Optitex), 캐나다의 패드시스템(Pad System), 독일의 어시스트(Assyst), 일본의 유카, 스타일캐드, 아사히-카세이(Asahi-Kasei), 옵티텍스, 도요시마 비즈니스 시스템(Toyoshima Business System) 등이 있다. 각 회사의 패턴캐드는 패턴을 직접 그리는 소프트웨어와 디지타이저를 사용하여 수작업으로 제작한 패턴을 디지털화하는 소프트웨어, 그레이딩(grading)을 위한 소프트웨어, 마커 메이킹(marker making)을 위한 소프트웨어, 자동재단(auto-cutting)을 위한 소프트웨어 등으로 구성되어 있다. 대량생산을 위한 자동재단과 CAM과 같은 하드웨어까지 생산하는 회사는 프랑스의 렉트라시스템과 미국의 거버시스템이 있고, 캐나다의 패드시스템과 일본 회사들은 패턴 제작 소프트웨어와 그레이딩 소프트웨어 정도만 개발하여 판매하고 있다.
최근 들어 많은 패턴 캐드 회사들이 자사들이 가지고 있는 패턴 캐드를 확장하여 3D 드레이핑 시스템(3D draping system)을 개발하려고 노력하고 있다. 3D 드레이핑 시스템은 디자인된 2D 의상 패턴을 3D 인체 모델에 착용시켜 보고 그 착용성에 근거하여 옷의 디자인을 수정하고 수정된 디자인에 따라 2D 의상 패턴을 다시 수정한 후, 수정된 패턴을 재차 착용시켜 볼 수 있는 소프트웨어 시스템이다. 현재 렉트라시스템에서 아직 상용화 단계는 아니지만, 3D 드레이핑 시스템을 개발했으며, 2D 디자인 소프트웨어였던 프리마비젼(Prima Vision)도 3D 버전을 개발하고 있다. 그 외에 패턴 캐드 회사로서 3D 드레이핑 시스템을 개발한 회사로는 일본의 옵티텍스, 패드시스템, 한국의 D&M 테크놀로지, 영우씨엔아이 등이 있다. 그러나 이들 회사에서 만든 3D 드레이핑 시스템은 아직 디자이너가 만족할 만한 착용 기능을 갖고 있지 못하다. 예컨대 D&M 테크놀로지에서 만든 NARCIS 시스템의 경우, 중력의 영향, 인체 표면과 의류의 충돌 등을 고려한 자연스런 착용 기능이 다소 미약하다. 특히 이들은 테일러링 자켓(tailoring jacket)이나 포켓과 프릴(frill), 단추와 같은 디테일이 많은 의상은 착용시키지 못하고 있다.
한편, 컴퓨터 게임이나 캐릭터 애니메이션 분야에서도 3D 캐릭터에서 가상 의상을 착용시키고 3D 공간에서 의상의 모양을 직접 수정하는 가상 의상 모델링 및 착용 소프트웨어를 개발해 왔다. 현재 3D 모델링 및 애니메이션 분야에서 사용되고 있는 소프트웨어는 3D 맥스 스튜디오(3D MAX Studio), 소프트이마지(SoftImage), 웨이브프런트(Wavefront), 마야(Maya) 등이 있다. 그 중 마야는 현존하는 3D 모델링 소프트웨어 중에서 가장 최근에 출시된 것으로서 기술적인 면에서 가장 앞서 있으며, 시장 점유율도 가장 높다. 이들 3D 소프트웨어는 3D 캐릭터를 위한 가상 의상을 제작하는 기능을 포함하고 있는데, 마야의 경우는 이를 위해 특별히 마야 클로스(Maya Cloth)라는 플러그인을 제공하고 있다. 마야 클로스는 중력 등을 고려한 의상 착용 기능, 의상 시뮬레이션 기능, 3차원 의상 메쉬의 디테일을 수정할 수 있는 기능, 의상 텍스쳐를 입힐 수 있는 기능 등 여러 가지 좋은 기능이 있다. 전통적인 패턴 캐드인 패드시스템에서도 마야 클로스를 가상 의상 착용을 위한 플러그인으로 사용할 정도이다. 그러나 마야 클로스가 입력으로 사용하는 패턴을 정확하게 처리하지 않음은 실험으로 확인되고 있다. 즉, 동일 패턴을 사용하여 만들 가상 의상과 실제 의상을 비교해보면, 마야 클로스는 캐릭터의 의상을 근사적으로 쉽게 제작하기 위한 용도로 개발될 것이며 정확한 의상을 디자인하기 위한 것이 아님을 알 수 있다.
이와 같이 게임ㆍ애니메이션 분야 또는 패션 디자인 분야와 상관없이 컴퓨터 그래픽스 기법을 통해 구현한 가상 드레이핑 시뮬레이션은 비교적 높은 완성도를 유지하고 있음에도 불구하고 방대한 연산량과 같은 문제들은 차치하더라도 품질적인 측면에서 조차도 계속적인 기술적인 발전을 요구받고 있다.
컴퓨터 그래픽스 기법을 통해 생성한 의복을 착용한 가상 인체의 모습은 의복의 형태에 따라 그 사실감이 크게 차이가 난다는 것은 잘 알려진 사실이다. 가상 인체의 대부분의 표면적은 의류로 덮여 있으므로 주름과 구겨짐 등이 현실적으로 잘 표현된 의복은 사실감과 자연스러움을 결정짓는 중요한 요소가 된다. 우수한 가상 드레이핑 시뮬레이션 알고리즘은 가능한 빠른 CPU 처리시간 내에 필요한 결과물을 산출할 수 있어야 하며, 급격히 이루어지는 인체의 자세변화에 대해서도 충분한 안정성을 보유할 수 있도록 개발되어야 한다. 인체에 착용된 의류의 변형 및 주름과 구김현상을 시뮬레이션하기 위해 과거로부터 현재까지 다양한 종류의 3D 해석 기법들이 개발된 바 있다.
그러나 통상의 3D 가상 드레이핑 시뮬레이션은 대부분 과정을 수작업에 의존하기 때문에 작업 시간이 많이 소요될 뿐만 아니라 방대한 연산량으로 인해 높은 사양의 시스템에서도 실시간성을 제공하기 어렵고 고품질의 결과를 획득하기 위해선 숙련된 작업자도 많은 시간과 노력을 요하는 문제가 있다. 특히 가상 의상을 만들어 인체에 착용시킬 때에 가상 의상이 중력의 영향, 인체 표면과의 충돌 등을 고려하거나 물리 역학적 평형 개념 또는 동역학적 움직임에 대응하는 의류의 운동을 묘사하는 기술을 적용할 경우에는 더욱 더 많은 연산량이 요구된다.
한편 OpenGL이나 Direct3D 등과 같은 그래픽스 라이브러리가 널리 사용되고 있는데, 이러한 라이브러리들의 조명 모델(illumination model)과 음영 모델(shading model)이 갖고 있는 제한사항과 다각형 정점 기반의 모델링과 렌더링 과정의 한계 등으로 인해 적은 수의 다각형 정점을 사용한 3D 그래픽스 인체는 매우 부자연스럽고 인위적인 느낌이 든다. 최근의 그래픽 카드는 초당 수백만 개 이상의 다각형을 그릴 수 있지만, 사람의 피부, 표정, 머리카락, 의복 및 직물 등의 표면을 섬세하게 모델링하는 데에는 훨씬 더 많은 수의 다각형이 필요하고, 이렇게 모델링된 그래픽스 객체를 저장하거나 전송하기 위해서는 고용량의 저장 공간과 전송 채널을 확보해야 하는 부담이 있다.
이러한 3D 가상 드레이핑 시뮬레이션의 부담을 피할 수 있는 하나의 대안으로, D&M 테크놀로지(www.dnmco.com)는 2D 실사 기반 가상 드레이핑 시뮬레이션 소프트웨어의 일종인 VWS(Virtual Wearing System)를 개발하여 2000년 5월에 독일 국제봉재기계박람회(IMB)에 출품하였으며, 2000년 11월과 2001년 3월에 걸쳐 2건의 특허출원을 통해 2003년 9월과 2004년 5월에 각각 대한민국 특허등록 제10-0399286호 및 대한민국 특허등록 제10-0431788호를 취득하였다. D&M 테크놀로지의 VWS 외에도 이와 유사한 알고리즘을 채택한 전남대학교의 2D 실사 기반 가상 드레이핑 시뮬레이션 시스템이 2004년 한국멀티미디어학회 추계학술대회논문집(제7권, 제2호)에 "패션 디자인의 자연스런 드레이핑을 위한 2.5D 맵핑 시스템 구현"이란 제목으로 기 발표된 바 있다.
D&M 테크놀로지의 VWS(Virtual Wearing System)는 도 1과 같이 하나의 2D 의류 모델 영상(2D garment model image)에서 원하는 의류 형상 영역의 윤곽선을 따라 가면서 사용자 입력(예컨대, 마우스 클릭)을 통해 점을 찍어 분할한 후, 다수의 디지털 직물 패턴 및 색을 선택적으로 직물 매핑(textile mapping)을 수행해볼 수 있도록 함으로써 실제 의복을 만들지 않은 상태에서 원단의 디자인이 의복의 외관에 미치는 영향을 시뮬레이션 해볼 수 있도록 하는 2D 실사 기반 가상 드레이핑 소프트웨어이다.
이를 좀 더 상술하면, 도 1(a)와 같은 흰색 의류를 착용하거나 전시한 상태를 담고 있는 2D 의류 모델 영상을 입력받아 도 1(b)와 같이 분할하고 싶은 영역의 경계선을 따라 가면서 마우스 클릭으로 정점(vertex)을 일일이 찍어서 분할하고 이를 수정하여 도 1(c)와 같은 소매 영역의 분할을 완료한다. 이러한 과정을 반복함으로써 도 1(d)와 같이 좌우 소매, 몸판, 옷깃, 주머니 영역을 각각 분할한 다음에 최종 분할 결과에 대한 분할 영역 리스트를 작성한다.
이후, 도 2(a)와 같이 바운딩 박스 알고리즘(bounding box algorithm)에 입각하여 각 분할 영역을 둘러싸는 의사 3D 그리드(Pseudo-3D grid)를 원하는 해상도로 초기화한 다음에 디지털 직물 패턴이 입체적인 느낌을 제공하면서 사실적으로 매핑될 수 있도록 마우스를 이용하여 도 2(b)와 같은 형태로 그리드의 모양을 변형한다. 이러한 과정을 반복하여 도 2(c)와 같이 좌우 소매, 몸판, 옷깃, 주머니 영역의 모든 그리드들을 원하는 형태로 수정함으로써 의사 3D 그리드 프로젝트(Pseudo-3D grid project)를 얻는다.
다음으로 앞서 작성한 분할 영역 리스트와 의사 3D 그리드 프로젝트를 확보한 상태에서 새로운 색 또는 직물 패턴을 선택한 후 의류 모델 영상에서 원하는 영역을 지정하면 각각 도 3 및 도 4와 같이 모델 의류의 음영 및 조명 특성을 그대로 유지하면서 색 변경과 직물 패턴 매칭이 수행되어 시제품이나 샘플 제작 이전에 컴퓨터 시뮬레이션으로 디지털 직물 원단의 착의 상태를 근사적으로 예측할 수 있다. VWS의 색 변경과 직물 패턴 매칭 과정은 각 분할 영역에서 각각의 화소마다 RGB 삼원색의 명도값을 구하여 정규화한 다음에 변형된 의사 3D 그리드를 이용하여 직물 패턴의 화소별 대응 위치를 계산한다. 이후, 이 정규화된 명도값과 직물 패턴이나 변경 색의 대응된 위치의 R, G, B 값을 곱한 결과값을 해당 분할 영역의 새로운 R, G, B 값으로 삼는 직물 매핑 과정을 해당 분할 영역에 포함된 모든 화소에 대해 반복적으로 수행한다. 도 5는 다양한 색 변경 및 직물 패턴 매핑 결과를 예시한 것이다.
도 5에서 확인할 수 있듯이 VWS는 비교적 양호한 결과를 제공함을 알 수 있지만 다음과 같은 단점과 한계가 있다.
첫 번째로 적용 가능한 의류 모델 영상의 제한에 관한 것으로, 적용이 불가능한 것은 아니지만 양호한 결과를 얻기 위해서는 도 1(a)와 같은 흰색 모델 의류를 담고 있는 영상만을 사용해야 한다는 점이다. 이것은 정규화된 명도값을 직물 패턴이나 변경 색에 곱하는 모듈레이션 방식(modulation mode)을 취하고 있기 때문에 기인한 것이다. 예컨대, 의류 모델이 어두운 계열의 의복을 착용하고 있으면 직물 패턴이나 변경 색의 밝기에 상관없이 모두 어두운 색으로 매핑되어 그 직물 매핑 품질이 현저하게 떨어지는 문제가 초래된다. 이 모듈레이션 방식은 3D 그래픽스의 텍스쳐 매핑(texture mapping) 분야에서 많이 사용되는 기술로, 조명 효과를 주고 싶은 텍스쳐 맵(texture map)에 조명 효과가 표현된 2D 조명 텍스쳐 맵을 곱한 후, 그 결과를 3D 객체에 텍스쳐 매핑함으로써 계산이 복잡한 조명 모델을 사용하지 않으면서도 그와 유사한 효과를 생성할 수 있는 비교적 자주 사용되는 그래픽스 기술이다. 다시 말해서, 의류 모델 영상은 일종의 2D 조명 텍스쳐 맵의 역할을 하는 것이기 때문에 조명이 어두울 경우(즉, 의류 모델 영상이 흰색 계열이 아닐 경우), 다른 텍스쳐 맵의 색이나 패턴을 왜곡시키거나 제대로 시각화할 수 없는 문제가 있는 것이다.
두 번째로 과도한 수작업에 의해 영역 분할을 수행하는 불편함으로, 마우스 클릭으로 의류 영역의 경계선을 따라 가면서 일일이 정점을 찍어서 영역을 분할한다는 것이다. 세 번째로 의사 3D 그리드의 수정을 사용자의 수작업에 의존하는 것으로, 그리드 또는 정점을 이동시키거나 그리드를 회전시키는 작업이 모두 마우스의 조작을 통한 수작업에 의해 이루어진다는 번거로움과 복잡함에 있다.
두 번째와 세 번째의 경우, 이것은 작업자의 시간과 노력을 너무 많이 요구할 뿐만 아니라 작업자의 숙련도에 따라 품질의 편차가 크고 쉽게 피로감을 유발하여 전체적으로 작업의 신뢰도와 능률을 저하시키는 단점이 있다. 특히, 의사 3D 그리드의 경우 이를 사용함을 통해 얻을 수 있는 이점에 비해 너무 많은 사전작업을 요할 뿐만 아니라 결과물의 입체감 조성에 대한 기여도 정도가 비교적 모호하고 직물 패턴의 섬세한 변형이 어려우며 결과에 대한 예측이 직관적이지 않다는 단점이 있다.
이러한 불편함과 복잡함 때문에 현재 D&M 테크놀로지가 인터넷이나 모바일 폰과 같은 온라인 환경에서 VWS를 서비스하는 방법으로는, 서비스 사업자가 선정한 의류 모델 영상에 대해 사전에 '분할 영역 리스트'와 '의사 3D 그리드 프로젝트'를 오프라인에서 작업하여 벡터 방식으로 저장ㆍ전송해주는 방식을 채택하고 있다. 이렇게 '분할 영역 리스트'와 '의사 3D 그리드 프로젝트'가 사전에 작성ㆍ제공된 의류 모델 영상을 가지고 착의실험을 하면 사용자 입장에서 매우 편리하지만, 이것은 서비스 사업자에게 많은 오프라인 작업 부담을 줄 뿐만 아니라 사용자의 선택의 폭을 좁히는 부작용을 낳고 있다. 가령, 서비스 사업자가 제시한 의류 모델 영상 외에 사용자 자신의 사진을 업로드한 후, 원하는 직물 패턴을 착용시켜는 것과 같은 서비스를 제공하기 어려운 문제가 있다.
본 발명은 이러한 문제점을 해결하기 위해 안출된 것으로, 패션 디자인 분야에서 다양한 색이나 질감을 갖고 있는 완성된 의류를 착용하거나 전시한 상태를 담고 있는 2D 의류 모델 영상을 활용해 다양한 디지털 직물 원단을 가상적으로 드레이핑함으로써 새로운 디자인 개념과 절차를 창출할 수 있고, 직접 샘플이나 시제품을 제작하지 않고도 컴퓨터 시뮬레이션만으로 디지털 직물 원단의 착의상태를 근사적으로 확인할 수 있는 실사 기반 가상 드레이핑 시뮬레이션 방법을 제공함에 그 목적이 있다.
또한 다양한 디지털 환경에서 실시간 처리가 가능하고, 자연스럽고 사실적인 착용감을 제공할 뿐만 아니라 사용자의 수작업을 최대한 제거함으로써 편리한 사용자 인터페이스를 제공하는 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션의 반자동화 방법을 제공함에 또 다른 목적이 있다.
이와 같은 목적을 달성하기 위해 본 발명에 따른 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법은, 완성된 의류를 착용하거나 전시한 상태를 담고 있는 의류 모델 영상에서 원하는 의류 형상 영역을 분할하고, 다음으로 의류 형상 영역의 명도 성분에 대한 평균 명도값을 계산한 후, 의류 형상 영역에 포함된 각 화소의 명도값에서 평균 명도값을 감산하여 명도 차분 맵(intensity difference map)을 산출함으로써 의류 형상 영역의 음영 및 조명 특성을 추출하고, 이후, 사용자 입력이나 시스템 입력을 통해 의류 모델 영상의 의류 형상 영역에 가상적으로 착용시키고 싶은 직물 패턴이나 직물 색이 선택되면, '명도 차분 맵에 소정의 반영 비율을 곱한 값'과 '직물 패턴이나 직물 색의 명도 성분값'을 대응되는 화소단위로 합산한 후, 이 합산 결과값으로 의류 모델 영상 내 의류 형상 영역의 명도 성분값을 대체하고, 의류 형상 영역 내 채도 성분값과 색상 성분값은 상기 선택된 직물 패턴이나 직물 색의 채도 성분값과 색상 성분값으로 각각 대체하는 직물 텍스쳐 매핑(textile texture mapping)을 수행함으로써 디지털 직물 원단의 착의상태를 근사적으로 확인할 수 있는 것이 특징이다.
이하, 본 발명에 따른 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법의 바람직한 실시예를 첨부한 도 6을 참조하여 설명하면 다음과 같다.
본 발명에 따른 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법의 바람직한 실시예는 도 6에 도시한 바와 같이,
완성된 의류를 착용하거나 전시한 상태를 담고 있는 의류 모델 영상에서 원하는 의류 형상 영역을 분할하는 영상 분할 단계(S10)와;
상기 의류 형상 영역의 명도 성분에 대한 평균 명도값을 계산한 후, 상기 의류 형상 영역에 포함된 각 화소의 명도값에서 상기 평균 명도값을 감산하여 명도 차분 맵을 산출함으로써 상기 의류 형상 영역의 음영 및 조명 특성을 추출하는 명도 차분 맵 산출 단계(S20)와;
사용자 입력이나 시스템 입력을 통해 상기 의류 모델 영상의 의류 형상 영역에 가상적으로 착용시키고 싶은 직물 패턴이나 직물 색이 선택되면, 상기 명도 차분 맵에 소정의 반영 비율을 곱한 값과 상기 직물 패턴이나 직물 색의 명도 성분값을 대응되는 화소단위로 합산한 후, 상기 '명도 차분 맵에 소정의 반영 비율을 곱한 값'과 상기 '직물 패턴이나 직물 색의 명도 성분값'을 대응되는 화소단위로 합산한 후, 이 합산 결과값으로 상기 의류 모델 영상 내 의류 형상 영역의 명도 성분값을 대체하고, 상기 의류 형상 영역 내 채도 성분값과 색상 성분값은 상기 선택된 직물 패턴이나 직물 색의 채도 성분값과 색상 성분값으로 각각 대체하는 직물 텍스쳐 매핑을 수행하는 직물 텍스쳐 매핑 단계(S30) 및;
상기 직물의 패턴 크기 배율을 원하는 횟수만큼 가변시키면서 상기 직물 텍스쳐 매핑 단계(S30)를 반복적으로 수행하거나 또는 상기 직물 패턴이나 직물 색의 종류를 원하는 횟수만큼 변경하면서 상기 직물 텍스쳐 매핑 단계(S30)를 반복적으로 수행하거나 또는 상기 명도 차분 맵의 반영 비율 크기를 원하는 횟수만큼 가변시키면서 상기 직물 텍스쳐 매핑 단계(S30)를 반복적으로 수행하여 획득한 적어도 하나 이상의 매핑 결과 영상을 원하는 출력수단을 통해 출력하는 영상 출력 단계(S40)를 포함하는 것이 특징이다.
상기 영상 분할 단계(S10)는 상기 의류 모델 영상의 의류 영역 상에 위치한 임의의 씨앗 화소(seed pixel)를 사용자 입력을 통해 지정하는 영역 지정 단계(S11)와;
상기 의류 모델 영상의 윤곽선 정보를 유지하면서 명도값 분포를 단순화시키기 위해 상기 의류 모델 영상의 명도 성분을 대상으로 복원 기반 개방-폐쇄 연산(open-close by reconstruction)을 적용하여 상기 의류 모델 영상의 명도 성분을 단순화시키는 영상 단순화 단계(S12)와;
상기 씨앗 화소의 위치를 중심으로 명도 성분값이 유사한 인접 화소를 병합하는 영역 성장(region growing)을 통해 영상 분할을 수행하는 영역 성장 단계(S13) 및;
상기 영상 분할 영역에 인접한 의류 피스 영역이거나 비인접 의류 피스 영역을 같은 영역으로 병합시키고 싶을 경우, 추가 병합 의도를 알리는 특정한 조합 입력을 제공한 상태에서 원하는 의류 피스 영역을 대표할 수 있는 다른 씨앗 화소를 지정하면 상기 영역 성장을 통해 추가적으로 병합된 분할 결과를 제공하는 과정을 원하는 횟수만큼 반복적으로 수행하여 반자동적으로 의류 형상 영역을 분할하는 추가 병합 단계(S14)를 포함하는 것이 특징이다.
이하, 이와 같이 구성된 본 발명에 따른 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법의 바람직한 실시예의 수행 과정을 첨부된 도면을 참조하여 상세하게 설명하기로 한다.
우선, 본 발명의 바람직한 실시예에서는 의류 모델 영상에서 의류 형상 영역을 분할하거나 추출된 의류 영역에서 명도 차분 맵을 산출하고 이를 직물 패턴이나 직물 색을 합성할 시에 모두 명도 성분을 사용하기 때문에 RGB 컬러 모델을 사용하고 있을 경우, 입력된 컬러 영상을 HSI 컬러 모델로 변환할 필요가 있다. 물론 HSI 컬러 모델 외에도 HSV, YCbCr, YUV, YIQ, L*a*b* 등의 컬러 모델을 이용해서도 명도(휘도, 밝기) 성분을 산출할 수 있음은 주지의 사실이다. 수학식 1은 RGB 컬러 모델을 HSI 컬러 모델로 변환하는 수식을 나타낸 것이다.
Figure 112006070599976-pat00001
HSI 컬러 모델에서 2D 실사 기반 가상 드레이핑 시뮬레이션이 완료된 후, 그 결과를 디스플레이 장치를 통해 확인하기 위해서는 RGB 컬러 모델로의 변환이 필요하다. HSI 컬러 모델의 RGB 컬러 모델로의 변환은 색상(H: Hue) 영역이 어디에 존재하는가에 따라 다른데, 수학식 2는 색상이
Figure 112006070599976-pat00002
구간(
Figure 112006070599976-pat00003
)일 때의 식이다.
Figure 112006070599976-pat00004
다음으로, 수학식 3은 색상이
Figure 112006070599976-pat00005
구간(
Figure 112006070599976-pat00006
)일 때를 나타낸 것이다.
Figure 112006070599976-pat00007
수학식 4는
Figure 112006070599976-pat00008
구간(
Figure 112006070599976-pat00009
)일 때를 나타낸 것이다.
Figure 112006070599976-pat00010
Figure 112006070599976-pat00011
값은
Figure 112006070599976-pat00012
값을 정규화한 값들이기 때문에
Figure 112006070599976-pat00013
값을
Figure 112006070599976-pat00014
값으로 변환하기 위해서는 수학식 5를 사용하면 된다.
Figure 112006070599976-pat00015
의류 모델 영상이 RGB 컬러 모델을 사용하고 있을 경우, 이상과 같이 HSI 컬러 모델로 변환한 상태에서 본 발명의 바람직한 실시예의 영상 분할 단계(S10)에서는 완성된 의류를 착용하거나 전시한 상태를 담고 있는 의류 모델 영상에서 원하는 의류 형상 영역을 분할한다.
이때, 의류 형상 영역은 공지된 다양한 영상 분할 기술들 중 어느 하나를 사용하여 추출할 수도 있고, D&M 테크놀로지의 VWS와 같이 사용자가 외부 입력을 통해 분할하고 싶은 의류 영역의 경계선을 따라 가면서 마우스 클릭으로 정점들을 일일이 찍어서 분할할 수도 있다. 또한 컬러 정보를 사용하는 컬러 영상 분할을 수행할 수도 있고 명도 성분만을 사용하는 영상 분할을 수행할 수도 있다.
본 발명에서 영상 분할 특성은 자연스럽고 사실적인 직물 매핑 결과에 결정적인 영향을 미칠 뿐만 아니라 본 과제의 근간이 된다. 그러나 지금까지 다수의 영상 분할 알고리즘이 제안되어 있지만 2차원 영상의 특징상, 배경의 복잡도나 대비도와 무관하게 원하는 의류 객체를 자동으로 완벽하게 추출할 수 있는 영상 분할 기술은 존재하지 않는다. 따라서, 본 발명은 이미 의류 영역의 형상 윤곽을 사전에 알고 있거나 또는 블루스크린과 같은 매우 단순한 배경 위에 전경이 존재하는 의류 모델 영상을 이용할 경우에 좀 더 양호한 결과를 얻을 수 있다. 물론 영상 분할 과정에 사용자 입력을 사용하는 경우이거나 그 응용 분야의 특성 상 완벽한 형상 윤곽을 사용하지 않아도 될 경우에는 좀 더 복잡한 배경을 갖고 있거나 대비도가 낮은 의류 모델 영상을 사용할 수도 있을 것이다. 그렇지만 인터넷 의류 쇼핑몰이나 패션 잡지 등에서 사용하는 통상의 의류 모델 영상의 경우, 비교적 양호한 조명 조건과 단순한 배경에서 촬영하는 경우도 많기 때문에 소정의 사용자 입력을 사용하는 반자동 영상 분할 기법을 적절하게 적용하면 비교적 실용적이면서도 양호한 결과를 얻을 수 있다. 이에 따라 본 발명의 바람직한 실시예에서도 소정의 사용자 입력을 사용하는 반자동 의류 형상 분할 기법을 채택하고 있다.
본 발명의 바람직한 실시예의 영상 분할 단계(S10)의 수행 과정을 첨부한 도면을 참고하여 상세하게 설명하기로 한다.
우선, 영역 지정 단계(S11)에서는 상기 의류 모델 영상의 의류 영역 상에 위치한 임의의 씨앗 화소를 사용자 입력을 통해 지정한다. 예컨대, 사용자 입력은 마우스 클릭이 적절하고, 씨앗 화소는 마우스 클릭으로 해당 의류 영역을 대표할 수 있는 화소를 선택하는 것이 바람직하다.
다음으로, 영상 단순화 단계(S12)에서는 상기 의류 모델 영상의 윤곽선 정보를 유지하면서 명도값 분포를 단순화시키기 위해 상기 의류 모델 영상의 명도 성분을 대상으로 복원 기반 개방-폐쇄 연산(open-close by reconstruction)을 적용하여 상기 의류 모델 영상의 명도 성분을 단순화시킨다. 수리 형태학 연산(mathematical morphological operation)의 일종인 복원 기반 개방-폐쇄 연산을 적용한 방법 외에도 저주파 필터링에 기초한 다양한 영상 단순화 방법이 있을 수 있으나 본 발명에서는 바람직한 실시예로서 이를 좀 더 상세하게 설명하면 다음과 같다.
영상 내에는 작은 영역 및 잡음과 같은 미세 정보가 많이 존재한다. 영상 분할 시, 이러한 미세 정보를 제거하는 전처리 과정을 거치지 않으면 너무 많은 영역들로 분할되는 과분할 문제가 발생된다. 따라서 영상 분할을 용이하게 하기 위해 영상내 경계 정보를 유지하면서 미세 정보를 제거하는 단순화 과정을 거친다. 본 발명의 영상 단순화 단계(S12)의 바람직한 실시예에서는 영역 내 화소의 명도값을 평활화시키면서도 윤곽선 정보는 유지하는 것으로, 기 공지되어 당 분야에 잘 알려진 바 있는 복원 기반 개방-폐쇄 연산(open-close by reconstruction)을 사용한다. 사용된 형태소(structuring element)의 크기가 너무 클 경우에는 영상의 평탄화 정도가 양호하여 분할되는 영역의 수를 줄일 수 있으나, 화소간 명도의 세기가 비슷한 영역 및 셋 이상의 영역이 만나는 곳 등에서 윤곽선을 제대로 찾지 못하는 단점이 있다. 반면, 형태소의 크기가 너무 작을 경우에는 질감 영역과 같은 부분에서 과분할 현상을 야기하는 문제가 있다. 즉, 수리적 형태학을 이용한 알고리즘의 단순화 과정은 형태소에 따라 영상의 분할 결과가 상당히 민감하다는 단점이 있다. 따라서 영상 특성에 알맞은 적절한 형태소를 선정하는 것이 매우 중요하다. 본 발명에서 사용하고 있는 복원 기반 개방-폐쇄 연산(open-close by reconstruction)은 P. Salemier와 M. Pardas가 1994년 9월, IEEE Transactions on Image Processing 제3권 제5호에 "Hierarchical Morphological Segmentation for Image Sequence Coding"의 제목으로 이미 발표한 논문에 공지된 것이며, 설명의 편의상 이에 대한 좀 더 상세한 설명은 본원의 말미에 후술하기로 한다.
본 발명의 영상 단순화 단계(S12)에서는 의류 모델 영상의 명도값을 대상으로 소정 크기(예컨대, 5× 5)의 형태소(structuring element)를 이용한 복원 기반 개방-폐쇄 연산(open-close by reconstruction)에 의한 단순화 필터를 적용하여 윤곽선 정보를 보존하면서 영역내의 명도값 분포를 평탄화함으로써 분할을 용이하게 한다. 복원 기반 개방-폐쇄 연산은 형태소 크기보다 작은 밝은 영역을 제거해주는 복원 기반 개방 연산(open by reconstruction) 단계와, 형태소 크기보다 작은 어두운 영역을 제거해주는 복원 기반 폐쇄 연산(close by reconstruction) 단계으로 구성된다.
우선, 복원 기반 개방 연산 단계에서는 의류 모델 영상을 입력받아 침식 연산(erosion operation)과 팽창 연산(dilation operation)을 순차적으로 수행하는 형태학적 개방 연산(morphological opening operation)을 수행한 후, 그 결과 영상을 대상으로 원래의 의류 모델 영상을 기준(reference)으로 삼아 측지 팽창 연산(geodesic dilation operation)을 반복ㆍ수행하여 각 회차들 간의 결과 변화가 매우 작은 기준치 이하가 될 때까지 지속하는 팽창 기반 복원 연산(reconstruction by dilation)을 수행한다. 여기서 말하는 기준치는 각 회차들 간의 결과 변화가 거의 없음을 판단하는 척도로서, 본 발명이 바람직한 실시예에서는 0.1을 사용하고 있다. 다시 말해서, 각 회차들 간의 화소값의 변화 차이가 평균적으로 0.1 이하가 될 때까지 팽창 기반 복원 연산(reconstruction by dilation)을 지속한다. 0.1보다 작은 값을 사용할 수도 있고 이보다 다소 큰 값을 사용할 수도 있으나 너무 작은 값을 사용할 경우에 성능 향상에 비해 반복 회차가 과도하게 증가하기 때문에 연산 시간 측면에서 부담이 될 수 있다.
다음으로, 복원 기반 폐쇄 연산 단계에서는 상기 팽창 기반 복원 연산의 결과 영상에 대해 팽창 연산과 침식 연산을 순차적으로 수행하는 형태학적 폐쇄 연산(morphological closing operation)을 수행한 후, 그 결과 영상을 대상으로, 팽창 기반 복원 연산의 결과 영상을 기준 삼아 측지 침식 연산(geodesic erosion operation)을 반복ㆍ수행하여 각 회차들 간의 결과 변화가 매우 작은 기준치 이하가 될 때까지 지속하는 침식 기반 복원 연산(reconstruction by erosion)을 수행한다. 앞에서와 마찬가지로 여기서 말하는 기준치는 각 회차들 간의 결과 변화가 거의 없음을 판단하는 척도로서, 본 발명이 바람직한 실시예에서는 0.1을 사용하고 있다. 다시 말해서, 각 회차들 간의 화소값의 변화 차이가 평균적으로 0.1 이하가 될 때까지 침식 기반 복원 연산(reconstruction by erosion)을 지속한다. 통상의 형태학적 개방-폐쇄 연산이 윤곽선 정보의 손실을 초래하는 것과 달리 복원 기반 개방-폐쇄 연산(open-close by reconstruction)은 영역의 윤곽선 정보를 가능한 보존하면서 단순화시키는 장점이 있다. 도 7은 복원 기반 개방-폐쇄 연산에 의한 영상 단순화 과정에 따른 결과 영상을 나타낸 것으로, 형태소의 크기에 따라 단순화 정도를 결정할 수 있음을 예시한 것이다.
다음으로, 영역 성장 단계(S13)에서는 상기 씨앗 화소의 위치를 중심으로 명도 성분값이 유사한 인접 화소를 병합하는 영역 성장(region growing)을 통해 영상 분할을 수행한다. 이를 좀 더 상술하면, 우선, 씨앗 화소값과 인접화소값의 명도 차이가 기 설정된 임계치 이하일 경우 이를 서로 병합한 후에 병합된 화소들의 평균값을 산출한다. 산출된 평균값과 이 병합 화소들의 인접화소값의 명도 차이가 기 설정된 임계치 이하일 경우 이를 또한 병합한 후에 병합된 화소들의 평균값을 재산출하는 과정을 더 이상 병합 가능한 인접화소가 존재하지 않을 때까지 반복함으로써 영역 성장 과정이 진행되고 이를 통해 도 8(a)와 같은 분할 결과를 얻을 수 있다.
다음으로, 추가 병합 성장 단계(S14)에서는 상기 영상 분할 영역에 인접한 의류 피스 영역이거나 비인접 의류 피스 영역을 같은 영역으로 병합시키고 싶을 경우, 추가 병합 의도를 알리는 특정한 조합 입력을 제공한 상태에서 원하는 의류 피스 영역을 대표할 수 있는 다른 씨앗 화소를 지정하면 상기 영역 성장을 통해 추가적으로 병합된 분할 결과를 제공하는 과정을 원하는 횟수만큼 반복적으로 수행하여 반자동적으로 의류 형상 영역을 분할한다.
예컨대, 도 8(a)는 우측 가슴판에 대한 분할 결과인 바, 비인접 의류 피스 영역인 좌측 가슴판도 같은 영역으로 병합하여 분할하고 싶은 경우, 이러한 의도를 알려주는 특정한 조합키(예컨대, 쉬프트 키)를 누른 상태에서 해당 의류 영역을 대표할 수 있는 다른 씨앗 화소를 지정하면 영역 성장을 통해 그림 8(b)와 같이 선택적으로 병합된 분할 결과를 획득할 수 있다. 그러나 그림 8(b)의 좌측 가슴판 영역은 목 근처의 미소 영역이 미분할된 것을 발견할 수 있는데, 이 영역을 분할하여 병합하고 싶을 경우 쉬프트 키를 누른 상태에서 해당 의류 영역을 대표할 수 있는 또 다른 씨앗 화소를 지정하면 영역 성장을 통해 그림 8(c)와 같이 병합된 분할 결과를 획득할 수 있다. 이상과 같은 선택적 병합 분할 과정을 수행할 시에 인접화소들의 병합 여부를 판정하는 임계값을 필요에 따라 원하는 값으로 변경ㆍ조정할 수도 있다.
앞서 언급한 바와 같이 2차원 영상의 특징상, 배경의 복잡도나 대비도와 무관하게 만족스러운 분할 결과를 얻는 것은 용이하지 않은 바, 2D 의류 모델 영상을 선택할 시에 이러한 특성을 감안할 필요가 있다.
이어서, 명도 차분 맵 산출 단계(S20)에서는 상기 의류 형상 영역의 명도 성분에 대한 평균 명도값을 계산한 후, 상기 의류 형상 영역에 포함된 각 화소의 명도값에서 상기 평균 명도값을 감산하여 명도 차분 맵을 산출함으로써 상기 의류 형상 영역의 음영 및 조명 특성을 추출한다.
통상, 2D 영상은 3D 실세계의 장면을 2D 촬상 소자 평면에 시각적으로 투영한 것이기 때문에 그 영상이 촬영된 당시의 3D 장면 속에 존재했었던 모든 시각 정보, 즉, 객체와 배경의 3D 형상, 질감, 깊이, 거리, 촬영 시의 조명 조건 등과 같은 정보를 모두 담을 수가 없다. 하지만 2D 영상에서 음영 및 조명 특성을 적절하게 정의하여 추출하면 상실된 3D 정보를 부분적 또는 근사적으로 재현할 수 있다.
본 방명에서는 2D 의류 모델 영상의 의류 형상 영역에 대한 명도 차분 맵(intensity difference map)을 이용하여 해당 영역의 음영 및 조명 특성을 추출한 후, 사용자가 선택한 직물 패턴에 이 명도 차분 맵이 갖고 있는 음영 및 조명 특성을 적용한 결과 패턴을 의류 모델에게 착용시킴으로써 매우 사실감이 높고 자연스러운 가상 착의 결과를 얻을 수 있다. 여기서 말하는 '음영 및 조명' 특성은 특정한 조명 조건 하에서 모델 의류의 주름, 접힘, 구김새, 신장, 모양, 무게, 충돌, 겹침, 눌림 등에 대한 시각적 투영에 기인한 것이다.
본 발명의 바람직한 실시예의 명도 차분 맵의 산출 과정을 살펴보면 다음과 같다.
우선, 의류 모델 영상을 HSI 컬러 모델로 변환하여 명도 성분 영상I(intensity)을 산출한다. 이후, 수학식 6과 같이 의류 모델 영상의 명도 성분 영상
Figure 112006070599976-pat00016
에서 의류 형상 영역의 평균 명도값
Figure 112006070599976-pat00017
을 계산한 후, 의류 형상 영역에 포함된 각 화소의 명도값에서 평균 명도값
Figure 112006070599976-pat00018
을 감산하여 명도 차분 맵
Figure 112006070599976-pat00019
을 산출한다. 수학식 7은 의류 모델 영상에서 추출한 의류 형상 영역의 명도 차분 맵
Figure 112006070599976-pat00020
을 나타낸 것이다. 수학식 6과 수학식 7에서
Figure 112006070599976-pat00021
Figure 112006070599976-pat00022
는 각 의류 형상 영역
Figure 112006070599976-pat00023
에 포함된 화소의 수평 좌표 및 수직 좌표를 가리키는 것이고,
Figure 112006070599976-pat00024
는 해당 의류 형상 영역의 화소수를 의미하는 것으로, 이때
Figure 112006070599976-pat00025
는 의류 형상 영역이 복수의 영역으로 구성되어 있을 시에 이를 구별하여 인덱싱(indexing)하기 위한 변수이다.
Figure 112006070599976-pat00026
Figure 112006070599976-pat00027
이해의 편의를 도모하기 위해 제시하면, 의류 모델 영상의 전체에 대한 명도 차이 맵은 수학식 8을 이용하면 구할 수 있다. 수학식 8에서
Figure 112006070599976-pat00028
Figure 112006070599976-pat00029
은 각각 의류 모델 영상의 수평 화소수 및 수직 화소수이다.
Figure 112006070599976-pat00030
이어서, 직물 텍스쳐 매핑 단계(S30)에서 사용자 입력이나 시스템 입력을 통해 상기 의류 모델 영상의 의류 형상 영역에 가상적으로 착용시키고 싶은 직물 패턴이나 직물 색이 선택되면, 수학식 9와 같이 상기 명도 차분 맵에 소정의 반영 비율
Figure 112008005064478-pat00031
을 곱한 값과 상기 직물 패턴이나 직물 색의 명도 성분값을 대응되는 화소단위로 합산한 후, 상기 의류 모델 영상 내 상기 의류 형상 영역의 명도 성분값을 상기 합산 결과값으로 대체한다. 그리고, 상기 의류 형상 영역 내 채도 성분값과 색상 성분값은 상기 선택된 직물 패턴이나 직물 색의 채도 성분값과 색상 성분값으로 각각 대체하는 직물 텍스쳐 매핑을 수행함으로써 직물 텍스쳐 매핑을 모두 수행한다. 다시 말해서 가상적으로 착용시키고 싶은 직물 패턴이나 직물 색의 명도 성분값에만 명도 차분 맵을 통해 음영 특성(즉, 주름이나 구김새의 깊이감 등)이 반영되도록 조치한다. 하지만 채도 성분값과 색상 성분값은 아무런 변형 없이 각각 착용시키고 싶은 직물 패턴이나 직물 색의 채도 성분값과 색상 성분값을 그대로 갖다가 사용한다.
Figure 112006070599976-pat00032
상기 소정의 반영 비율
Figure 112008005064478-pat00033
는 수학식 10과 같이, 수학식 6에서 의류 형상 영역의 평균 명도값
Figure 112008005064478-pat00034
로, 상기 의류 형상 영역에 화소단위로 대응되는 직물 패턴이나 직물 색 영역의 평균 명도값
Figure 112008005064478-pat00035
를 나눗셈한 후에 자연로그(natural logarithm)를 취한 값과 소정의 가산 상수
Figure 112008005064478-pat00036
를 합산하여 산출한다. 그리고 직물 패턴 영역의 평균 명도값
Figure 112008005064478-pat00038
는 수학식 11을 이용하여 구한다. 이때,
Figure 112008005064478-pat00039
는 직물 패턴이나 직물 색의 명도 성분 영상을 의미한다. 본 발명의 바람직한 실시예에서 가산 상수
Figure 112008005064478-pat00058
는 2.5를 사용한다. 여기서 2.5는 일종의 바이어스 상수 값(bias constant value)으로서 실험적으로 결정한 값이다. 수학식 11에서 평균 명도 비율이 '1'일 될 경우에 자연로그 항의 값이 '0'이 되기 때문에 이론적으로 볼 때 가산 상수
Figure 112008005064478-pat00059
는 '1'로 정하는 것이 일반적인 결정법이라고 할 수 있다. 그러나
Figure 112008005064478-pat00060
는 명도 차분 맵을 통해 주름이나 구김새의 깊이감을 반영하는 배율 값이기 때문에 음영 특성의 대비도를 높이기 위해서는 가산 상수
Figure 112008005064478-pat00061
를 '1'보다 소폭 큰 값으로 선정하는 것이 주관적인 만족도를 높일 수 있다. 그렇지만 과도하게 큰 값을 사용할 경우, 화소의 최대값 혹은 최소값 범주를 넘어설 수 있고 음영 특성의 대비도가 불필요하게 강조되어 필요 이상의 왜곡이 발생되기 때문에 적정한 범위 내의 값을 사용해야 한다. 이에 대한 조작성을 좀 더 높이고 최적의 해를 구하는 방법에 대한 제시 측면에서 본 발명은 다소 미진하다고 할 수 있다. 다만 컴퓨터 시뮬레이션에 따르면, 가산 상수
Figure 112008005064478-pat00062
는 1보다는 크거나 같고 3.5보다는 작거나 같은 범위 내에서 결정되는 것이 주관적인 만족도를 높일 수 있다. 이를 토대로 본 발명의 바람직한 실시예에서는 평균적으로 양호한 결과를 제공하는 2.5를 가산 상수
Figure 112008005064478-pat00063
값으로 정하여 사용하고 있다. 또한 자연로그 항을 사용함으로써 직물 패턴의 평균 밝기와 모델 의류의 평균 밝기 비율에 따라 음영 특성의 반영 비율을 대수적으로 가변시켜 주름이나 구김새의 깊이감을 적응적으로 조절할 수 있다.
Figure 112006070599976-pat00040
Figure 112006070599976-pat00041
최종적으로, 영상 출력 단계(S40)에서는 상기 직물의 패턴 크기 배율을 원하는 횟수만큼 가변시키면서 상기 직물 텍스쳐 매핑 단계(S30)를 반복적으로 수행하거나 또는 상기 직물 패턴이나 직물 색의 종류를 원하는 횟수만큼 변경하면서 상기 직물 텍스쳐 매핑 단계(S30)를 반복적으로 수행하거나 또는 상기 명도 차분 맵의 반영 비율 크기를 원하는 횟수만큼 가변시키면서 상기 직물 텍스쳐 매핑 단계(S30)를 반복적으로 수행하여 획득한 적어도 하나 이상의 매핑 결과 영상을 원하는 출력수단을 통해 출력한다. 이때, 출력 수단은 표시 장치, 저장 장치, 전송 장치 등을 그 예로 들 수 있다.
다시 말해서, 직물의 패턴 크기 배율, 직물 패턴이나 직물 색의 종류, 명도 차분 맵의 반영 비율을 다양하게 가변시키면서 직물 텍스쳐 매핑을 수행하여 원하는 매핑 결과 영상을 획득할 수 있다. 이렇게 획득한 매핑 결과 영상을 디스플레이 또는 저장하거나 응용 서비스와 용도에 따라 원격지에 전송하는 등의 출력을 수행할 수 있다.
예컨대, 이상과 같은 과정으로 직물 텍스쳐 매핑을 수행하여 산출한 의류 모델 영상의 명도 성분(I : Intensity channel)과 의류 모델 영상의 원 색상 성분(H : Hue channel) 및 원 채도 성분(S : Saturation channel)을 HSI 컬러 모델에서 RGB 컬러 모델으로 변환함으로써 디스플레이용의 최종 결과 영상을 얻을 수 있다.
이상의 과정을 통해 의류 형상 영역의 명도 차분 맵을 이용하여, 추출된 의류 형상 영역이 갖고 있던 음영과 주름 및 구김 현상을 그대로 유지한 상태에서 사용자가 선택한 디지털 직물 원단의 질감, 색감 및 문양 패턴을 그 위에 재현하는 실사를 이용한 가상적인 착의 실험을 수행할 수 있다. 이를 이용하면 시제품이나 샘플 제작 이전에 컴퓨터 시뮬레이션으로 디지털 직물 원단의 착의 상태를 근사적으로 예측할 수 있다.
한편, 앞서 언급한 바와 같이 본 발명에서 사용하고 있는 복원 기반 개방-폐쇄 연산(open-close by reconstruction)은 P. Salemier와 M. Pardas에 의해 1994년 9월, IEEE Transactions on Image Processing 제3권 제5호에 논문 제목 "Hierarchical Morphological Segmentation for Image Sequence Coding"으로 기 발표된 것이지만 본 발명의 좀 더 깊은 이해를 돕게 위해 수식을 통해 상술하기로 한다.
형태학적 처리는 영상의 기본적인 특성을 유지하면서 형태에 변화를 주는 처리를 의미하는 것으로, 대표적인 형태학적 연산은 침식 연산과 팽창 연산이 있다. 침식 연산(erosion operation)과 팽창 연산(dilation operation)은 각각 수학식 12의 Erosion 식과 Dilation 식과 같이 정의할 수 있다.
Figure 112008005064478-pat00064

여기서
Figure 112008005064478-pat00065
는 입력 영상을,
Figure 112008005064478-pat00066
은 필터 윈도우(형태소)를 나타낸 것이다. 이때
Figure 112008005064478-pat00067
은 그 윈도우의 크기를 말한다.
한편, 크기 1의 측지 팽창 연산(geodesic dilation of size one)은 수학식 13의 Geodesic dilation of size one 식처럼 입력 영상
Figure 112008005064478-pat00068
에 대한 크기 1의 팽창 연산 결과값과 기준 함수값
Figure 112008005064478-pat00069
중 최소값을 취한 것으로 정의된다. 또한 크기 1의 측지 침식 연산(geodesic erosion of size one)은 수학식 13의 Geodesic erosion of size one 식과 같이 측지 팽창 연산의 쌍대성(duality)으로 정의할 수 있다. 여기서 크기 1은 이산 공간에서 가장 작은 크기를 의미하는 것이다.
Figure 112008005064478-pat00070

임의의 크기의 측지 팽창 및 측지 침식 연산은 크기 1의 측지 팽창 및 측지 침식 연산의 반복(iteration)에 의해 정의된다. 예컨대, 팽창 기반 복원 연산(reconstruction by dilation)으로 지칭되는 무한한 크기의 측지 팽창 연산은 수학식 14의 Reconstruction by dilation 식과 같고, 침식 기반 복원 연산(reconstruction by erosion)으로 불리는 무한 크기의 측지 침식 연산은 수학식 14의 Reconstruction by erosion 식과 같다.
Figure 112008005064478-pat00071

형태학적 개방 연산(morphological opening)은 수학식 15의 Morphological opening 식처럼 침식 연산을 적용한 다음에 팽창 연산을 적용하고, 형태학적 폐쇄 연산(morphological closing)은 수학식 15의 Morphological closing 식과 같이 열림 연산과 반대로 먼저 팽창 연산을 적용한 다음에 침식 연산을 적용하는 연산이다.
Figure 112008005064478-pat00072

복원 기반 개방 연산(opening by reconstruction of erosion)은 수학식 16의 Open by reconstruction of erosion 식처럼 입력 영상을 대상으로 침식 연산과 팽창 연산을 순차적으로 수행하는 형태학적 개방 연산을 수행한 후, 그 결과값과 원 입력 연상의 화소값을 대상으로 무한한 크기의 측지 팽창 연산을 수행하는 것이다. 복원 기반 폐쇄 연산(closing by reconstruction of dilation)은 수학식 16의 Closing by reconstruction of dilation 식과 같이 팽창 연산과 침식 연산을 순차적으로 수행하는 형태학적 폐쇄 연산을 수행한 후에 그 결과값과 원 입력 연상의 화소값을 대상으로 무한 크기의 측지 침식 연산을 수행한다.
Figure 112008005064478-pat00074

이때 이론적으로 가능하지만 물리적으로는 무한한 크기의 측지 팽창 연산 혹은 측지 침식 연산을 수행할 수 없기 때문에 이를 다음과 같이 근사화하여 계산하는 것이 일반적이다.
다시 말해서, 복원 기반 개방 연산(opening by reconstruction of erosion)은 의류 모델 영상을 입력받아 침식 연산(erosion operation)과 팽창 연산(dilation operation)을 순차적으로 수행하는 형태학적 개방 연산(morphological opening operation)을 수행한 후, 그 결과 영상을 대상으로 원래의 의류 모델 영상을 기준(reference)으로 삼아 측지 팽창 연산(geodesic dilation operation)을 반복ㆍ수행하여 각 회차들 간의 결과 변화가 매우 작은 기준치(예컨대 0.1) 이하가 될 때까지 지속하는 팽창 기반 복원 연산(reconstruction by dilation)을 수행하는 것이다. 그리고, 복원 기반 폐쇄 연산(closing by reconstruction of dilation)은 상기 팽창 기반 복원 연산의 결과 영상에 대해 팽창 연산과 침식 연산을 순차적으로 수행하는 형태학적 폐쇄 연산(morphological closing operation)을 수행한 후, 그 결과 영상을 대상으로, 팽창 기반 복원 연산의 결과 영상을 기준 삼아 측지 침식 연산(geodesic erosion operation)을 반복ㆍ수행하여 각 회차들 간의 결과 변화가 매우 작은 기준치(예컨대 0.1) 이하가 될 때까지 지속하는 침식 기반 복원 연산(reconstruction by erosion)을 수행하는 것이다. 참고로, 여기서 말하는 매우 작은 기준치는 각 회차들 간의 결과 변화가 거의 없음을 판단하는 척도임을 전술한 바 있다.
본 발명에서 사용하는 복원 기반 개방-폐쇄 연산(open-close by reconstruction)은 복원 기반 개방 연산(opening by reconstruction of erosion)과 복원 기반 폐쇄 연산(closing by reconstruction of dilation)을 순차적으로 수행하도록 구성되어 있다. 복원 기반 개방-폐쇄 연산(open-close by reconstruction)은 영상 분할 전에 영상의 주요한 윤곽 골격은 유지하면서 세력이 약한 윤곽 정보들은 단순화시키는 역할을 담당하는 것으로, 이를 통해 과분할이 억제된 양호한 분할 결과를 획득하기 위한 영상 분할의 전처리 과정이라고 말할 수 있다.
본 발명의 바람직한 실시예에서 의류 형상 영역의 명도 차분 맵을 이용하여 조명과 음영 특성을 추출할 시에 의류 형상 영역의 색에는 무관하지만 의류 모델의 직물 패턴에는 영향을 받는다. 따라서 본 발명의 바람직한 실시예는 상기 의류 형상 영역의 직조 패턴을 제거하기 위해 평균 필터(mean filter), 가우시안 필터(Gaussian filter), 측지 기반 형태학 저주파 필터(geodesic morphological low-pass filter) 중 적어도 어느 하나의 저주파 통과 필터(low-pass filter)를 사용하거나 솔트-페퍼 노이즈(salt and pepper noise)를 제거하는 미디안 필터(median filter)를 단독 또는 선택적으로 결합하여 필터링을 수행하는 직조 패턴 필터링 단계를 더 포함할 수 있다.
삭제
삭제
측지 기반 형태학 저주파 필터(geodesic morphological low-pass filter)는 본 발명의 바람직한 실시예의 영상 단순화 과정에서 사용한 형태학 필터(morphological filter)인 복원 기반 개방-폐쇄 연산(open-close by reconstruction)을 통해 용이하게 구현할 수 있다.
한편, 직물 패턴 영상의 텍셀(texel)의 크기를 조정하기 위해 가변 탭 필터 기반 디지털 영상 보간 기술을 활용하여 직물 패턴에 대한 확대 및 축소를 선택적으로 수행할 수 있다.
본원에서 말하는 '음영 및 조명 특성'은 특정한 조명 조건 하에서 모델 의류의 주름, 접힘, 구김, 겹침, 눌림, 굴곡, 충돌, 신장, 모양, 맵시, 부착물, 재봉 상태 등에 대한 2차원 시각 투영을 반영하는 특성이다.
도 9는 본 발명의 바람직한 실시예를 소프트웨어로 구현한 VirtualCODY 1.0의 시작 화면을 나타낸 것이고, 도 10 및 도 11은 본 발명의 바람직한 실시예를 이용한 직물 패턴의 가상 착의 과정의 일례들을 나타낸 것이다. 또한 도 12~도 16은 본 발명의 바람직한 실시예를 다양한 의류 모델 영상에 적용한 사례들을 예시한 것으로, 각 도면에서 좌상단 영상이 의류 모델 영상이고, 나머지 영상은 직물 텍스쳐 매핑을 통해 생성한 매핑 결과 영상들이다. 이를 통해 전체적으로 자연스럽고 사실적인 가상 착의 결과를 얻을 수 있음을 알 수 있다.
본 발명에서는 이와 같은 2D 실사에 기반한 가상적인 착의 실험을 통해 시제품이나 샘플 제작 이전에 디지털 직물 원단의 착의 상태를 근사적으로 예측할 수 있다. D&M 테크놀로지의 VWS가 흰색 의류만을 의류 모델 영상으로 사용할 수 있는 것에 반해 본 발명의 바람직한 실시예는 모델 의류의 색과 명도에 무관하게 적용할 수 있을 뿐만 아니라 모델 의류의 직조 패턴에 따른 영향도 필터링을 통해 억제할 수 있고, 직물 패턴의 밝기 정도에 따라 조명과 음영 특성의 반영 비율을 대수적으로 가변시켜 주름이나 구김새의 깊이감을 적응적으로 조절할 수 있으며, 의류 형상 영역을 분할·추출할 시에 사용자의 수작업을 최소화할 수 있다는 것이 장점이다.
본 발명은 다양한 디지털 환경에서 실시간 처리가 가능하고, 자연스럽고 사실적인 착용감을 제공할 뿐만 아니라 사용자의 수작업을 최대한 제거한 반자동화 과정을 통해 디자이너의 시행착오를 줄이면서도 편리한 사용자 인터페이스를 제공할 수 있는 것이 특징이다.
평면적인 옷감을 입체적인 체형에 착용시켰을 때 나타나는 구김, 접힘, 주름, 모양, 맵시, 자태 등을 컴퓨터 시뮬레이션을 통해 가상적으로 재현함으로써 직물 디자이너(textile designer)의 창작활동을 지원할 수 있고, 온라인상에서 직물 원단이나 의류를 매매할 시에 구매자의 신속한 의사결정을 지원하여 B2B 또는 B2C 전자상거래 행위를 촉진할 수 있다.
또한 비전문가인 소비자 수준에서도 자신이 원하거나 또는 자신에게 어울리는 직물 패턴을 원하는 의류 형상에 착의시킨 결과를 저장하거나 전송할 수 있기 때문에 소비자와 생산자 간의 직물 패턴에 관련된 의사소통과 거래서비스의 수준을 직물 원단에서부터 완성 의복까지 그 범위를 넓힐 수 있고, 기성복이나 맞춤복 모두에 대해 소비자가 자신의 취향에 어울리는 직물 패턴을 용이하게 선택하고 디자인하여 주문제작을 수행하는 거래환경을 조성할 수 있다. 더불어 직물 패턴을 입력하여 자신의 옷을 주문하는 방식으로, 고객의 취향과 용도에 맞는 의상을 제작의뢰 할 수 있고 소비자에게 선택의 자유를 넓혀주는 차별화 정책을 실시함으로써 고객에게 신뢰감을 심어줄 수 있다.
이상에서 사용되는 의류 모델 영상은 패션쇼 영상, 패션 일러스트 영상, 도식화 영상, 디지털 사진 영상 등이 될 수 있고, 직물 패턴 영상(textile pattern image)은 직물 CAD 데이터, 직물 스캔 데이터, 각종 영상 파일, 각종 직물 합성 데이터 등을 사용할 수 있다.
본 발명의 바람직한 실시예를 응용하여 온라인 직물 디자인 반응 조사, 가상 의류 전시, 가상 자동차 도장 디자인, 가상 상품 포장 디자인, 가상 벽지 디자인 분야 등에 적합한 기술을 조기에 개발하여 접목할 수도 있다. 더 나아가 가상 드레이핑 시뮬레이션, 의류 상품 전자 카탈로그, 가상 의류 전시회, 디지털 특수효과, 컴퓨터 게임, 캐릭터 디자인, 2D/3D 가상 사이버 패션쇼, 사이버 캐릭터 생성, 2D/3D 애니메이션의 저작, DTV 컨텐츠 저작, 사용자 친화형 아이콘 제작, 가상 완구 디지인 등과 같은 연구 주제들과 기술적인 결합이나 확장을 도모할 수 있을 것으로 예견되는 바, 다양한 기술적 파급 효과와 산업상의 이용가능성을 창출할 수 있을 것으로 판단된다.
본원에서 사용되는 용어(terminology)들은 본 발명에서의 기능을 고려하여 정의 내려진 용어들로써 이는 당분야에 종사하는 기술자의 의도 또는 관례 등에 따라 달라질 수 있으므로 그 정의는 본원의 전반에 걸친 내용을 토대로 내려져야 할 것이다.
또한, 본 발명은 패션 디자인 분야 외에도 이와 유사한 분야에 용이하게 변형하여 적용할 수 있으며, 본원에서는 본 발명의 바람직한 실시예를 통해 본 발명을 설명했으므로 본 발명의 기술적인 난이도 측면을 고려할 때, 당분야에 통상적인 기술을 가진 사람이면 용이하게 본 발명에 대한 또 다른 실시예와 다른 변경을 가할 수 있으므로, 상술한 설명에서 사상을 인용한 실시예와 변형은 모두 본 발명의 청구 범위에 모두 귀속됨은 명백하다.
이상에서 설명한 바와 같이 본 발명에 따르면, 다양한 디지털 환경에서 실시간 처리가 가능하고 자연스럽고 사실적인 착용감을 제공할 뿐만 아니라 사용자의 수작업을 최대한 제거한 반자동화 처리가 가능하기 때문에 높은 실용성과 편리한 사용자 인터페이스를 제공할 수 있다.
본 발명에 따르면, 실제 의복을 제작하지 않은 상태에서도 직물 원단의 디자인이 의복의 외관에 미치는 영향을 시뮬레이션할 수 있음에 따라 직물 디자이너의 창작활동을 도와줄 수 있고, 온라인상에서 직물 원단이나 의류를 거래할 시에 구매자의 의사결정을 지원해 B2B 또는 B2C 전자상거래 행위를 촉진할 수 있다. 더불어 기성복이나 맞춤복 모두에 대해 소비자가 자신의 취향에 어울리는 직물 패턴을 용이하게 선택하고 디자인하여 주문제작을 수행하는 거래환경을 조성할 수 있는 효과가 있다.

Claims (5)

  1. 완성된 의류를 착용하거나 전시한 상태를 담고 있는 의류 모델 영상에서 원하는 의류 형상 영역을 분할하는 영상 분할 단계와;
    상기 의류 형상 영역의 명도 성분에 대한 평균 명도값을 계산한 후, 상기 의류 형상 영역에 포함된 각 화소의 명도값에서 상기 평균 명도값을 감산하여 명도 차분 맵을 산출함으로써 상기 의류 형상 영역의 음영 및 조명 특성을 추출하는 명도 차분 맵 산출 단계 및;
    사용자 입력이나 시스템 입력을 통해 상기 의류 모델 영상의 의류 형상 영역에 가상적으로 착용시키고 싶은 직물 패턴이나 직물 색이 선택되면, 상기 명도 차분 맵에 소정의 반영 비율을 곱한 값과 상기 직물 패턴이나 직물 색의 명도 성분값을 대응되는 화소단위로 합산한 후, 상기 명도 차분 맵에 소정의 반영 비율을 곱한 값과 상기 직물 패턴이나 직물 색의 명도 성분값을 대응되는 화소단위로 합산한 후, 이 합산 결과값으로 상기 의류 모델 영상 내 의류 형상 영역의 명도 성분값을 대체하고, 상기 의류 형상 영역 내 채도 성분값과 색상 성분값은 상기 선택된 직물 패턴이나 직물 색의 채도 성분값과 색상 성분값으로 각각 대체하는 직물 텍스쳐 매핑을 수행하는 직물 텍스쳐 매핑 단계를 포함하는 것을 특징으로 하는 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법.
  2. 제 1 항에 있어서,
    상기 직물의 패턴 크기 배율을 원하는 횟수만큼 가변시키면서 상기 직물 텍스쳐 매핑 단계를 반복적으로 수행하거나 또는 상기 직물 패턴이나 직물 색의 종류를 원하는 횟수만큼 변경하면서 상기 직물 텍스쳐 매핑 단계를 반복적으로 수행하거나 또는 상기 명도 차분 맵의 반영 비율 크기를 원하는 횟수만큼 가변시키면서 상기 직물 텍스쳐 매핑 단계를 반복적으로 수행하여 획득한 적어도 하나 이상의 매핑 결과 영상을 원하는 출력수단을 통해 출력하는 영상 출력 단계를 더 포함하는 것을 특징으로 하는 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법.
  3. 제 1 항에 있어서, 상기 영상 분할 단계는.
    상기 의류 모델 영상의 의류 영역 상에 위치한 임의의 씨앗 화소(seed pixel)를 사용자 입력을 통해 지정하는 영역 지정 단계와;
    상기 의류 모델 영상의 윤곽선 정보를 유지하면서 명도값 분포를 단순화시키기 위해 상기 의류 모델 영상의 명도 성분을 대상으로 형태소 크기보다 작은 밝은 영역을 제거해주는 복원 기반 개방 연산(open by reconstruction) 단계를 수행한 후, 상기 형태소 크기보다 작은 어두운 영역을 제거해주는 복원 기반 폐쇄 연산(close by reconstruction) 단계를 수행하는 복원 기반 개방-폐쇄 연산(open-close by reconstruction)을 적용하여 상기 의류 모델 영상의 명도 성분을 단순화시키는 영상 단순화 단계와;
    상기 씨앗 화소의 위치를 중심으로 명도 성분값이 유사한 인접 화소를 병합하는 영역 성장(region growing)을 통해 영상 분할을 수행하는 영역 성장 단계 및;
    상기 영상 분할 영역에 인접한 의류 피스 영역이거나 비인접 의류 피스 영역을 같은 영역으로 병합시키고 싶을 경우, 추가 병합 의도를 알리는 특정한 조합 입력을 제공한 상태에서 원하는 의류 피스 영역을 대표할 수 있는 다른 씨앗 화소를 지정하면 상기 영역 성장을 통해 추가적으로 병합된 분할 결과를 제공하는 과정을 원하는 횟수만큼 반복적으로 수행하여 반자동적으로 의류 형상 영역을 분할하는 추가 병합 성장 단계를 포함하고,
    상기 복원 기반 개방 연산 단계는 상기 의류 모델 영상을 입력받아 침식 연산(erosion operation)과 팽창 연산(dilation operation)을 순차적으로 수행하는 형태학적 개방 연산(morphological opening operation)을 수행한 후, 그 결과 영상을 대상으로 원래의 의류 모델 영상을 기준(reference)으로 삼아 측지 팽창 연산(geodesic dilation operation)을 반복ㆍ수행하여 각 회차들 간의 결과 변화가 매우 작은 기준치 이하가 될 때까지 지속하는 팽창 기반 복원 연산(reconstruction by dilation)을 수행하고,
    상기 복원 기반 폐쇄 연산 단계는 상기 팽창 기반 복원 연산의 결과 영상에 대해 팽창 연산과 침식 연산을 순차적으로 수행하는 형태학적 폐쇄 연산(morphological closing operation)을 수행한 후, 그 결과 영상을 대상으로, 상기 팽창 기반 복원 연산의 결과 영상을 기준 삼아 측지 침식 연산(geodesic erosion operation)을 반복ㆍ수행하여 각 회차들 간의 결과 변화가 매우 작은 기준치 이하가 될 때까지 지속하는 침식 기반 복원 연산(reconstruction by erosion)을 수행하고,
    상기 매우 작은 기준치는 0.1인 것을 특징으로 하는 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법.
  4. 제 1 항에 있어서, 상기 소정의 반영 비율은,
    상기 의류 형상 영역의 평균 명도값으로, 상기 의류 형상 영역에 대응되는 상기 직물 패턴이나 직물 색 영역의 평균 명도값을 나눗셈한 후에 자연로그를 취한 값과 소정의 가산 상수를 합산하여 구하고,
    상기 소정의 가산 상수는 2.5인 것을 특징으로 하는 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법.
  5. 제 1 항에 있어서,
    상기 의류 형상 영역의 직조 패턴을 제거하기 위해 평균 필터(mean filter), 가우시안 필터(Gaussian filter), 측지 기반 형태학 저주파 필터(geodesic morphological low-pass filter) 중 적어도 어느 하나의 저주파 통과 필터(low-pass filter)를 사용하거나 솔트-페퍼 노이즈(salt and pepper noise)를 제거하는 미디안 필터(median filter)를 단독 또는 선택적으로 결합하여 필터링을 수행하는 직조 패턴 필터링 단계를 더 포함하는 것을 특징으로 하는 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션 방법.
KR1020060094445A 2006-09-27 2006-09-27 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션방법 KR100828935B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060094445A KR100828935B1 (ko) 2006-09-27 2006-09-27 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060094445A KR100828935B1 (ko) 2006-09-27 2006-09-27 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션방법

Publications (2)

Publication Number Publication Date
KR20060108271A KR20060108271A (ko) 2006-10-17
KR100828935B1 true KR100828935B1 (ko) 2008-05-13

Family

ID=37628101

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060094445A KR100828935B1 (ko) 2006-09-27 2006-09-27 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션방법

Country Status (1)

Country Link
KR (1) KR100828935B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4792521B2 (ja) * 2009-12-15 2011-10-12 株式会社アイ.エス.テイ 布製品識別装置および布製品把持システム
KR20140142470A (ko) 2013-06-04 2014-12-12 한국전자통신연구원 나무 모델과 숲 모델 생성 방법 및 장치
KR102240302B1 (ko) 2014-10-21 2021-04-14 삼성전자주식회사 가상 피팅 장치 및 이의 가상 피팅 방법
KR101683780B1 (ko) * 2015-10-19 2016-12-08 (주)클로버추얼패션 패턴 물성 변경 방법 및 장치
KR102044348B1 (ko) * 2017-11-09 2019-11-13 (주)코아시아 증강현실을 이용한 가상 의류 피팅 미러 장치 시스템
KR101997702B1 (ko) * 2017-11-09 2019-10-01 (주)코아시아 쓰리디 시뮬레이션이 가능한 가상헤어스타일피팅미러 장치 및 시스템
KR102125382B1 (ko) * 2019-11-26 2020-07-07 로고몬도 주식회사 3차원 모델링의 실시간 렌더링을 활용한 온라인 커머스 제공 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020009236A (ko) * 2000-07-25 2002-02-01 장지일 맞춤식 의류 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020009236A (ko) * 2000-07-25 2002-02-01 장지일 맞춤식 의류 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
공개번호 특2002-0009236

Also Published As

Publication number Publication date
KR20060108271A (ko) 2006-10-17

Similar Documents

Publication Publication Date Title
US10997779B2 (en) Method of generating an image file of a 3D body model of a user wearing a garment
US9984409B2 (en) Systems and methods for generating virtual contexts
US7953275B1 (en) Image shader for digital image modification
KR100828935B1 (ko) 디지털 패션 디자인용 실사 기반 가상 드레이핑 시뮬레이션방법
US7663648B1 (en) System and method for displaying selected garments on a computer-simulated mannequin
US8019182B1 (en) Digital image modification using pyramid vignettes
US20160078663A1 (en) Cloud server body scan data system
CN107274493A (zh) 一种基于移动平台的三维虚拟试发型人脸重建方法
KR20220017903A (ko) 인간 신체의 단일 이미지를 애니메이션화하고 효과들을 적용하는 엔터테이닝 모바일 응용 프로그램
US20110298897A1 (en) System and method for 3d virtual try-on of apparel on an avatar
JP2002183761A (ja) 画像生成の方法および装置
CN112669447A (zh) 一种模型头像创建方法、装置、电子设备和存储介质
Li et al. In-home application (App) for 3D virtual garment fitting dressing room
CN109087369A (zh) 虚拟对象显示方法、装置、电子装置及存储介质
Thalmann et al. Modeling of populations
WO2020104990A1 (en) Virtually trying cloths & accessories on body model
Oikonomou et al. Snapwear: A Snapchat AR filter for the virtual tryon of real clothes
Kim et al. Chupa: Carving 3d clothed humans from skinned shape priors using 2d diffusion probabilistic models
JP2017188071A (ja) 柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラム
KR100399286B1 (ko) 상품 색상 변경 방법 및 시스템
WO2015144563A1 (en) Image processing system and method
WO2024009721A1 (ja) 画像処理装置及び画像処理方法
CN114119848B (zh) 一种模型渲染方法、装置、计算机设备及存储介质
KR20220060639A (ko) 가상 시뮬레이션을 통한 디지털 패션디자인 및 피팅 시스템
Pastor et al. Graph-based point relaxation for 3d stippling

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120518

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee