KR20160142211A - 의상의 3차원 데이터를 제공하는 방법 및 장치 - Google Patents

의상의 3차원 데이터를 제공하는 방법 및 장치 Download PDF

Info

Publication number
KR20160142211A
KR20160142211A KR1020150127709A KR20150127709A KR20160142211A KR 20160142211 A KR20160142211 A KR 20160142211A KR 1020150127709 A KR1020150127709 A KR 1020150127709A KR 20150127709 A KR20150127709 A KR 20150127709A KR 20160142211 A KR20160142211 A KR 20160142211A
Authority
KR
South Korea
Prior art keywords
garment
dimensional data
images
image
panels
Prior art date
Application number
KR1020150127709A
Other languages
English (en)
Inventor
주은정
신승호
정지원
송지혜
한선영
곽영민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP16164073.5A priority Critical patent/EP3115971B1/en
Priority to US15/094,276 priority patent/US20160358374A1/en
Priority to CN201610387699.0A priority patent/CN106228600B/zh
Publication of KR20160142211A publication Critical patent/KR20160142211A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Primary Health Care (AREA)
  • Development Economics (AREA)
  • Processing Or Creating Images (AREA)
  • Human Resources & Organizations (AREA)

Abstract

의상을 구성하는 복수의 패널들에 대응되는 이미지들을 획득하여, 획득한 이미지들 각각의 형태를 식별하고, 식별된 이미지들 각각의 형태에 기초하여 복수의 패널들의 종류를 결정하며, 결정된 복수의 패널들의 종류에 따라 획득한 이미지들을 조합하여, 의상의 3차원 데이터를 생성하는 의상의 3차원 데이터를 제공하는 방법이 개시된다.

Description

의상의 3차원 데이터를 제공하는 방법 및 장치{Method and terminal for providing 3-dimensional data of clothes}
개시된 실시예는 의상의 3차원 데이터를 제공하는 방법, 의상의 3차원 데이터를 제공하는 장치 및 의상의 3차원 데이터를 제공하는 방법을 수행하는 프로그램이 기록된 기록매체에 관한 것이다.
기술의 발달과 더불어 다양한 종류의 디지털 기기들이 사람들의 실생활에 보편적으로 사용되고 있다. 영상 처리 기술의 발달과 보편적인 보급에 편승하여, 사람들은 물품에 대한 3차원의 이미지를 통해, 물품에 대한 정보를 얻고 있는 실정이다. 예를 들어, 사람들은 의상의 3차원 데이터를 통해, 의상에 대한 정보를 얻을 수 있다.
그러나, 시각적 정보를 제공하기 위하여 디지털 카메라로 촬영한 사진은 의상의 형상은 어느 정도 사실적으로 표현할 수 있겠으나, 단순한 색상 및 형태를 표현하는 정도는 넘지 못함에 따라, 의상의 미세구조를 사실적으로 표현 하기에는 한계가 있는 실정이다.
의상을 구성하는 패널들의 이미지를 이용하여, 의상의 3차원 데이터를 생성하는 의상의 3차원 데이터를 제공하는 방법, 장치 및 기록매체가 제공된다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법은, 의상을 구성하는 복수의 패널들에 대응되는 이미지들을 획득하는 단계; 획득한 이미지들 각각의 형태를 식별하는 단계; 식별된 이미지들 각각의 형태에 기초하여 복수의 패널들의 종류를 결정하는 단계; 및 결정된 복수의 패널들의 종류에 따라 획득한 이미지들을 조합하여, 의상의 3차원 데이터를 생성하는 단계를 포함한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법에 있어서, 생성하는 단계는, 결정된 복수의 패널들의 종류에 따라 획득한 이미지들을 기초로 3차원 메쉬 데이터를 생성하는 단계를 포함한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법에 있어서, 이미지들 각각의 형태를 식별하는 단계는, 이미지들 각각을 구성하는 선의 형태, 길이, 기울기 및 위치 중 적어도 하나를 식별한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법에 있어서, 복수의 패널들의 종류를 결정하는 단계는, 기저장된 패널별 특성 정보와 식별된 이미지들 각각의 형태를 비교하여, 이미지들 각각에 대응되는 패널의 종류를 결정한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법은, 의상의 이미지를 획득하는 단계; 획득한 의상의 이미지에서, 복수의 패널들 각각에 대응되는 부분의 형태에 관한 정보를 참조 정보로 검출하는 단계를 더 포함하고, 복수의 패널들의 종류를 결정하는 단계는, 검출된 참조 정보와 식별된 이미지들 각각의 형태를 비교하는 단계를 포함한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법에 있어서, 의상의 3차원 데이터를 생성하는 단계는, 결정된 복수의 패널들의 종류에 따라, 획득한 이미지들을 배치하는 단계; 및 배치된 이미지들을 시밍(seaming)하는 단계를 포함한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법에 있어서, 의상의 3차원 데이터를 생성하는 단계는, 획득한 이미지들 각각의 텍스쳐를 결정하는 단계를 포함한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법은 텍스쳐 정보를 획득하는 단계; 획득한 텍스쳐 정보의 왜곡을 보정하는 단계를 더 포함한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법은, 사용자의 신체 정보를 획득하는 단계; 획득한 신체 정보를 이용하여, 사용자의 3차원 데이터를 생성하는 단계; 및 사용자의 3차원 데이터와 의상의 3차원 데이터를 결합하는 단계를 더 포함한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법은, 의상의 텍스쳐 정보와 다른 텍스쳐 정보가 획득됨에 따라, 결합된 이미지에서 의상의 3차원 데이터의 텍스쳐 정보를 변경하는 단계를 더 포함한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 방법에 있어서, 이미지들을 획득하는 단계는, 제 1 의상을 구성하는 복수의 제 1 패널들 중 적어도 일부의 이미지 및 제 2 의상을 구성하는 복수의 제 2 패널들 중 적어도 일부의 이미지를 획득하는 단계를 포함하고, 의상의 3차원 데이터를 생성하는 단계는, 획득한 이미지들을 조합하여, 제 3 의상의 3차원 데이터를 생성하는 단계를 포함한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치는, 의상을 구성하는 복수의 패널들에 대응되는 이미지들을 획득하는 입력부; 획득한 이미지들 각각의 형태를 식별하고, 식별된 이미지들 각각의 형태에 기초하여 복수의 패널들의 종류를 결정하고, 결정된 복수의 패널들의 종류에 따라 획득한 이미지들을 조합하여, 의상의 3차원 데이터를 생성하는 제어부; 및 생성된 의상의 3차원 데이터를 디스플레이 하는 출력부를 포함한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에 있어서, 제어부는, 결정된 복수의 패널들의 종류에 따라 획득한 이미지들을 기초로 3차원 메쉬 데이터를 생성한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에 있어서, 제어부는, 이미지들 각각을 구성하는 선의 형태, 길이, 기울기 및 위치 중 적어도 하나를 식별한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에 있어서, 제어부는, 기저장된 패널별 특성 정보와 식별된 이미지들 각각의 형태를 비교하여, 이미지들 각각에 대응되는 패널의 종류를 결정한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에 있어서, 입력부는, 의상의 2차원 이미지를 획득하고, 제어부는, 획득한 의상의 2차원 이미지에서, 복수의 패널들 각각에 대응되는 부분의 형태에 관한 정보를 참조 정보로 검출하고, 검출된 참조 정보와 상기 식별된 이미지들 각각의 형태를 비교한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에 있어서, 제어부는, 결정된 복수의 패널들의 종류에 따라, 획득한 이미지들을 배치하고, 배치된 이미지들을 시밍(seaming)한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에 있어서, 제어부는, 획득한 이미지들 각각의 텍스쳐를 결정한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에 있어서, 입력부는, 텍스쳐 정보를 획득하고, 제어부는, 획득한 텍스쳐 정보의 왜곡을 보정한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에 있어서, 입력부는, 사용자의 신체 정보를 획득하고, 제어부는 획득한 신체 정보를 이용하여, 사용자의 3차원 데이터를 생성하고, 사용자의 3차원 데이터와 의상의 3차원 데이터를 결합한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에 있어서, 제어부는, 의상의 텍스쳐 정보와 다른 텍스쳐 정보가 획득됨에 따라, 결합된 이미지에서 의상의 3차원 데이터의 텍스쳐 정보를 변경한다.
일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에 있어서, 입력부는, 제 1 의상을 구성하는 복수의 제 1 패널들 중 적어도 일부의 이미지 및 제 2 의상을 구성하는 복수의 제 2 패널들 중 적어도 일부의 이미지를 획득하고, 제어부는, 획득한 이미지들을 조합하여, 제 3 의상의 3차원 데이터를 생성한다.
도 1은 일 실시예에 따른 의상의 3차원 데이터를 제공하는 장치에서 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 개념도이다.
도 2는 일 실시예에 따른 의상의 3차원 데이터 제공 장치에서 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 의상의 3차원 데이터를 생성하는 방법을 보다 구체적으로 설명하기 위한 흐름도이다.
도 4는 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 패널들의 2차원 이미지들의 형태를 식별하여 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 5는 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 몸판 패널을 식별하는 방법을 설명하기 위한 도면이다.
도 6은 다른 실시예에 따른 의상의 3차원 데이터 제공 장치가 몸판 패널을 식별하는 방법을 설명하기 위한 도면이다.
도 7은 다른 실시예에 따른 의상의 3차원 데이터 제공 장치가 몸판 패널을 식별하는 방법을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 소매 패널을 식별하는 방법을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 적어도 하나의 의상의 2차원 이미지로부터 패널들 각각에 관한 데이터 베이스를 형성하는 방법을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 이미지들을 시밍하는 방법을 설명하기 위한 흐름도이다.
도 11은 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 이미지들을 시밍하는 방법을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 이미지들을 배치하는 방법을 설명하기 위한 흐름도이다.
도 13은 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 이미지들이 배치되는 기본 영역들을 설명하기 위한 도면이다.
도 14는 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 이미지들의 텍스쳐 정보를 이용하여 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 15는 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 텍스쳐 정보를 이용하여 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 도면이다.
도 16은 일 실시예에 다른 의상의 3차원 데이터 제공 장치가 사용자가 착용하고 있는 의상의 형태 정보 및 사용자로부터 제공되는 텍스쳐 정보를 이용하여, 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 17은 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 사용자가 착용하고 있는 의상의 형태 정보 및 사용자로부터 제공되는 텍스쳐 정보를 이용하여, 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 18은 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 제 1 의상에 관한 패널들의 이미지들과 제 2 의상에 관한 패널들의 이미지들을 이용하여, 새로운 제 3 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 19는 일 실시예에 따른 의상의 3차원 데이터 제공 장치가 제 1 의상에 관한 패널들의 이미지들과 제 2 의상에 관한 패널들의 이미지들을 이용하여, 새로운 제 3 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 도면이다.
도 20 은 일 실시예에 따른 의상의 3차원 데이터 제공 장치의 구성을 설명하기 위한 블록 구성도이다.
도 21은 다른 실시예에 따른 의상의 3차원 데이터 제공 장치의 구성을 설명하기 위한 블록 구성도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 일 실시예에 따른 의상의 3차원 데이터(120)를 제공하는 장치(100, 이하, 의상의 3차원 데이터 제공 장치)에서 의상의 3차원 데이터(120)를 생성하는 방법을 설명하기 위한 개념도이다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 의상을 구성하는 복수의 패널들에 관한 2차원 이미지들(110)을 획득할 수 있다. 여기에서, 패널은 의상을 제작할 때 이용하기 위하여, 본보기로 만든 실물 크기의 물건으로, 의상의 각 부분들의 형태를 나타낼 수 있다. 예를 들어, 의상의 각 부분들은 소매, 몸통 등 대응되는 인체의 신체 부위에 따라 구별될 수 있다. 또한, 의상의 각 부분들은 전면, 후면, 좌측 및 우측에 따라 구별될 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 패널들에 관한 2차원 이미지들(110)을 획득함에 따라, 2차원 이미지들(110)의 형태를 식별할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 각각을 구성하는 선들의 형태, 길이, 기울기 및 위치에 관한 정보를 획득할 수 있고, 선들이 조합되는 형태에 관한 정보를 획득할 수도 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 2차원 이미지들(110)의 선을 구성하는 점들 중 적어도 일부의 좌표값을 획득할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 2차원 이미지들(110)의 형태와 기저장된 패널 별 특성 정보를 비교하여, 2차원 이미지들(110) 각각에 대응되는 패널의 종류를 식별할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 식별된 패널들의 종류에 따라 2차원 이미지들(110)을 조합하여, 의상의 3차원 데이터(120)를 생성할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 패널들의 종류가 결정됨에 따라, 패널들간의 관계, 패널들의 배치, 패널들의 텍스쳐 중 적어도 하나에 기초하여, 패널들의 2차원 이미지로부터 3차원 메쉬(mesh) 데이터를 생성할 수 있다. 여기에서, 3차원 메쉬 데이터는 의상의 면을 3차원으로 표현하기 위한 폴리곤(polygon)과 정점들의 집합으로 구성될 수 있다.
예를 들어, 의상의 3차원 데이터 제공 장치(100)는 2차원 이미지들(110)을 시밍(seaming)하여, 연결할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 2차원 이미지들(100)을 적절한 위치에 배치할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 시밍된 2차원 이미지들(110)에 텍스쳐를 적용할 수도 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 붉은색 실크 옷감에 관한 텍스쳐를 시밍된 2차원 이미지들(110)에 적용하여 의상의 3차원 데이터(120)를 생성할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 의상을 구성하는 패널들을 자동으로 식별하여, 의상의 3차원 데이터(120)를 보다 용이하게 생성할 수 있다. 또한, 다른 실시예에 따라, 의상의 3차원 데이터 제공 장치(100)는 이미 존재하는 의상들 각각을 구성하는 패널들의 이미지들을 조합하여, 새로운 의상의 3차원 데이터를 생성할 수도 있다.
도 2는 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)에서 의상의 3차원 데이터(120)를 생성하는 방법을 설명하기 위한 흐름도이다.
단계 S210에서, 의상의 3차원 데이터 제공 장치(100)는 의상을 구성하는 복수의 패널들에 대응되는 이미지들(110)을 획득한다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 외부 디바이스로부터 복수의 패널들에 대응되는 이미지들(110)을 획득할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 외부의 화상 형성 장치로부터 이미지들(110)을 수신할 수 있다. 한편, 이는 일 실시예일 뿐, 다른 예에 따라, 의상의 3차원 데이터 제공 장치(100)가 화상 형성 장치와 동일한 기능을 수행할 수 있는 유닛을 구비한 경우에는, 복수의 패널들을 스캐닝하여 이미지들(110)을 획득할 수 있다. 또 다른 예에 따라, 의상의 3차원 데이터 제공 장치(100)는 카메라 등을 이용하여, 복수의 패널들의 이미지들(110)을 획득할 수도 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 복수의 패널들에 대응되는 이미지들(110)로부터, 패널들을 구성하는 선들과 점들에 관한 정보를 획득할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 선들의 형태, 길이, 기울기 및 위치 중 적어도 하나에 관한 정보와 선들이 조합되는 형태에 관한 정보를 획득할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 이미지들(110)의 선을 구성하는 복수의 점들의 좌표값을 획득할 수 있다.
단계 S220에서, 의상의 3차원 데이터 제공 장치(100)는 획득한 이미지들(110) 각각의 형태를 식별한다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)에는 패널들의 종류를 식별하기 위해 필요한 패널들 각각의 특성 정보가 미리 저장될 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 어깨 선의 경우, 직선의 길이가 제 1 임계값 이하여야 하고, 소매의 경우, 점의 가장 큰 y 좌표 값이 제 2 임계값 이하여야 한다는 등의 기준에 관한 정보를 미리 저장할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 획득한 이미지들(110)에 관한 정보로부터 패널들의 종류를 식별하기 위해 필요한 기준에 대응되는 정보를 추출함으로써, 이미지들(110) 각각의 형태를 식별할 수 있다.
예를 들어, 의상의 3차원 데이터 제공 장치(100)는 획득한 10개의 이미지들 중에서, 제 1 이미지 및 제 3 이미지는 직선의 길이가 제 1 임계값 이하인 패널이고, 제 2 이미지 및 제 4 이미지는 점의 가장 큰 y 좌표 값이 제 2 임계값 이하인 패널이라는 정보를 추출할 수 있다.
단계 S230에서, 의상의 3차원 데이터 제공 장치(100)는 식별된 이미지들(110) 각각의 형태에 기초하여 복수의 패널들의 종류를 결정한다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 식별된 이미지들(110) 각각의 형태와 기저장된 패널별 특성 정보를 비교하여, 이미지들 각각에 대응되는 패널의 종류를 결정할 수 있다.
예를 들어, 단계 220에서, 직선의 길이가 제 1 임계값 이하로 결정된 패널인 제 1 이미지 및 제 3 이미지는 몸판의 전면과 후면에 배치되는 몸판 패널로 결정될 수 있다. 또한, 단계 220에서, 가장 큰 y값 좌표가 제 2 임계값 이하인 제 2 이미지 및 제 4 이미지는 좌측과 우측의 소매 패널로 결정될 수 있다.
단계 S240에서, 의상의 3차원 데이터 제공 장치(100)는 복수의 패널들의 종류에 따라, 획득한 이미지들(110)을 조합하여, 의상의 3차원 데이터(120)를 생성한다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 복수의 패널들의 이미지를 시밍할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 단계 230에서 몸판 패널로 결정된 제 1 이미지 및 제 3 이미지의 어깨 라인이 연결되도록 제 1 이미지 및 제 3 이미지를 시밍할 수 있다.
다른 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 이미지들(110)을 결정된 복수의 패널들의 종류에 따라 배치할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 획득한 복수의 패널들의 이미지들(110) 중 상단에 위치되어야 하는 패널의 이미지 및 하단에 위치되어야 하는 패널의 이미지를 식별하여 배치할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 획득한 복수의 이미지들(110) 중 좌측에 위치되어야 하는 패널의 이미지 및 우측에 위치되어야 하는 패널의 이미지를 식별하여 배치할 수 있다.
한편, 의상의 3차원 데이터 제공 장치(100)는 전술한 이미지들(100)을 시밍하는 동작과 배치하는 동작을 각각 수행하면서 서로 다른 동작의 결과를 피드백으로 이용할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 패널들의 종류에 따라, 일부 이미지들을 시밍한 이후에 아직, 연결되지 않은 패널들은, 패널들의 배치 정보에 기초하여 시밍할 수 있다. 여기에서, 패널들의 배치 정보는 의상의 3차원 데이터 제공 장치(100)에 기 저장된 의상의 2D 이미지로부터 획득될 수 있다.
일 실시예에 따른, 의상의 3차원 데이터 제공 장치(100)는 이미지들(110)을 배치하는 동작과 시밍하는 동작을 수행하여, 의상의 3차원 데이터(120)를 생성할 수 있다. 다른 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 이미지들(110)을 배치하는 동작과 시밍하는 동작을 수행한 이후에 이미지들(110)에 텍스쳐를 적용하여 텍스쳐링 된 의상의 3차원 데이터(120)를 생성할 수도 있다.
도 3은 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 의상의 3차원 데이터(120)를 생성하는 방법을 보다 구체적으로 설명하기 위한 흐름도이다.
단계 S310에서, 의상의 3차원 데이터 제공 장치(100)는 의상을 구성하는 복수의 패널들에 대응되는 이미지들(110)을 획득한다.
한편, 단계 S310은 도 2를 참조하여 전술한 단계 S210과 대응될 수 있다.
단계 S320에서, 의상의 3차원 데이터 제공 장치(100)는 의상의 2차원 이미지가 존재하는지 여부를 판단할 수 있다. 여기에서, 의상의 2차원 이미지는 의상 제작이 완성된 전체의 의상에 관한 이미지를 나타낸다. 예를 들어, 의상에 관한 이미지는 셔츠의 2차원 이미지, 원피스의 2차원 이미지 및 바지의 2차원 이미지 등일 수 있다. 단계 S310에서, 획득한 복수의 패널들 각각은 의상의 부분들에 각각 대응될 수 있다.
단계 S330에서, 의상의 3차원 데이터 제공 장치(100)는 의상에 관한 2차원 이미지가 존재하지 않는 경우, 획득한 이미지들(110)의 형태를 식별하여, 이미지들(110) 각각에 대응되는 패널들의 종류를 결정할 수 있다.
한편, 단계 S330은 도 2를 참조하여 전술한 단계 S230과 대응될 수 있다.
단계 S340에서, 의상의 3차원 데이터 제공 장치(100)는 의상의 2차원 이미지가 존재하는 경우, 획득한 이미지들(110) 및 의상의 2차원 이미지에 기초하여, 이미지들(110) 각각에 대응되는 패널들의 종류를 결정할 수 있다. 예를 들어, 의상의 복잡도가 높은 경우, 의상의 3차원 데이터 제공 장치(100)에 기저장된 패널들의 특성에 관한 정보만으로는 이미지들(110) 각각에 대응되는 패널들의 종류를 결정하기 어려울 수 있다. 의상의 3차원 데이터 제공 장치(100)는 획득한 의상의 2차원 이미지와 복수의 패널들의 이미지들(110)을 비교하여, 이미지들(110) 각각에 대응되는 패널들의 종류를 결정할 수 있다.
단계 S350에서, 의상의 3차원 데이터 제공 장치(100)는 결정된 패널들의 종류에 기초하여, 복수의 이미지들(110)을 시밍할 수 있다.
단계 S360에서, 의상의 3차원 데이터 제공 장치(100)는 결정된 패널들의 종류에 기초하여, 복수의 이미지들(110)을 배치할 수 있다.
한편, 여기에서 단계 S350 및 단계 S360은 동시에 수행될 수도 있고, 전술한 바와 달리, 단계 S360이 단계 S350 보다 먼저 수행될 수도 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 이미지들(110)의 시밍 결과와 배치 결과를 서로 피드백 하면서, 각각의 동작을 수행할 수 있다.
단계 S370에서, 의상의 3차원 데이터 제공 장치(100)는 시밍된 이미지에 텍스쳐를 적용하여 텍스쳐링된 의상의 3차원 데이터를 생성할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 의상의 텍스쳐 정보를 획득할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 복수의 패널들의 종류에 따라 서로 다른 텍스쳐 정보를 시밍된 이미지에 적용할 수도 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 소매 패널에 시폰 소재에 대한 텍스쳐 정보를 적용할 수 있고, 몸판 패널에 실크 소재에 대한 텍스쳐 정보를 적용할 수 있다.
한편, 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 의상의 텍스쳐 정보에 왜곡된 정보가 포함되어 있는 경우, 텍스쳐 정보를 보정할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 보정된 텍스쳐 정보를 의상의 3차원 데이터에 적용할 수 있다.
도 4는 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 패널들의 2차원 이미지들(110)의 형태를 식별하여 의상의 3차원 데이터(120)를 생성하는 방법을 설명하기 위한 흐름도이다.
단계 S410에서, 의상의 3차원 데이터 제공 장치(100)는 의상을 구성하는 복수의 패널들에 대응되는 이미지들(110)을 획득할 수 있다.
한편, 단계 S410은 도 2를 참조하여 전술한 단계 S210과 대응될 수 있다.
단계 S420에서, 의상의 3차원 데이터 제공 장치(100)는 이미지들(110) 각각을 구성하는 선의 형태, 길이, 기울기 및 위치 중 적어도 하나를 식별함으로써 이미지의 형태를 식별할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)에는 패널들의 종류를 식별하기 위해 필요한 기준에 관한 정보가 미리 저장될 수 있다. 예를 들어, 기준에 관한 정보에는 선들 중에서, 직선에 해당하는 선의 기울기가 일정 각도 이하인지 여부, 일정 길이 이하를 갖는 직선의 개수 등에 관한 정보가 포함될 수 있다. 다만, 이는 일 실시예일 뿐, 기준에 관한 정보가 이에 한정되는 것은 아니다.
예를 들어, 의상의 3차원 데이터 제공 장치(100)는 이미지들(110) 각각을 구성하는 선의 곡률을 식별할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 이미지들(110) 각각을 구성하는 선 중 일정 길이 이하의 값을 갖는 선의 기울기 값을 식별할 수도 있다.
일 실시예에 따른, 의상의 3차원 데이터 제공 장치(100)는 선을 구성하는 점들 중에서, 최대값 및 최소값의 좌표를 식별할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 이미지 내에서 가장 y 좌표 값이 큰 점을 선택하고, 선택된 점의 좌우로 이어지는 라인들의 기울기 변화량을 식별할 수도 있다. 다른 예에 따라, 의상의 3차원 데이터 제공 장치(100)는 중심점을 기준으로 양쪽으로 연결된 곡선의 길이에 관한 정보를 식별할 수도 있다.
단계 S430에서, 의상의 3차원 데이터 제공 장치(100)는 기저장된 패널별 특성 정보와 식별된 이미지들 각각의 형태를 비교하여, 이미지들(110) 각각에 대응되는 패널의 종류를 결정할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 제 1 이미지에 포함된 제 1 선의 곡률이 일정값 이하이고, 제 1 선의 기울기가 일정 각도 이하인 경우, 제 1 선을 어깨선 후보로 결정할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 어깨선 양쪽으로 연결되어 있는 두개의 선들 중 하나의 곡률이 일정값 이상인 경우, 제 1 이미지를 어깨 및 목 라인을 포함하는 몸판 패널의 이미지로 식별할 수 있다.
의상의 3차원 데이터 제공 장치(100)는 전술한 방법에 따라 식별된 몸판 패널의 이미지가 2개 존재하는 경우, 곡률이 일정값 이상인 곡선의 길이를 비교하여, 전면 몸판 패널인지 또는 후면 몸판 패널인지 여부를 결정할 수 있다.
다른 예에 따라, 의상의 3차원 데이터 제공 장치(100)는 제 2 이미지에서 가장 y 좌표값이 큰 점을 중심으로, 양쪽으로 연결된 선들의 기울기 변화량에 따라 제 2 이미지가 소매 패널인지 여부를 결정할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 중심점 기준으로 양쪽으로 연결된 2개의 곡선의 길이를 비교하여, 제 2 이미지가 좌측 소매 패널 인지 또는 우측 소매 패널인지 여부를 결정할 수 있다.
단계 S440에서, 의상의 3차원 데이터 제공 장치(100)는 결정된 복수의 패널들의 종류에 따라 획득한 이미지를 조합하여 의상의 3차원 데이터를 생성할 수 있다.
한편, 단계 S440은 도 2를 참조하여 전술한 단계 S240과 대응될 수 있다.
도 5는 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 몸판 패널을 식별하는 방법을 설명하기 위한 도면이다.
도 5의 (a)를 참고하면, 의상의 3차원 데이터 제공 장치(100)는 제 5a 이미지(510)에서, 선의 곡률이 제 1 임계값 이상인 곡선을 목 선(512)으로 결정할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 제 5a 이미지(510)에서, 선의 곡률이 제 2 임계값 이하이고, 선의 기울기가 제 1 임계 각도 이하인 선을 어깨 선(514)으로 결정할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 제 5a 이미지(510)에서, 목 선(512) 및 어깨 선(514)이 식별됨에 따라 제 5a 이미지(510)를 목 선(512)과 어깨 선(514)을 포함하고 있는 몸판 패널로 식별할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 획득한 복수의 이미지들(110) 중 몸판 패널로 인식된 다른 이미지(예를 들어, 520)에 비해, 제 5a 이미지(510)의 목 선이 짧은 경우, 제 5a 이미지(510)를 후면 몸판 패널로 결정할 수 있다.
도 5의 (b)를 참고하면, 의상의 3차원 데이터 제공 장치(100)는 제 5b 이미지(520)에서, 선의 곡률이 제 1 임계값 이상인 곡선을 목 선(522)으로 결정할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 제 5b 이미지(520)에서, 선의 곡률이 제 2 임계값 이하이고, 선의 기울기가 제 1 임계 각도 이하인 선을 어깨 선(524)으로 결정할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 제 5b 이미지(520)에서, 목 선(522) 및 어깨 선(524) 이 식별됨에 따라 제 5b 이미지(510)를 목 선(522)과 어깨 선(524)을 포함하고 있는 몸판 패널로 식별할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 획득한 복수의 이미지들(110) 중 몸판 패널로 인식된 다른 이미지(예를 들어, 510)에 비해, 제 5b 이미지(520)의 목 선이 긴 경우, 제 5b 이미지(520)를 전면 몸판 패널로 결정할 수 있다.
도 6은 다른 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 몸판 패널을 식별하는 방법을 설명하기 위한 도면이다.
도 6의 (a)를 참고하면, 의상의 3차원 데이터 제공 장치(100)는 제 6a 이미지(610)를 구성하는 선들 중 제 1 임계 길이 이하의 직선들을 검출할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 검출된 직선들 중, y 좌표값이 제 6a 이미지(610)의 중심점의 y 좌표값 보다 큰 직선을(612) 선택할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 선택된 직선(612)의 기울기가 일정값 이하인 직선인지 여부를 판단할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 선택된 직선(612)의 기울기가 일정값 이하인 경우, 선택된 직선(612)의 양쪽에 연결된 다른 선들(614, 616)의 길이가 제 2 임계 길이 이하인 직선인지 여부를 판단을 최종적으로 선택할 수 있다.
의상의 3차원 데이터 제공 장치(100)는 선택된 직선을 어깨 선(612)으로 결정할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 어깨 선(612)과 연결된 양쪽 선(614, 616)이 곡선인지 여부를 판단할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 어깨 선(612)과 연결된 양쪽 선(614, 616)이 곡선인 경우, 몸판 패널들 중 제 1 몸판 패널을 제 6a 이미지(610)에 대응되는 패널로 결정할 수 있다.
도 6의 (b)를 참고하면, 의상의 3차원 데이터 제공 장치(100)는 제 6b 이미지(620)를 구성하는 선들 중 제 1 임계 길이 이하의 직선들(622, 624)을 검출할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 검출된 직선들(622, 624) 중, y 좌표값이 제 6b 이미지(620)의 중심점의 y 좌표값 보다 큰 직선들(622, 624)을 선택할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 선택된 직선들(622, 624) 중에서, 기울기가 일정값 이하인 직선들(622, 624) 중 양쪽에 연결된 다른 선들의 길이가 제 2 임계 길이 이하인 직선(622)을 최종적으로 선택할 수 있다.
의상의 3차원 데이터 제공 장치(100)는 선택된 직선을 어깨 선(622)으로 결정할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 어깨 선(622)과 연결된 양쪽 선들(624, 626)이 곡선인지 여부를 판단할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 어깨 선(622)과 연결된 양쪽 선(624, 626) 중 하나의 선(626)이 곡선인 경우, 몸판 패널들 중 제 2 몸판 패널을 제 6b 이미지(620)에 대응되는 패널로 결정할 수 있다.
도 7은 다른 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 몸판 패널을 식별하는 방법을 설명하기 위한 도면이다.
도 7의 (a)를 참고하면, 의상의 3차원 데이터 제공 장치(100)에서 획득한 이미지들(710)을 식별한 결과, 제 1 몸판 패널로 결정된 패널이 4개 존재할 수 있다. 동일한 형태의 패널이 4개 존재함에 따라, 의상의 3차원 데이터 제공 장치(100)는 의상의 전면과 후면 및 좌우가 동일하다는 것을 결정할 수 있다.
도 7의 (b)를 참고하면, 의상의 3차원 데이터 제공 장치(100)에서 획득한 이미지들(720)을 식별한 결과, 서로 다른 목 선을 갖는 몸판 패널들이 2개 존재할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 서로 다른 목 선을 갖는 몸판 패널들이 2개 존재함에 따라 의상의 전면 및 후면의 몸판 패널이 비대칭이라는 것을 확인할 수 있다.
도 8은 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 소매 패널을 식별하는 방법을 설명하기 위한 도면이다.
도 8의 (a)를 참고하면, 의상의 3차원 데이터 제공 장치(100)는 제 8a 이미지(810)를 구성하는 선 상의 점들 중 y 좌표값이 가장 큰 점(812)을 선택할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 선택된 점(812)에 인접한 다른 점들의 기울기 변화가 일정값 이하인지 여부를 판단할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 판단 결과, 기울기 변화가 임계값 이하인 경우, 제 8a 이미지(810)를 소매 패널로 결정할 수 있다.
또한, 의상의 3차원 데이터 제공 장치(100)는 제 8a 이미지(810)의 오른쪽 선(816)의 길이가 왼쪽 선(814)의 길이 보다 짧은 경우, 제 8a 이미지(810)를 우측 소매 패널로 결정할 수 있다. 다만, 이는 일 실시예일 뿐, 의상의 3차원 데이터 제공 장치(100)에서 소매의 좌우를 판단하는 방법이 이에 한정되는 것은 아니다.
도 8의 (b)를 참고하면, 의상의 3차원 데이터 제공 장치(100)는 제 8b 이미지(820)를 구성하는 선 상의 점들 중 y 좌표값이 가장 큰 점(822)을 선택할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 선택된 점(822)에 인접한 다른 점들의 기울기 변화가 일정값 이하인지 여부를 판단할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 판단 결과, 기울기 변화가 임계값 이하인 경우, 제 8b 이미지(820)를 소매 패널로 결정할 수 있다.
또한, 의상의 3차원 데이터 제공 장치(100)는 제 8b 이미지(820)의 왼쪽 선(824)의 길이가 오른쪽 선(826)의 길이 보다 짧은 경우, 제 8b 이미지(820)를 좌측 소매 패널로 결정할 수 있다.
도 9는 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 적어도 하나의 의상의 2차원 이미지로(910, 920, 930, 940)부터 패널들 각각에 관한 데이터 베이스를 형성하는 방법을 설명하기 위한 도면이다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 적어도 하나의 의상의 2차원 이미지(910, 920, 930, 940)를 획득할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 카라 티셔츠, 바지, 라운드 티셔츠 및 치마 등에 관한 2차원 이미지를 획득할 수 있다.
한편, 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 획득한 2차원 이미지(910, 920, 930, 940)에 대한 사용자의 입력에 기초하여, 각각의 의상을 구성하는 패널들의 이미지를 분류할 수 있다.
예를 들어, 의상의 3차원 데이터 제공 장치(100)는 제 1 의상(910)으로부터 카라(915)에 대한 이미지를 추출할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 제 2 의상(920)으로부터 허리 벨트(925)에 대한 이미지를 추출할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 제 3 의상(930)으로부터 라운드 넥(935)에 대한 이미지를 추출할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 제 4 의상(940)으로부터 소매(945)에 대한 이미지를 추출할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 추출된 각각의 이미지들(915, 925, 935, 945)을 저장할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 추후에 의상을 구성하는 복수의 패널들의 이미지들(110)이 획득된 경우, 획득된 이미지들(110)과 저장된 이미지들(915, 925, 935, 945)에 관한 정보를 비교하여, 획득된 이미지들(110) 각각에 대응되는 패널들의 종류를 식별할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 획득된 이미지들(110)과 저장된 이미지들(915, 925, 935, 945)을 비교한 결과 카라(915)의 이미지와 대응되는 패널을 소매 패널로 결정할 수 있다.
도 10은 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 이미지들(110)을 시밍하는 방법을 설명하기 위한 흐름도이다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)에는 이미지들(110)을 시밍하는데 이용되는 규칙이 미리 저장될 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 모든 이미지들 각각에 대해 최소한 하나의 선이 다른 이미지의 선과 연결되도록 이미지들(110)을 시밍할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 좌우 대칭인 패널들의 이미지들을 각각 동일한 방식으로 시밍할 수 있다. 다른 예에 따라 의상의 3차원 데이터 제공 장치(100)는 연결 관계가 없는 선들은 시밍 대상에서 제외할 수 있다. 또 다른 예에 따라, 의상의 3차원 데이터 제공 장치(100)는 셔링과 같은 특수한 경우를 제외하고는 시밍되는 선의 길이를 동일하게 설정할 수 있다.
한편, 의상의 3차원 데이터 제공 장치(100)는 이미지들(110)에 대응되는 패널들의 종류가 식별됨에 따라, 연결 관계가 결정된 이미지들에 대해서는 시밍을 수행하고, 연결 관계가 결정되지 않은 패널들에 대해서는 패널들이 배치되는 위치를 참조하여 시밍을 수행할 수 있다. 예를 들어, 거리가 가깝게 배치되는 패널들 간의 시밍 확률이 더 높을 수 있다. 또한, 여기에서, 이미지들(110)에 대응되는 패널들의 종류가 식별됨에 따라 연결 관계가 결정되는 패널들의 예로는 전면 몸판 패널과 후면 몸판 패널, 몸판 패널과 소매 패널 및 카라 패널과 몸판 패널이 존재할 수 있다. 다만, 이는 일 실시예일 뿐, 본 발명이 이에 한정되는 것은 아니다.
단계 S1010에서, 의상의 3차원 데이터 제공 장치(100)는 시밍 대상이 되는 패널의 이미지를 선택할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 우측 몸판 패널을 선택할 수 있다. 다만, 이는 일 실시예일 뿐, 의상의 3차원 데이터 제공 장치(100)에서 이미지들(110)에 시밍이 수행되는 순서는 설정에 따라 상이할 수 있다.
단계 S1020에서, 의상의 3차원 데이터 제공 장치(100)는 선택된 제 1 이미지에서 안으로 파인 선을 시밍할 수 있다. 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 제 1 이미지를 다른 이미지와 시밍하기에 앞서, 제 1 이미지에서 안으로 파인 선을 먼저 시밍할 수 있다.
단계 S1030에서, 의상의 3차원 데이터 제공 장치(100)는 제 1 이미지를 구성하는 복수의 선들 중 임의의 제 1 선을 선택할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 제 1 이미지의 어깨 선을 시밍의 제 1 선으로 선택할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 선택된 제 1 선으로부터 순차적으로 시밍을 수행할 수 있다.
단계 S1040에서, 의상의 3차원 데이터 제공 장치(100)는 제 1 이미지와 시밍하려는 다른 이미지를 선택할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 우측 몸판 패널인 제 1 이미지와 연결 가능한 우측 소매 패널인 제 2 이미지를 선택할 수 있다.
단계 S1050에서, 의상의 3차원 데이터 제공 장치(100)는 제 1 이미지와 제 2 이미지를 시밍할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 제 1 선을 시작으로 제 1 이미지와 제 2 이미지 간의 시밍을 수행할 수 있다. 여기에서, 의상의 3차원 데이터 제공 장치(100)는 전술한 기 저장된 규칙에 따라 제 1 이미지와 제 2 이미지 간에 시밍을 수행할 수 있다.
단계 S1060에서, 의상의 3차원 데이터 제공 장치(100)는 남은 제 3 이미지가 존재하는 경우, 제 1 이미지 및 제 2 이미지에서 시밍되지 않은 선들과 제 3 이미지의 선들을 비교하여, 시밍된 제 1 이미지 및 제 2 이미지에 제 3 이미지를 시밍할 수 있다.
한편, 다른 실시예에 따라 의상의 3차원 데이터 제공 장치(100)는 제 1 이미지, 제 2 이미지 및 제 3 이미지의 배치 정보를 획득하여, 획득한 배치 정보를 기초로 제 1 이미지 및 제 2 이미지에 제 3 이미지를 시밍할 수 있다. 여기에서, 배치 정보는 제 1 이미지, 제 2 이미지 및 제 3 이미지에 각각 대응되는 패턴들을 포함하는 의상의 2차원 이미지로부터 획득될 수 있다. 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 의상을 구성하는 복수의 이미지들의 배치 정보를 이용하여 보다 정확하게 이미지들의 시밍을 수행할 수 있다.
도 11은 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 이미지들(110)을 시밍하는 방법을 설명하기 위한 도면이다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 획득한 패널들의 이미지들(1110, 1120, 1130) 중에서, 몸판 패널의 이미지(1110)를 선택할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 선택된 몸판 패널의 이미지(1110)에서, 안으로 파인 선들(1111, 1112)을 시밍할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 몸판 패널의 이미지(1110)를 다른 이미지와 시밍하기에 앞서, 몸판 패널의 이미지(1110)에서 안으로 파인 선들(1111, 1112)을 우선적으로 시밍할 수 있다.
의상의 3차원 데이터 제공 장치(100)는 몸판 패널의 이미지(1110)를 구성하는 복수의 선들(1111, 1112, 1113) 중 어깨 선(1113)을 선택할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 선택된 어깨 선(1113)으로부터 순차적으로 시밍을 수행할 수 있다.
일 실시예에 따른, 의상의 3차원 데이터 제공 장치(100)는 어깨 선(1113)을 기준으로 몸판 패널의 이미지(1110)와 소매 패널의 이미지(1120)를 선택할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 어깨 선(1113)을 시작으로 몸판 패널의 이미지(1110)와 우측 소매 패널의 이미지(1120)를 시밍할 수 있다. 여기에서, 의상의 3차원 데이터 제공 장치(100)는 도 10을 참조하여 전술한 규칙에 따라 우측 몸판 패널의 이미지(1110)와 우측 소매 패널의 이미지(1120)에 대해 시밍을 수행할 수 있다.
한편, 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 남은 이미지(1130)가 존재하는 경우, 몸판 패널의 이미지(1110)와 우측 소매 패널의 이미지(1120)에서, 시밍되지 않은 선들과 남은 이미지(1130)의 선들을 비교하여, 남은 이미지(1130)를 시밍할 수 있다.
도 12는 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 이미지들(110)을 배치하는 방법을 설명하기 위한 흐름도이다.
단계 S1210에서, 의상의 3차원 데이터 제공 장치(100)는 복수의 패널들의 종류에 따라, 획득한 이미지들을 10개의 기설정된 기본 영역에 배치할 수 있다. 여기에서, 10개의 기설정된 기본 영역들은 좌/우, 위(Top)/아래(bottom), 전면/ 후면 등에 의한 8개 영역과 좌/우 소매 영역을 포함할 수 있다.
단계 S1220에서, 의상의 3차원 데이터 제공 장치(100)는 기본 영역에 배치된 패널들의 위치에 기초하여, 장식용(decorative) 패널들을 배치할 수 있다. 여기에서, 장식용 패널에는 카라, 벨트 등에 관한 이미지가 포함될 수 있다.
단게 S1230에서, 의상의 3차원 데이터 제공 장치(100)는 의상의 2차원 이미지를 참조하여, 패널들의 이미지를 배치할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 의상의 2차원 이미지로부터 셔츠의 상단 좌측에 주머니가 부착되어 있는 것을 확인할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 셔츠의 상단 좌측에 주머니가 부착되어 있는 경우, 주머니 패널에 대응되는 이미지를 기설정된 기본 영역들 중 상단 좌측 영역에 배치할 수 있다.
한편, 다른 실시예에 따라 의상의 3차원 데이터 제공 장치(100)는 이미지들(110)을 시밍하는 과정에서 연결 관계가 확정된 패널들에 관한 정보를 기초로 이미지들(110)을 배치할 수 있다. 예를 들어, 몸판 패널과 소매 패널등의 경우, 연결 관계가 존재하는 패널들이므로, 의상의 3차원 데이터 제공 장치(100)는 몸판 패널과 소매 패널을 가깝게 배치시킬 수 있다.
도 13은 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 이미지들(110)이 배치되는 기본 영역들(1310, 1315, 1320, 1325, 1330, 1335, 1340, 1345, 1350, 1355)을 설명하기 위한 도면이다.
도 13을 참고하면, 이미지들(110)이 배치되는 기본 영역에는 각각, 좌측 상단 전면(1310), 우측 상단 전면(1315), 좌측 하단 전면(1320), 우측 하단 전면(1325), 좌측 상단 후면(1330), 우측 상단 후면(1335), 좌측 하단 후면(1340), 우측 하단 후면(1345), 좌측 소매(1350), 우측 소매(1355)에 대응되는 이미지들이 배치될 수 있다.
한편, 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 기본 영역들 상에 배치되지 못한 다른 이미지들과 기본 영역에 배치된 이미지들과의 관계에 기초하여, 다른 이미지들의 위치를 결정할 수 있다. 여기에서, 다른 이미지들은 예를 들어, 장식용 패널의 이미지 등이 포함될 수 있다.
또한, 다른 실시예에 따라 의상의 3차원 데이터 제공 장치(100)는 의상의 2차원 이미지를 참조하여, 다른 이미지들의 위치를 결정할 수 있다.
또 다른 실시예에 따라 의상의 3차원 데이터 제공 장치(100)는 시밍 관계가 확정된 서로 다른 패널들의 이미지들을 가깝게 배치시킬 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(110)는 우측 소매 패널과 우측 몸판 패널을 서로 근접한 위치에 배치시킬 수 있다.
도 14는 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 이미지들(110)의 텍스쳐 정보를 이용하여 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
단계 S1410에서, 의상의 3차원 데이터 제공 장치(100)는 의상의 텍스쳐 정보를 획득할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 의상을 구성하는 복수의 패널들의 이미지들(110)을 획득하면서, 이미지들(110)의 텍스쳐 정보를 함께 획득할 수 있다. 또한, 다른 예에 따라, 의상의 3차원 데이터 제공 장치(100)는 의상 전체에 대한 2차원 이미지 정보로부터 복수의 패널들의 이미지들(110) 각각의 텍스쳐 정보를 획득할 수도 있다.
예를 들어, 의상의 3차원 데이터 제공 장치(100)는 상단 전면 몸판이 실크 소재의 직물로 구성되어 있고, 좌측 소매 및 우측 소매가 쉬폰 소재의 직물로 구성되어 있다는 텍스쳐 정보를 획득할 수 있다.
단계 S1420에서, 의상의 3차원 데이터 제공 장치(100)는 획득한 텍스쳐 정보에 기초하여, 이미지들(110) 각각의 텍스쳐를 결정할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 이미지들(110) 각각에 대응되는 패널의 종류를 결정할 수 있다. 의상의 3차원 데이터 제공 장치(100)가 이미지들(110) 각각에 대응되는 패널의 종류를 결정하는 방법은 도 4 내지 도 9를 참조하여 전술한 바와 동일할 수 있다.
의상의 3차원 데이터 제공 장치(100)는 좌측 소매 및 우측 소매가 쉬폰 소재의 직물로 구성되어 있다는 텍스쳐 정보에 기초하여, 좌측 소매 패널 및 우측 소매 패널로 각각 결정된 이미지들의 텍스쳐를 쉬폰으로 결정할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 상단 전면 몸판이 실크 소재의 직물로 구성되어 있다는 텍스쳐 정보에 기초하여, 상단 전면 몸판으로 결정된 이미지의 텍스쳐를 실크로 결정할 수 있다.
단계 S1430에서, 의상의 3차원 데이터 제공 장치(110)는 결정된 텍스쳐 정보를 시밍된 이미지들에 적용하여, 의상의 3차원 데이터를 획득할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 이미지들(110)을 시밍한 이후에, 시밍된 이미지들에 텍스쳐 정보를 적용할 수 있다.
또한, 다른 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 이미지들에 텍스쳐 정보를 적용하기에 앞서, 텍스쳐 정보가 왜곡되어 있는지 여부를 판단할 수 있다. 예를 들어, 의상을 촬영할 당시에 그림자, 조명 등에 의해 텍스쳐 정보의 적어도 일부가 왜곡될 수 있다. 의상의 3차원 데이터 제공 장치(100)는 텍스쳐 정보가 왜곡되어 있다고 판단된 경우, 텍스쳐 정보를 보정할 수 있다.
의상의 3차원 데이터 제공 장치(100)는 보정된 텍스쳐 정보를 시밍이 완료된 이미지들에 적용할 수 있다.
도 15는 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 텍스쳐 정보를 이용하여 의상의 3차원 데이터(1510)를 생성하는 방법을 설명하기 위한 도면이다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 의상을 구성하는 복수의 패널들의 이미지들을 획득할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 획득한 이미지들의 형태를 식별하고, 식별된 이미지들을 시밍함으로써 의상의 3차원 데이터(1510)를 생성할 수 있다.
또한, 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 의상에 관한 텍스쳐 정보(1520)를 획득할 수 있다. 여기에서, 텍스쳐 정보(1520)는 의상을 구성하는 직물을 근접 촬영한 이미지로서 제공될 수 있다. 다른 예에 따라, 텍스쳐 정보(1520)는 특정 텍스쳐 정보(1520)를 나타내는 식별 코드 등을 통해 제공될 수도 있다.
예를 들어, 의상의 3차원 데이터 제공 장치(100)는 체크 무늬가 표시된 실크 소재의 직물을 나타내는 텍스쳐 정보(1520)를 획득할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 식별된 이미지들을 시밍하여 생성한 3차원 데이터(1510)에 텍스쳐를 적용하여, 텍스쳐링 된 3차원 데이터(1530)를 생성할 수 있다.
또한, 의상의 3차원 데이터 제공 장치(100)는 의상에 관한 텍스쳐 정보(1520) 이외에 다양한 종류의 텍스쳐 정보를 생성된 3차원 데이터(1510)에 적용할 수 있다.
도 16은 일 실시예에 다른 의상의 3차원 데이터 제공 장치(100)가 사용자가 착용하고 있는 의상의 형태 정보 및 사용자로부터 제공되는 텍스쳐 정보를 이용하여, 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
단계 S1610에서, 의상의 3차원 데이터 제공 장치(100)는 사용자가 착용하고 있는 의상의 3차원 데이터를 획득할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 깊이 정보를 획득 가능한 깊이(depth) 카메라와 RGB 카메라로부터 의상을 착용한 사용자를 촬영한 이미지를 획득할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 획득한 이미지로부터 의상의 형태를 식별할 수 있다.
한편, 깊이 카메라 및 RGB 카메라는 의상의 3차원 데이터 제공 장치(100)에 구비될 수도 있으나, 의상의 3차원 데이터 제공 장치(100)와 별개의 디바이스일 수 있다.
단계 S1620에서, 의상의 3차원 데이터 제공 장치(100)는 사용자로부터 텍스쳐 정보를 제공받을 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 사용자가 들고 있는 다른 의상의 텍스쳐 정보를 획득할 수 있다. 사용자는 의상의 3차원 데이터 제공 장치(100)의 디스플레이부에서 제공하는 사용자 인터페이스 상의 특정 영역에, 다른 의상을 근접시킴으로써, 다른 의상의 텍스쳐 정보를 의상의 3차원 데이터 제공 장치(100)에 제공할 수 있다.
단계 S1630에서, 의상의 3차원 데이터 제공 장치(100)는 사용자로부터 제공된 텍스쳐 정보를 사용자가 착용하고 있는 의상의 3차원 데이터에 적용하여, 또 다른 의상의 3차원 데이터를 생성할 수 있다.
예를 들어, 의상의 3차원 데이터 제공 장치(100)는 사용자가 착용하고 있는 하얀 색의 민소매 드레스에, 사용자로부터 제공된 붉은색의 텍스쳐를 적용하여, 붉은색의 민소매 드레스에 대한 3차원 데이터를 생성할 수 있다. 여기에서, 붉은색의 민소매 드레스는 텍스쳐 이외에 다른 특성은 하얀색의 민소매 드레스와 동일하다.
단계 S1640에서, 의상의 3차원 데이터 제공 장치(100)는 생성된 또 다른 의상의 3차원 데이터를 사용자의 3차원 데이터에 결합하여 디스플레이 할 수 있다.
예를 들어, 의상의 3차원 데이터 제공 장치(100)는 사용자가 새롭게 생성된 붉은색의 민소매 드레스를 착용한 것과 같이, 보여질 수 있도록 붉은색의 민소매 드레스에 대한 3차원 데이터와 사용자의 3차원 데이터를 결합할 수 있다.
또한, 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 사용자를 촬영하고 있는 깊이 카메라로부터 실시간으로 사용자의 움직임 정보 등을 획득하여, 의상의 3차원 데이터 또한 사용자의 움직임에 맞게 변경되도록 제어할 수 있다.
도 17은 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 사용자가 착용하고 있는 의상의 형태 정보 및 사용자로부터 제공되는 텍스쳐 정보를 이용하여, 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 17을 참고하면, 의상의 3차원 데이터 제공 장치(100)는 깊이 카메라를 이용하여, 의상(1710)을 착용한 사용자의 이미지에 관한 정보를 획득할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 획득한 정보로부터 의상(1710)에 관한 이미지를 식별할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 사용자로부터 현재 착용하고 있는 의상(1710)의 텍스쳐와 다른 텍스쳐에 관한 정보를 제공받을 수 있다. 예를 들어, 도 17에서, 사용자는 착용하고 있는 하얀색의 민소매 드레스(1710)의 텍스쳐와는 다른 텍스쳐를 갖는 도트 무늬의 직물(1720)에 관한 정보를 의상의 3차원 데이터 제공 장치(100)에 제공할 수 있다.
의상의 3차원 데이터 제공 장치(100)는 제공받은 도트 무늬의 텍스쳐를 사용자가 착용하고 있는 하얀색의 민소매 드레스(1710)의 3차원 데이터에 적용할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 도트 무늬로 텍스쳐링된 민소매 드레스의 3차원 데이터(1730)를 생성할 수 있다.
또한 의상의 3차원 데이터 제공 장치(100)는 도트 무늬로 텍스쳐링된 민소매 드레스의 3차원 데이터(1730)를 사용자의 3차원 데이터와 결합하여 디스플레이할 수 있다.
도 18은 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 제 1 의상에 관한 패널들의 이미지들과 제 2 의상에 관한 패널들의 이미지들을 이용하여, 새로운 제 3 의상의 3차원 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
단계 S1810에서, 의상의 3차원 데이터 제공 장치(100)는 제 1 의상을 구성하는 복수의 제 1 패널들 중 적어도 일부에 관한 이미지와 제 2 의상을 구성하는 복수의 제 2 패널들 중 적어도 일부에 관한 이미지를 획득할 수 있다.
예를 들어, 의상의 3차원 데이터 제공 장치(100)는 블라우스인 제 1 의상을 구성하는 복수의 제 1 패널들에 관한 이미지를 획득할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 원피스인 제 2 의상을 구성하는 제 2 패널들 중에서 허리선 아래의 패널들에 관한 이미지를 획득할 수 있다.
한편, 일 실시예에 다른 의상의 3차원 데이터 제공 장치(100)는 구비된 카메라를 통해, 제 1 의상 및 제 2 의상을 각각 구성하는 패널들 중 적어도 일부를 획득할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)에 구비된 카메라에 제 2 의상을 구성하는 제 2 패널들 중에서, 허리선 아래의 패널들만이 감지되는 경우, 의상의 3차원 데이터 제공 장치(100)는 허리선 아래의 패널들에 관한 이미지를 획득할 수 있다.
다만, 이는 일 실시예일 뿐, 의상의 3차원 데이터 제공 장치(100)는 카메라를 구비하지 않을 수도 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 외부의 화상 형성 장치 또는 외부의 카메라로부터 의상을 구성하는 패널들의 이미지를 획득할 수 있다.
또 다른 예에 따라, 의상의 3차원 데이터 제공 장치(100)는 제 1 의상을 구성하는 복수의 제 1 패널들의 이미지들과 제 2 의상을 구성하는 복수의 제 2 패널들의 이미지들을 디스플레이할 수 있다.
의상의 3차원 데이터 제공 장치(100)는 사용자의 선택 입력에 기초하여 디스플레이 된 복수의 제 1 패널들의 이미지들 및 제 2 패널들의 이미지들 중 적어도 일부를 선택할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 사용자로부터 제 1 패널들 전체를 선택하는 드래그 입력을 수신한 경우에는 제 1 패널들 전체의 이미지들을 선택할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 사용자로부터 선택된 이미지들에 대해 후술할 단계 S1820 내지 단계 S1840의 동작을 실행할 수 있다.
단계 S1820에서, 의상의 3차원 데이터 제공 장치(100)는 획득한 이미지들의 형태를 식별할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 획득한 이미지들을 각각 구성하는 선의 길이, 크기, 위치 및 기울기 등에 관한 정보를 식별할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 획득한 이미지들을 각각 구성하는 선의 점들의 좌표값을 획득할 수도 있다.
한편, 단계 S1820에서, 획득한 이미지들의 형태를 식별하는 방법은 도 4 내지 도 9를 참조하여 전술한 이미지들의 형태를 식별하는 방법과 대응될 수 있다.
단계 S1830에서, 의상의 3차원 데이터 제공 장치(100)는 식별된 형태에 기초하여, 획득한 이미지들을 조합하여, 제 3 의상의 3차원 데이터를 생성할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 식별된 형태에 기초하여, 획득된 제 1 패널들의 이미지와 획득된 제 2 패널들의 이미지를 조합할 수 있다. 예를 들어, 획득된 제 1 패널들의 이미지가 제 1 의상의 상단을 구성하는 패널들에 해당하고, 획득된 제 2 패널들의 이미지가 제 2 의상의 하단을 구성하는 패널인 경우, 제 1 패널들의 이미지를 상단에 배치하고, 제 2 패널들의 이미지를 하단에 배치하여 시밍함으로써, 새로운 제 3 의상의 3차원 데이터를 생성할 수 있다.
단계 S1840에서, 의상의 3차원 데이터 제공 장치(100)는 생성된 제 3 의상의 3차원 데이터를 디스플레이할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 디스플레이부에 제 3 의상의 3차원 데이터를 디스플레이 할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 제 3 의상의 3차원 데이터를 사용자의 3차원 데이터와 조합하여 디스플레이할 수도 있다.
도 19는 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)가 제 1 의상(1910)에 관한 패널들의 이미지들(1915)과 제 2 의상(1920)에 관한 패널들의 이미지들(1925)을 이용하여, 새로운 제 3 의상의 3차원 데이터(1930)를 생성하는 방법을 설명하기 위한 도면이다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 블라우스(1910)를 구성하는 복수의 제 1 패널들의 이미지들(1915)을 획득할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 민소매 원피스(1920)를 구성하는 복수의 제 2 패널들 중 일부의 이미지들(1925)을 획득할 수 있다.
예를 들어, 사용자가 블라우스(1910)를 민소매 원피스(1920)의 상단 부분에 겹쳐서, 카메라에 인식시키는 경우, 의상의 3차원 데이터 제공 장치(100)는 복수의 제 1 패널들의 이미지들(1915) 및 복수의 제 2 패널들의 이미지들(1925) 중 일부의 이미지들(1927)을 획득할 수 있다.
한편, 이는 일 실시예일 뿐, 렌더징 장치(100)가 복수의 의상들 각각에 관한 패널들의 이미지를 획득하는 방법에 이에 한정되는 것은 아니다. 다른 예에 따라, 의상의 3차원 데이터 제공 장치(100)는 사용자로부터 복수의 의상들 각각에 관한 패널들 중 일부를 선택하는 입력을 직접 수신할 수도 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 획득한 이미지들(1915, 1927)의 형태를 식별할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 획득한 이미지들(1915, 1927)을 구성하는 선의 길이, 형태, 위치 및 기울기 중 적어도 하나를 식별하여, 획득한 이미지들 각각의 형태를 식별할 수 있다. 의상의 3차원 데이터 제공 장치(100)는 식별된 형태에 기초하여, 획득한 이미지들(1915, 1927) 각각에 대응되는 패널의 종류를 결정할 수 있다.
예를 들어, 의상의 3차원 데이터 제공 장치(100)는 획득한 제 1 패널들의 이미지들(1915)이 좌측 몸판 패널, 우측 몸판 패널 및 소매 패널 등으로 구성되어 있다는 것을 확인할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(100)는 획득한 제 2 패널들의 이미지들(1925)이 하단 좌측 몸판 패널 및 하단 우측 몸판 패널로 구성되어 있다는 것을 확인할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 식별된 형태에 기초하여, 획득한 이미지들을 조합함으로써, 제 3 의상의 3차원 데이터를 생성할 수 있다. 예를 들어, 의상의 3차원 데이터 제공 장치(100)는 블라우스(1910)를 구성하는 패널들 중 몸판 패널들의 이미지들과 민소매 원피스(1920)를 구성하는 패널들 중 몸판 패널들의 이미지들을 시밍할 수 있다.
도 19를 참고하면, 의상의 3차원 데이터 제공 장치(100)는 블라우스(1910)를 구성하는 제 1 패널들의 이미지와 민소매 원피스(1920)를 구성하는 제 2 패널들 중 적어도 일부의 이미지로부터 긴소매 원피스 3차원 데이터(1930)를 생성할 수 있다.
일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는 생성된 긴소매 원피스의 3차원 데이터(1930)를 디스플레이 할 수 있다.
도 20 은 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)의 구성을 설명하기 위한 블록 구성도이다.
도 20에 도시된 바와 같이, 본 발명의 일 실시예에 따른 의상의 3차원 데이터 제공 장치(100)는, 입력부(110), 제어부(130) 및 출력부(150)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 의상의 3차원 데이터 제공 장치(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 의상의 3차원 데이터 제공 장치(100)는 구현될 수 있다.
입력부(110)는 의상을 구성하는 복수의 패널들에 대응되는 이미지들을 획득한다. 또한, 일 실시예에 다른 입력부(110)는 의상의 2차원 이미지를 획득할 수도 있다.
한편, 입력부(110)는 의상의 텍스쳐 정보를 획득할 수도 있다.
일 실시예에 따른 입력부(110)는 복수의 의상들 각각의 패널들에 대응되는 이미지들을 획득할 수 있다. 예를 들어, 입력부(110)는 제 1 의상을 구성하는 복수의 제 1 패널들 및 제 2 의상을 구성하는 복수의 제 2 패널들에 관한 이미지들을 획득할 수 있다.
제어부(130)는 획득한 이미지들 각각의 형태를 식별한다. 또한, 제어부(130)는 식별된 이미지들 각각의 형태에 기초하여 복수의 패널들의 종류를 결정한다. 제어부(130)는 결정된 복수의 패널들의 종류에 따라 획득한 이미지들을 조합하여, 의상의 3차원 데이터를 생성한다.
일 실시예에 따른 제어부(130)는 패널들의 이미지들 각각을 구성하는 선의 형태, 길이, 기울기 및 위치 중 적어도 하나를 식별할 수 있다. 또한, 제어부(130)는 이미지들 각각을 구성하는 선에 포함된 점들의 좌표값을 획득할 수도 있다.
또한, 일 실시예에 따른 제어부(130)는 기저장된 패널별 특성 정보와 식별된 이미지들 각각의 형태를 비교하여, 이미지들 각각에 대응되는 패널의 종류를 결정할 수 있다.
일 실시예에 따른 제어부(130)는 입력부(110)로부터 획득된 의상의 2차원 이미지에서, 복수의 패널들 각각에 대응되는 부분의 형태에 관한 정보를 참조 정보로 검출할 수 있다. 제어부(130)는 복수의 패널들 각각에 대응되는 부분의 형태에 관한 정보를 참조 정보로 검출하고, 검출된 참조 정보와 식별된 이미지들 각각의 형태를 비교할 수 있다.
또한, 제어부(130)는 결정된 복수의 패널들의 종류에 따라, 획득한 이미지들을 배치할 수 있다. 제어부(130)는 배치된 이미지들을 시밍할 수 있다.
일 실시예에 따른 제어부(130)는 획득한 텍스쳐 정보를 이용하여, 이미지들 각각의 텍스쳐를 결정할 수 있다. 또한, 제어부(130)는 텍스쳐 정보에 왜곡이 존재하는 경우, 텍스쳐 정보의 왜곡을 보정할 수 있다. 일 실시예에 따른 제어부(130)는 텍스쳐 정보가 변경됨에 따라, 기생성된 의상의 3차원 데이터의 텍스쳐를 변경할 수도 있다.
한편, 일 실시예에 다른 제어부(130)는 사용자의 신체 정보를 획득할 수 있다. 제어부(130)는 획득한 신체 정보를 이용하여, 사용자의 3차원 데이터를 생성할 수 있다. 제어부(130)는 사용자의 3차원 데이터와 의상의 3차원 데이터를 결합할 수 있다.
일 실시예에 따른 제어부(130)는 입력부(110)에서 획득한 복수의 제 1 패널들 중 적어도 일부의 이미지와 복수의 제 2 패널들 중 적어도 일부의 이미지를 조합하여, 제 3 의상의 3차원 데이터를 생성할 수 있다.
출력부(150)는 생성된 의상의 3차원 데이터를 디스플레이 한다. 또한, 출력부(150)는 사용자의 3차원 데이터와 결합된 의상의 3차원 데이터를 디스플레이 할 수도 있다.
도 21은 다른 실시예에 따른 의상의 3차원 데이터 제공 장치(200)의 구성을 설명하기 위한 블록 구성도이다.
예를 들어, 도 21에 도시된 바와 같이, 일 실시예에 따른 의상의 3차원 데이터 제공 장치(200)는, 통신부(210), 센싱부(220), 제어부(230), 출력부(240), 사용자 입력부(250), A/V 입력부(260) 및 메모리(270)를 포함할 수도 있다.
이하 상기 구성요소들에 대해 차례로 살펴본다.
통신부(210)는, 의상의 3차원 데이터 제공 장치(200)와 외부 디바이스(미도시) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(210)는, 근거리 통신부(211), 이동 통신부(212), 방송 수신부(213)를 포함할 수 있다. 여기에서, 통신부(210)는 도 20을 참조하여 전술한 의상의 3차원 데이터 제공 장치(100)의 입력부(110)의 기능을 수행할 수 있다. 예를 들어, 통신부(210)는 의상을 구성하는 패널들의 이미지들을 획득할 수 있다.
근거리 통신부(short-range wireless communication unit)(211)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(212)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 의상을 구성하는 패널들의 이미지 및 의상의 2차원 이미지 등의 데이터를 포함할 수 있다.
방송 수신부(213)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 의상의 3차원 데이터 제공 장치(200)가 방송 수신부(213)를 포함하지 않을 수도 있다.
센싱부(220)는, 의상의 3차원 데이터 제공 장치(200)의 상태 또는 의상의 3차원 데이터 제공 장치(200) 주변의 상태를 감지하고, 감지된 정보를 제어부(230)로 전달할 수 있다. 여기에서, 센싱부(220)는 도 20을 참조하여, 전술한 입력부(110)의 기능을 수행할 수 있다. 예를 들어, 센싱부(220)는 의상을 구성하는 패널들의 이미지들을 획득할 수 있다.
한편, 센싱부(220)는, 지자기 센서(Magnetic sensor)(221), 가속도 센선(222), 온/습도 센서(223), 적외선 센서(224), 자이로스코프 센서(225), 위치 센서(예컨대, GPS)(226), 기압 센서(127), 근접 센서(228), 및 RGB 센서(illuminance sensor)(229) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
센싱부(220)에 포함된 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
제어부(230)는, 통상적으로 의상의 3차원 데이터 제공 장치(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(230)는, 메모리(270)에 저장된 프로그램들을 실행함으로써, 통신부(210), 센싱부(220), 출력부(240), 사용자 입력부(250), A/V 입력부(260) 및 메모리(270)등을 전반적으로 제어할 수 있다.
한편, 도 21의 제어부(230)는 도 20의 제어부(130)와 대응될 수 있다.
출력부(240)는, 제어부(230)에서 결정된 동작을 수행하기 위한 것으로, 이에는 디스플레이부(241)와 음향 출력부(242), 진동 모터(243) 등이 포함될 수 있다.
디스플레이부(241)는 의상의 3차원 데이터 제공 장치(100)에서 처리되는 정보를 출력한다. 예를 들어, 디스플레이부(241)는, 생성된 의상의 3차워 이미지를 디스플레이 할 수 있다. 또한, 디스플레이부(241)는 사용자의 3차원 데이터에 결합된 의상의 3차원 데이터를 디스플레이 할 수도 있다.
한편, 디스플레이부(241)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(241)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(241)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 의상의 3차원 데이터 제공 장치(200)의 구현 형태에 따라 의상의 3차원 데이터 제공 장치(200)는 디스플레이부(241)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(241)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부(242)는 통신부(210)로부터 수신되거나 메모리(270)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(242)는 의상의 3차원 데이터 제공 장치(200)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(242)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(243)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(243)는 오디오 콘텐트 또는 동영상 콘텐트(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(243)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
사용자 입력부(250)는, 사용자가 의상의 3차원 데이터 제공 장치(200)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(250)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
사용자 입력부(250)는, 사용자 입력을 획득할 수 있다. 예를 들어, 사용자 입력부(250)는, 의상의 3차원 데이터 제공 장치(200)에 획득한 패널들의 이미지에서 일부를 선택하는 사용자의 입력을 획득할 수 있다.
A/V(Audio/Video) 입력부(260)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(261)와 마이크로폰(262) 등이 포함될 수 있다. 카메라(261)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(230) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(261)에서 처리된 화상 프레임은 메모리(170)에 저장되거나 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(141)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(262)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(262)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(262)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리(270)는, 제어부(230)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들(예컨대, 의상을 구성하는 패널들의 이미지들, 의상의 2차원 이미지, 생성된 의상의 3차원 데이터)을 저장할 수도 있다.
메모리(270)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 의상의 3차원 데이터 제공 장치(200)는 인터넷(internet)상에서 메모리(270)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.
메모리(270)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(271), 터치 스크린 모듈(272), 알림 모듈(273) 등으로 분류될 수 있다.
UI 모듈(271)은, 애플리케이션 별로 의상의 3차원 데이터 제공 장치(200)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(272)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(230)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(272)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(272)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.
근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(273)은 의상의 3차원 데이터 제공 장치(200)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 의상의 3차원 데이터 제공 장치(200)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 및 사용자 입력의 획득 등이 있다. 알림 모듈(173)은 디스플레이부(271)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(272)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(273)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
개시된 실시예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다.  소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다.  여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다.  컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다.  매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
개시된 실시예에서 인용하는 공개 문헌, 특허 출원, 특허 등을 포함하는 모든 문헌들은 각 인용 문헌이 개별적으로 및 구체적으로 병합하여 나타내는 것 또는 게시된 실시예에서 전체적으로 병합하여 나타낸 것과 동일하게 개시된 실시예에 병합될 수 있다.
개시된 실시예의 이해를 위하여, 도면에 도시된 바람직한 실시 예들에서 참조 부호를 기재하였으며, 개시된 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 개시된 실시예가 한정되는 것은 아니며, 개시된 실시예들은 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다.
개시된 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다.  이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다.  예를 들어, 개시된 실시예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다.  개시된 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 개시된 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다.  기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.  또한, 개시된 실시예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다.  “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.  상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
개시된 실시예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 개시된 실시예의 범위를 한정하는 것은 아니다.  명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.  또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.  또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 개시된 실시예의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
100: 의상의 3차원 데이터 제공 장치
110: 입력부
130: 제어부
150: 출력부

Claims (23)

  1. 의상을 구성하는 복수의 패널들에 대응되는 이미지들을 획득하는 단계;
    상기 획득한 이미지들 각각의 형태를 식별하는 단계;
    상기 식별된 이미지들 각각의 형태에 기초하여 상기 복수의 패널들의 종류를 결정하는 단계; 및
    상기 결정된 복수의 패널들의 종류에 따라 상기 획득한 이미지들을 조합(combining)하여, 상기 의상의 3차원 데이터를 생성하는 단계를 포함하는 의상의 3차원 데이터를 제공하는 방법.
  2. 제 1항에 있어서, 상기 생성하는 단계는,
    상기 결정된 복수의 패널들의 종류에 따라 상기 획득한 이미지들을 기초로 3차원 메쉬 데이터를 생성하는 단계를 포함하는 의상의 3차원 데이터를 제공하는 방법.
  3. 제 1 항에 있어서, 상기 이미지들 각각의 형태를 식별하는 단계는,
    상기 이미지들 각각을 구성하는 선의 형태, 길이, 기울기 및 위치 중 적어도 하나를 식별하는 의상의 3차원 데이터를 제공하는 방법.
  4. 제 1 항에 있어서, 상기 복수의 패널들의 종류를 결정하는 단계는,
    기저장된 패널별 특성 정보와 상기 식별된 이미지들 각각의 형태를 비교하여, 상기 이미지들 각각에 대응되는 패널의 종류를 결정하는 의상의 3차원 데이터를 제공하는 방법.
  5. 제 1 항에 있어서,
    상기 의상의 이미지를 획득하는 단계;
    상기 획득한 의상의 이미지에서, 상기 복수의 패널들 각각에 대응되는 부분의 형태에 관한 정보를 참조 정보로 검출하는 단계를 더 포함하고,
    상기 복수의 패널들의 종류를 결정하는 단계는,
    상기 검출된 참조 정보와 상기 식별된 이미지들 각각의 형태를 비교하는 단계를 포함하는 의상의 3차원 데이터를 제공하는 방법.
  6. 제 1 항에 있어서, 상기 의상의 3차원 데이터를 생성하는 단계는,
    상기 결정된 복수의 패널들의 종류에 따라, 상기 획득한 이미지들을 배치하는 단계; 및
    상기 배치된 이미지들을 시밍(seaming)하는 단계를 포함하는 의상의 3차원 데이터를 제공하는 방법.
  7. 제 1 항에 있어서, 상기 의상의 3차원 데이터를 생성하는 단계는,
    상기 획득한 이미지들 각각의 텍스쳐를 결정하는 단계를 포함하는 의상의 3차원 데이터를 제공하는 방법.
  8. 제 7 항에 있어서,
    상기 텍스쳐 정보를 획득하는 단계;
    상기 획득한 텍스쳐 정보의 왜곡을 보정하는 단계를 더 포함하는 의상의 3차원 데이터를 제공하는 방법.
  9. 제 1 항에 있어서,
    상기 사용자의 신체 정보를 획득하는 단계;
    상기 획득한 신체 정보를 이용하여, 상기 사용자의 3차원 데이터를 생성하는 단계; 및
    상기 사용자의 3차원 데이터와 상기 의상의 3차원 데이터를 결합하는 단계를 더 포함하는 의상의 3차원 데이터를 제공하는 방법.
  10. 제 9 항에 있어서,
    상기 의상의 텍스쳐 정보와 다른 텍스쳐 정보가 획득됨에 따라, 상기 결합된 이미지에서 상기 의상의 3차원 데이터의 텍스쳐 정보를 변경하는 단계를 더 포함하는 의상의 3차원 데이터를 제공하는 방법.
  11. 제 1 항에 있어서, 상기 이미지들을 획득하는 단계는,
    제 1 의상을 구성하는 복수의 제 1 패널들 중 적어도 일부의 이미지 및 제 2 의상을 구성하는 복수의 제 2 패널들 중 적어도 일부의 이미지를 획득하는 단계를 포함하고,
    상기 의상의 3차원 데이터를 생성하는 단계는,
    상기 획득한 이미지들을 조합하여, 제 3 의상의 3차원 데이터를 생성하는 단계를 포함하는 의상의 3차원 데이터를 제공하는 방법.
  12. 의상을 구성하는 복수의 패널들에 대응되는 이미지들을 획득하는 입력부;
    상기 획득한 이미지들 각각의 형태를 식별하고, 상기 식별된 이미지들 각각의 형태에 기초하여 상기 복수의 패널들의 종류를 결정하고, 상기 결정된 복수의 패널들의 종류에 따라 상기 획득한 이미지들을 조합하여, 상기 의상의 3차원 데이터를 생성하는 제어부; 및
    상기 생성된 의상의 3차원 데이터를 디스플레이 하는 출력부를 포함하는 의상의 3차원 데이터를 제공하는 장치.
  13. 제 12항에 있어서, 상기 제어부는,
    상기 결정된 복수의 패널들의 종류에 따라 상기 획득한 이미지들을 기초로 3차원 메쉬 데이터를 생성하는 의상의 3차원 데이터를 제공하는 장치.
  14. 제 12 항에 있어서, 상기 제어부는,
    상기 이미지들 각각을 구성하는 선의 형태, 길이, 기울기 및 위치 중 적어도 하나를 식별하는 의상의 3차원 데이터를 제공하는 방법.
  15. 제 12 항에 있어서, 상기 제어부는,
    기저장된 패널별 특성 정보와 상기 식별된 이미지들 각각의 형태를 비교하여, 상기 이미지들 각각에 대응되는 패널의 종류를 결정하는 의상의 3차원 데이터를 제공하는 장치.
  16. 제 12 항에 있어서, 상기 입력부는,
    상기 의상의 2차원 이미지를 획득하고,
    상기 제어부는,
    상기 획득한 의상의 2차원 이미지에서, 상기 복수의 패널들 각각에 대응되는 부분의 형태에 관한 정보를 참조 정보로 검출하고, 상기 검출된 참조 정보와 상기 식별된 이미지들 각각의 형태를 비교하는 의상의 3차원 데이터를 제공하는 장치.
  17. 제 12 항에 있어서, 상기 제어부는,
    상기 결정된 복수의 패널들의 종류에 따라, 상기 획득한 이미지들을 배치하고, 상기 배치된 이미지들을 시밍(seaming)하는 의상의 3차원 데이터를 제공하는 장치.
  18. 제 12 항에 있어서, 상기 제어부는,
    상기 획득한 이미지들 각각의 텍스쳐를 결정하는 의상의 3차원 데이터를 제공하는 장치.
  19. 제 18 항에 있어서, 상기 입력부는,
    상기 텍스쳐 정보를 획득하고,
    상기 제어부는,
    상기 획득한 텍스쳐 정보의 왜곡을 보정하는 의상의 3차원 데이터를 제공하는 장치.
  20. 제 12 항에 있어서, 상기 입력부는,
    상기 사용자의 신체 정보를 획득하고,
    상기 제어부는,
    상기 획득한 신체 정보를 이용하여, 상기 사용자의 3차원 데이터를 생성하고, 상기 사용자의 3차원 데이터와 상기 의상의 3차원 데이터를 결합하는 의상의 3차원 데이터를 제공하는 장치.
  21. 제 20 항에 있어서, 상기 제어부는,
    상기 의상의 텍스쳐 정보와 다른 텍스쳐 정보가 획득됨에 따라, 상기 결합된 이미지에서 상기 의상의 3차원 데이터의 텍스쳐 정보를 변경하는 의상의 3차원 데이터를 제공하는 장치.
  22. 제 12 항에 있어서, 상기 입력부는,
    제 1 의상을 구성하는 복수의 제 1 패널들 중 적어도 일부의 이미지 및 제 2 의상을 구성하는 복수의 제 2 패널들 중 적어도 일부의 이미지를 획득하고,
    상기 제어부는,
    상기 획득한 이미지들을 조합하여, 제 3 의상의 3차원 데이터를 생성하는 의상의 3차원 데이터를 제공하는 장치.
  23. 제 1항 내지 제 11항 중 어느 하나의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020150127709A 2015-06-02 2015-09-09 의상의 3차원 데이터를 제공하는 방법 및 장치 KR20160142211A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP16164073.5A EP3115971B1 (en) 2015-06-02 2016-04-06 Method and apparatus for providing three-dimensional data of cloth
US15/094,276 US20160358374A1 (en) 2015-06-02 2016-04-08 Method and apparatus for providing three-dimensional data of cloth
CN201610387699.0A CN106228600B (zh) 2015-06-02 2016-06-02 用于提供服装的三维数据的方法和设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562169714P 2015-06-02 2015-06-02
US62/169,714 2015-06-02

Publications (1)

Publication Number Publication Date
KR20160142211A true KR20160142211A (ko) 2016-12-12

Family

ID=57574352

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150127709A KR20160142211A (ko) 2015-06-02 2015-09-09 의상의 3차원 데이터를 제공하는 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20160142211A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230053852A (ko) * 2021-10-15 2023-04-24 (주)에오스와이텍 패션 스타일 분류 시스템 및 그 분류 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230053852A (ko) * 2021-10-15 2023-04-24 (주)에오스와이텍 패션 스타일 분류 시스템 및 그 분류 방법

Similar Documents

Publication Publication Date Title
CN106228600B (zh) 用于提供服装的三维数据的方法和设备
KR102254459B1 (ko) 상품을 추천하는 서버 및 그 운영 방법
US10796467B2 (en) Systems and methods for utilizing a living entity as a marker for augmented reality content
JP6490430B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN108886586B (zh) 用于合成图像的方法及其电子设备
CN107251026B (zh) 用于生成虚拟情境的系统和方法
US9778464B2 (en) Shape recognition device, shape recognition program, and shape recognition method
JP2019510297A (ja) ユーザの真実の人体モデルへの仮想的な試着
US11670059B2 (en) Controlling interactive fashion based on body gestures
CN108351522A (zh) 注视方向映射
TW202022782A (zh) 一種神經網路的訓練方法及圖像匹配方法、裝置
US20220327709A1 (en) Garment segmentation
JP2016054450A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
CN111199583B (zh) 一种虚拟内容显示方法、装置、终端设备及存储介质
US11854069B2 (en) Personalized try-on ads
CN107463723A (zh) 用于设计用于可穿戴物品的式样的器械
KR20160142211A (ko) 의상의 3차원 데이터를 제공하는 방법 및 장치
JPWO2018198503A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN113781291B (zh) 图像处理方法、装置、电子设备及存储介质
KR20210158695A (ko) 영상에서 평면을 검출하는 전자 장치 및 그 동작 방법
KR101587177B1 (ko) 이동단말기 및 그 제어방법
KR20220056025A (ko) 게임 캐릭터를 커스터마이즈하는 방법 및 장치
KR20170021707A (ko) LFD(large format display) 장치 및 그 제어 방법
CN116702246A (zh) 数字化服装cad图纸与3d服装diy云设计交互的方法与系统

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application