KR20220135526A - System for providing virtual cloth fitting service using three-dimensional avatar - Google Patents

System for providing virtual cloth fitting service using three-dimensional avatar Download PDF

Info

Publication number
KR20220135526A
KR20220135526A KR1020210041313A KR20210041313A KR20220135526A KR 20220135526 A KR20220135526 A KR 20220135526A KR 1020210041313 A KR1020210041313 A KR 1020210041313A KR 20210041313 A KR20210041313 A KR 20210041313A KR 20220135526 A KR20220135526 A KR 20220135526A
Authority
KR
South Korea
Prior art keywords
try
avatar
clothes
service providing
clothing
Prior art date
Application number
KR1020210041313A
Other languages
Korean (ko)
Other versions
KR102530461B1 (en
Inventor
장철호
Original Assignee
장철호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 장철호 filed Critical 장철호
Priority to KR1020210041313A priority Critical patent/KR102530461B1/en
Publication of KR20220135526A publication Critical patent/KR20220135526A/en
Application granted granted Critical
Publication of KR102530461B1 publication Critical patent/KR102530461B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A system for providing a try-on service using a 3D avatar is provided. The system comprises: a user terminal that uploads body information including the size of at least one part of the human body, uploads a photo including face information, outputs a 3D avatar generated based on the body information and face information, and outputs a result of extracting clothes having a size corresponding to the body information on the 3D avatar and trying the clothes on; and a try-on service providing server including a storage unit that tags and stores a size and a material in clothes data of at least one category of clothes, a conversion unit that converts into 3D data by performing 3D modeling based on an image and a size in the clothes data, a generation unit that generates a 3D avatar based on the body information and the face information in the case of inputting the body information and the face information in a user terminal, a try-on unit that extracts the 3D data of clothes having a size corresponding to the body information on the 3D avatar and tries the clothes on, and a transmission unit that transmits the result of the try-on to the user terminal. Accordingly, the present invention can provide information that can only be known by actually wearing clothes.

Description

3D 아바타를 이용한 시착 서비스 제공 시스템{SYSTEM FOR PROVIDING VIRTUAL CLOTH FITTING SERVICE USING THREE-DIMENSIONAL AVATAR}A system for providing try-on service using an avatar {SYSTEM FOR PROVIDING VIRTUAL CLOTH FITTING SERVICE USING THREE-DIMENSIONAL AVATAR}

본 발명은 3D 아바타를 이용한 시착 서비스 제공 시스템에 관한 것으로, 신체정보 및 얼굴정보를 이용하여 3D 아바타를 생성한 후 의상을 시착해보는 시뮬레이션을 할 수 있는 플랫폼을 제공한다.The present invention relates to a system for providing a try-on service using a 3D avatar, and provides a platform for creating a 3D avatar using body information and face information and then performing a simulation of trying on clothes.

최근 그래픽 기술의 발달로 인해 가상착의는 의류 산업 등의 다양한 분야에서 광범위하게 활용되고 있으며, 이러한 3차 원 가상 피팅 기술은 대량생산체제에서 개별 고객의 사이즈와 취향 등을 반영하여 개별 고객 맞춤 서비스를 제공할 수 있는 핵심 기술이 되고 있다. 현재 사용되고 있는 3차원 가상 피팅 프로그램의 종류로는 3D Runway Designer, CLO 3D, i-Designer, 3D-Fit, Narcis, V-Stitcher, DC-suit 등이 있으며, 이 중 CLO 3D와 DC-Suit는 3차원 패션쇼가 가능하며, 국내에서는 패턴 캐드 프로그램 YUKA와 연동이 가능한 CLO 3D에 대한 선호도가 높아지고 있다. 또한 3차원 가상 피팅 프로그램의 사용 예로 최근 패션 스타트업 플랫폼 이파로는 CLO 3D를 이용해 상반기, 하반기 마다 단체 패션쇼를 진행해왔다.Due to the recent development of graphic technology, virtual clothing is widely used in various fields such as the clothing industry, and this 3D virtual fitting technology provides customized services to individual customers by reflecting the size and taste of individual customers in the mass production system. It is becoming a core technology that can be provided. The types of 3D virtual fitting programs currently in use include 3D Runway Designer, CLO 3D, i-Designer, 3D-Fit, Narcis, V-Stitcher, DC-suit, etc. Among them, CLO 3D and DC-Suit are 3 A dimensional fashion show is possible, and in Korea, preference for CLO 3D, which can be linked with the pattern CAD program YUKA, is increasing. In addition, as an example of the use of a three-dimensional virtual fitting program, recently, fashion startup platform Iparo has been conducting group fashion shows every first half and second half using CLO 3D.

이때, 고객의 신체정보 및 얼굴정보를 이용하여 3차원 아바타를 생성하고 시착해보는 방법이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국공개특허 제2020-0064582호(2020년06월08일 공개) 및 한국공개특허 제2020-0025291호(2020년03월10일 공개)에는, 신체정보를 기초로 신체아바타를 생성하기 위하여, 사용자의 체중, 키 및 족압 중에서 적어도 하나의 신체정보를 수신하고, 신체정보를 기초로 사용자의 현재 신체상태를 산출하며, 사용자의 현재 신체상태를 기초로 사용자의 신체아바타를 생성하는 구성과, 사용자의 얼굴을 촬영하는 얼굴 이미지를 획득하고, 얼굴 이미지로부터 얼굴형태, 피부색, 피부질감, 헤어스타일과 같은 특징을 추출한 후 활성화된 3D 아바타에 사용자 얼굴 이미지와 입력된 신체정보를 기반으로 가상 3D 아바타를 생성하며, 사용자의 얼굴 컬러에 기반하여 매칭되는 컬러를 진단 및 추천하고, 추천된 컬러를 가지는 의류를 3D 아바타에 피팅하여 출력하며, 피팅된 의류를 구매할 수 있도록 구매 및 결제 프로세스를 진행하는 구성이 각각 개시되어 있다.At this time, a method of creating and trying on a three-dimensional avatar using the customer's body information and face information was researched and developed. And in Korean Patent Application Laid-Open No. 2020-0025291 (published on March 10, 2020), in order to generate a body avatar based on body information, receiving at least one body information from a user's weight, height, and foot pressure, and The user's current body condition is calculated based on the information, and the user's body avatar is generated based on the user's current body condition. After extracting features such as , skin texture, and hairstyle, a virtual 3D avatar is created based on the user's face image and input body information in the activated 3D avatar, and matching colors are diagnosed and recommended based on the user's face color. , a configuration of fitting and outputting clothing having a recommended color to a 3D avatar, and performing a purchase and payment process to purchase the fitted clothing are disclosed.

다만, 상술한 구성은 3D 스캐너로 고객의 신체를 360도로 돌아가면서 촬영해야 하는데 3D 스캐너와 같이 고가의 장비를 갖추는 것은 비용이 많이 들 뿐만 아니라 만약 구비한다고 할지라도 3D 스캐너와 인접성이 떨어지는 지역에 사는 고객들은 이를 이용하는데 접근의 한계가 있다. 또, 시착 프로그램을 이용한다고 할지라도 실제로 자신이 입어보는 것이 아니기 때문에 그 느낌이나 무겁거나 가벼운 정도 어느 정도 여유가 있는지 또 어느 정도 죄어오는지를 알 수 없다. 이에, 3D 스캐너가 없더라도 신체정보만을 가지고 3D 아바타를 생성하고, 의류를 착용했을 때 각종 물리력을 고려하여 실제 입어보는 것과 같은 효과를 낼 수 있는 플랫폼의 연구 및 개발이 요구된다.However, in the above configuration, the 3D scanner has to rotate the customer's body 360 degrees and equipping it with expensive equipment such as a 3D scanner is not only expensive, but even if it is equipped, it is Customers have limited access to using it. In addition, even if you use a try-on program, you cannot know how much space there is or how tight it is to the extent that it feels heavy or light because you are not actually trying it on. Accordingly, research and development of a platform capable of generating a 3D avatar with only body information even without a 3D scanner and taking into account various physical forces when wearing clothing is required to produce the same effect as wearing clothes.

본 발명의 일 실시예는, 사용자의 신체정보를 이용하여 3D 아바타를 생성하고, 적어도 하나의 의류 및 패션의 상세정보가 포함된 태그를 이용하여 재질 및 사이즈를 데이터베이스화한 후, 3D 모델링으로 3D 의류 데이터를 생성하며, 3D 아바타에 맞는 사이즈의 의류를 고르면서 사용자의 취향을 고려하고, 나아가 의류의 재질에 따라 늘어나는 정도인 장력, 중력, 탄성력과 같은 물리력을 고려함으로써 동일한 사이즈라도 늘어나는 재질인 경우에는 타이트한 핏으로 입을 수 있음에도 적용하지 못하거나, 전혀 탄성이 없는 재질이어서 조금이라도 여유가 없는 경우 단추 사이가 벌어지거나 맞지 않는 경우와 같이 실제 입어봐야 알 수 있는 정보를 함께 제공해줄 수 있는, 3D 아바타를 이용한 시착 서비스 제공 방법을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.According to an embodiment of the present invention, a 3D avatar is created using the user's body information, materials and sizes are databased using tags including at least one clothing and fashion detailed information, and then 3D modeling is performed. In the case of a material that stretches even at the same size by generating clothing data, considering the user's taste while selecting clothing of the size that fits the 3D avatar, and further taking into account physical forces such as tension, gravity, and elasticity, which are the extent to which it is stretched according to the material of the clothing A 3D avatar that can provide information that you have to try on, such as a gap between the buttons or a case in which the button does not fit, if it cannot be applied even though it can be worn with a tight fit, or if there is no room due to the inelastic material. It is possible to provide a method of providing a try-on service using However, the technical task to be achieved by the present embodiment is not limited to the above-described technical task, and other technical tasks may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 인체의 적어도 하나의 부위의 사이즈를 포함하는 신체정보를 업로드하고, 얼굴정보가 포함된 사진을 업로드한 후, 신체정보 및 얼굴정보에 기반하여 생성된 3D 아바타를 출력하고, 3D 아바타 상에 신체정보에 대응하는 사이즈를 가지는 의류를 추출하여 시착한 결과를 출력하는 사용자 단말 및 적어도 하나의 카테고리의 의류의 의류 데이터에 사이즈 및 재질을 태깅하여 저장하는 저장부, 의류 데이터 내 이미지 및 사이즈에 기반하여 3D 모델링을 진행하여 3D 데이터로 변환하는 변환부, 사용자 단말에서 신체정보 및 얼굴정보를 입력하는 경우, 신체정보 및 얼굴정보에 기반하여 3D 아바타를 생성하는 생성부, 3D 아바타 상 신체정보에 대응하는 사이즈를 가지는 의류의 3D 데이터를 추출하여 시착시키는 시착부, 시착한 결과를 사용자 단말로 전송하는 전송부를 포함하는 시착 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention uploads body information including the size of at least one part of the human body, uploads a photo including face information, and then uploads the body information and a user terminal that outputs a 3D avatar generated based on face information, extracts clothes having a size corresponding to the body information on the 3D avatar, and outputs a result of trying on, and a size in the clothes data of at least one category of clothes and a storage unit that tags and stores materials, a conversion unit that performs 3D modeling based on images and sizes in clothing data and converts them into 3D data, body information and face information when inputting body information and face information from a user terminal A try-on service comprising a generator that generates a 3D avatar based on Includes server.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자의 신체정보를 이용하여 3D 아바타를 생성하고, 적어도 하나의 의류 및 패션의 상세정보가 포함된 태그를 이용하여 재질 및 사이즈를 데이터베이스화한 후, 3D 모델링으로 3D 의류 데이터를 생성하며, 3D 아바타에 맞는 사이즈의 의류를 고르면서 사용자의 취향을 고려하고, 나아가 의류의 재질에 따라 늘어나는 정도인 장력, 중력, 탄성력과 같은 물리력을 고려함으로써 동일한 사이즈라도 늘어나는 재질인 경우에는 타이트한 핏으로 입을 수 있음에도 적용하지 못하거나, 전혀 탄성이 없는 재질이어서 조금이라도 여유가 없는 경우 단추 사이가 벌어지거나 맞지 않는 경우와 같이 실제 입어봐야 알 수 있는 정보를 함께 제공해줄 수 있다.According to any one of the above-described problem solving means of the present invention, a 3D avatar is created using the user's body information, and materials and sizes are databased using tags including at least one clothing and fashion detailed information. After that, 3D clothing data is generated by 3D modeling, considering the user's taste while choosing clothing of the size that fits the 3D avatar, and furthermore, by considering physical forces such as tension, gravity, and elasticity, which are the degree of stretching according to the material of the clothing, the same In the case of a material that stretches in size, it cannot be applied even though it can be worn in a tight fit, or if there is no room because it is not elastic at all, it provides information that you can only know when you try it on, such as when there is a gap between the buttons or when it does not fit. can do it

도 1은 본 발명의 일 실시예에 따른 3D 아바타를 이용한 시착 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 시착 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 3D 아바타를 이용한 시착 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 3D 아바타를 이용한 시착 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a diagram for explaining a system for providing a try-on service using a 3D avatar according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a try-on service providing server included in the system of FIG. 1 .
3 and 4 are diagrams for explaining an embodiment in which a try-on service using a 3D avatar according to an embodiment of the present invention is implemented.
5 is a flowchart illustrating a method of providing a try-on service using a 3D avatar according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated, and one or more other features However, it is to be understood that the existence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded in advance.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. The terms "about," "substantially," and the like, to the extent used throughout the specification are used in or close to the numerical values when manufacturing and material tolerances inherent in the stated meaning are presented, and are intended to enhance the understanding of the present invention. To help, precise or absolute figures are used to prevent unfair use by unscrupulous infringers of the stated disclosure. As used throughout the specification of the present invention, the term "step of (to)" or "step of" does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware. Meanwhile, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by the terminal, apparatus, or device may be performed instead of in a server connected to the terminal, apparatus, or device. Similarly, some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal means mapping or matching the terminal's unique number or personal identification information, which is the identification data of the terminal. can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 3D 아바타를 이용한 시착 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 3D 아바타를 이용한 시착 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 시착 서비스 제공 서버(300), 적어도 하나의 쇼핑몰 서버(400)를 포함할 수 있다. 다만, 이러한 도 1의 3D 아바타를 이용한 시착 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a diagram for explaining a system for providing a try-on service using a 3D avatar according to an embodiment of the present invention. Referring to FIG. 1 , a try-on service providing system 1 using a 3D avatar may include at least one user terminal 100 , a try-on service providing server 300 , and at least one shopping mall server 400 . However, since the try-on service providing system 1 using the 3D avatar of FIG. 1 is only an embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1 .

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 시착 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 시착 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 쇼핑몰 서버(400)와 연결될 수 있다. 또한, 적어도 하나의 쇼핑몰 서버(400)는, 네트워크(200)를 통하여 시착 서비스 제공 서버(300)와 연결될 수 있다.At this time, each component of FIG. 1 is generally connected through a network (Network, 200). For example, as shown in FIG. 1 , at least one user terminal 100 may be connected to the try-on service providing server 300 through the network 200 . In addition, the try-on service providing server 300 may be connected to at least one user terminal 100 and at least one shopping mall server 400 through the network 200 . Also, the at least one shopping mall server 400 may be connected to the try-on service providing server 300 through the network 200 .

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure in which information exchange is possible between each node, such as a plurality of terminals and servers, and an example of such a network includes a local area network (LAN), a wide area network (WAN: Wide Area Network), the Internet (WWW: World Wide Web), wired and wireless data communication networks, telephone networks, wired and wireless television networks, and the like. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi (Wi-Fi) , Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth (Bluetooth) network, NFC ( Near-Field Communication) networks, satellite broadcast networks, analog broadcast networks, Digital Multimedia Broadcasting (DMB) networks, and the like are included, but are not limited thereto.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including the singular and the plural, and even if at least one term does not exist, each component may exist in the singular or plural, and may mean the singular or plural. it will be self-evident In addition, that each component is provided in singular or plural may be changed according to embodiments.

적어도 하나의 사용자 단말(100)은, 3D 아바타를 이용한 시착 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 신체정보 및 얼굴정보를 입력하여 3D 아바타를 생성하고, 3D 아바타 상에 자신의 사이즈에 맞는 의류를 시착한 결과를 출력하는 단말일 수 있다.The at least one user terminal 100 generates a 3D avatar by inputting body information and face information using a try-on service related web page, an app page, a program or an application using the 3D avatar, and the size of the 3D avatar. It may be a terminal that outputs a result of trying on clothes that fit.

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one user terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop. In this case, the at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one user terminal 100, for example, as a wireless communication device that guarantees portability and mobility, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) ) terminal, a smartphone, a smart pad, a tablet PC, etc. may include all kinds of handheld-based wireless communication devices.

시착 서비스 제공 서버(300)는, 3D 아바타를 이용한 시착 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 시착 서비스 제공 서버(300)는, 적어도 하나의 쇼핑몰 서버(400)로부터 수집된 각 의류 데이터를 사이즈 및 재질 등에 기반하여 태깅함으로써 데이터베이스를 구축하는 서버일 수 있다. 또한, 시착 서비스 제공 서버(300)는, 적어도 하나의 의류 데이터를 2D 데이터에서 3D 데이터로 모델링하는 서버일 수 있다. 그리고, 시착 서비스 제공 서버(300)는 사용자의 사이즈에 맞는 의류가 있는 카테고리만 활성화시켜 표시하는 서버일 수 있다. 또한, 시착 서비스 제공 서버(300)는 사용자 단말(100)에서 촉감 수트(Haptic Suit)와 연동된 경우, 촉감 수트를 통하여 의류를 사용자가 입었을 때 어느 정도 당기는지, 조이는지, 넉넉한지, 여유분은 있는지, 재질의 느낌은 어떠한지를 파악할 수 있도록 촉감 엔진 라이브러리를 구축하는 서버일 수 있다. The try-on service providing server 300 may be a server that provides a try-on service web page, an app page, a program, or an application using a 3D avatar. In addition, the try-on service providing server 300 may be a server that builds a database by tagging each clothing data collected from at least one shopping mall server 400 based on size and material. Also, the try-on service providing server 300 may be a server that models at least one piece of clothing data from 2D data to 3D data. In addition, the try-on service providing server 300 may be a server that activates and displays only categories having clothes that fit the user's size. In addition, when the try-on service providing server 300 is interlocked with a haptic suit in the user terminal 100, the amount of pulling, tightening, sufficient, and surplus is determined when the user wears the clothes through the tactile suit. It may be a server that builds a tactile engine library so that it can grasp the presence and the feeling of the material.

여기서, 시착 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the try-on service providing server 300 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop.

적어도 하나의 쇼핑몰 서버(400)는, 3D 아바타를 이용한 시착 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 쇼핑몰의 서버일 수 있다. 이때, 쇼핑몰 서버(400)는, 시착 서비스 제공 서버(300)에서 사용자 단말(100)의 구매 및 결제 이벤트가 발생하는 경우, 시착 서비스 제공 서버(300)로 수수료를 정산하는 서버일 수 있다. 또한, 쇼핑몰 서버(400)는, 시착 서비스 제공 서버(300)에서 데이터베이스를 구축할 수 있도록 각 의류의 이미지, 상세정보 등을 제공하거나 데이터베이스로의 엑세스를 허가하는 서버일 수 있다.The at least one shopping mall server 400 may be a server of a shopping mall using a try-on service related web page, an app page, a program, or an application using a 3D avatar. In this case, the shopping mall server 400 may be a server that settles a fee to the try-on service providing server 300 when a purchase and payment event of the user terminal 100 occurs in the try-on service providing server 300 . Also, the shopping mall server 400 may be a server that provides images, detailed information, etc. of each garment, or permits access to the database so that the try-on service providing server 300 can build a database.

여기서, 적어도 하나의 쇼핑몰 서버(400)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 쇼핑몰 서버(400)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 쇼핑몰 서버(400)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one shopping mall server 400 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop. In this case, the at least one shopping mall server 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. The at least one shopping mall server 400 is, for example, a wireless communication device that guarantees portability and mobility, including navigation, Personal Communication System (PCS), Global System for Mobile communications (GSM), Personal Digital Cellular (PDC), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) ) terminal, a smartphone, a smart pad, a tablet PC, etc. may include all kinds of handheld-based wireless communication devices.

도 2는 도 1의 시스템에 포함된 시착 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 3D 아바타를 이용한 시착 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.2 is a block diagram illustrating a try-on service providing server included in the system of FIG. 1, and FIGS. 3 and 4 show an embodiment in which a try-on service using a 3D avatar according to an embodiment of the present invention is implemented. It is a drawing for explanation.

도 2를 참조하면, 시착 서비스 제공 서버(300)는, 저장부(310), 변환부(311), 생성부(313), 시착부(315), 전송부(317), 아바타사이징부(320), 얼굴생성부(330), 쇼핑안내부(340), 개인화부(350), 코디부(360), 선호도저장부(370), 해외쇼핑부(380), 해외직구부(390) 및 무료수거부(391)를 포함할 수 있다.Referring to FIG. 2 , the try-on service providing server 300 includes a storage unit 310 , a conversion unit 311 , a generation unit 313 , a try-on unit 315 , a transmission unit 317 , and an avatar sizing unit 320 . ), face generation unit 330, shopping guide unit 340, personalization unit 350, coordination unit 360, preference storage unit 370, overseas shopping unit 380, overseas direct purchase unit 390 and free A collection unit 391 may be included.

본 발명의 일 실시예에 따른 시착 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100) 및 적어도 하나의 쇼핑몰 서버(400)로 3D 아바타를 이용한 시착 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100) 및 적어도 하나의 쇼핑몰 서버(400)는, 3D 아바타를 이용한 시착 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100) 및 적어도 하나의 쇼핑몰 서버(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.The try-on service providing server 300 according to an embodiment of the present invention or another server (not shown) operating in conjunction with at least one user terminal 100 and at least one shopping mall server 400 uses a 3D avatar to try on. When transmitting a service application, program, app page, web page, etc., the at least one user terminal 100 and the at least one shopping mall server 400 use a try-on service application, program, app page, and web page using a 3D avatar. The back can be installed or opened. In addition, a service program may be driven in at least one user terminal 100 and at least one shopping mall server 400 by using a script executed in a web browser. Here, the web browser is a program that enables the use of a web (WWW: World Wide Web) service, and refers to a program that receives and displays hypertext written in HTML (Hyper Text Mark-up Language), for example, Netscape. , Explorer, Chrome, and the like. In addition, the application means an application on the terminal, for example, includes an app (App) executed in a mobile terminal (smartphone).

도 2를 참조하면, 저장부(310)는, 적어도 하나의 카테고리의 의류의 의류 데이터에 사이즈 및 재질을 태깅하여 저장할 수 있다. 이때, 각 의류에는 소위 택 이라고 불리우는 태그(Tag)가 달려있다. 여기에는 각종 직물 혼합률, 세탁방법, 직물종류, 사이즈 등이 기재되어 있는데 이를 이용하여 사이즈 및 재질을 태깅할 수 있다. 이때, 각 브랜드별로, 각 성별에 따라 각종 동일한 M 사이즈라고 할지라도 실제수치가 다르기 때문에 M 사이즈와 같은 M을 기록하는 것보다는 실제 수치인 xx cm로 기록된 데이터를 저장할 수 있다.Referring to FIG. 2 , the storage unit 310 may tag and store sizes and materials in clothing data of at least one category of clothing. At this time, each garment is attached with a tag called a tag. Various fabric mixing ratios, washing methods, fabric types, sizes, etc. are described here, and sizes and materials can be tagged using these. At this time, since the actual number is different for each brand and even for the same M size according to each gender, the data recorded as xx cm, which is the actual number, can be stored rather than recording the same M as the M size.

변환부(320)는, 의류 데이터 내 이미지 및 사이즈에 기반하여 3D 모델링을 진행하여 3D 데이터로 변환할 수 있다. 최근 의류를 생산할 때 대부분 캐드나 3D MAX를 사용하는 경우가 있는데 이 경우 캐드 자체 또는 3D MAX 파일 자체를 받는 경우에는 3D 데이터로 변환할 필요없이 그 자체로 사용할 수 있다. 다만, 실제 캐드로 작업하지 않고 패턴만 떠서 공장에서 대량생산하는 경우, 또는 타인이 제작한 것을 물건만 가져와 파는 위탁판매의 경우에는 실제 의류생산 파일이 없다. 이에 따라, 쇼핑몰에 게재된 사진과 사이즈 정보로부터 3D 모델링을 수행해야 하는데 그 과정은 이하와 같다.The conversion unit 320 may perform 3D modeling based on the image and size in the clothing data to convert the 3D data into 3D data. Most recently, CAD or 3D MAX is used to produce clothes. In this case, if you receive the CAD or 3D MAX file itself, you can use it as it is without converting it into 3D data. However, there is no actual clothing production file in the case of mass production in a factory by making patterns without actually working with CAD, or in the case of consignment sales that only sell items made by others. Accordingly, 3D modeling must be performed from photos and size information posted in the shopping mall, and the process is as follows.

<세그멘테이션><Segmentation>

2D 이미지에서 3차원 데이터로 변환하기 위한 첫번째 단계로 세그멘테이션 과정을 거치게 된다. 세그멘테이션(Segmentation)은 제품사진에서 얻은 2D 이미지에서 3D 모델로 변환 시 2D 이미지의 객체 영역을 찾아 그것을 이미지 배경 부분과 전경 부분을 분리하는 것이다. 단순한 모형의 전경과 배경의 분리는 비교적 단순한 방법에 의하여 분리가 가능하다. 하지만 다소 복잡한 외곽선을 갖는 도형은 전경과 배경 분리 작업 시 다소 복잡한 연산이 필요하다. 전경과 배경을 분리하는 방법은 매우 다양한 방법이 있는데, 피사체가 패턴이므로, 이에 강건하도록 에지를 검출하고 Waterfront 알고리즘을 이용하여 객체(피사체) 영역을 검출하도록 한다.Segmentation is the first step to transform a 2D image into 3D data. Segmentation is to find the object area of 2D image when converting from 2D image obtained from product photo to 3D model and separate the background part and foreground part of the image. Separation of foreground and background of a simple model is possible by a relatively simple method. However, figures with rather complex outlines require somewhat complex calculations when separating foreground and background. There are many different methods for separating the foreground and the background. Since the subject is a pattern, edges are detected to be robust to this, and the object (subject) area is detected using the Waterfront algorithm.

이때, 3D 모델링 제작을 위해 사용하는 2D 이미지는 전경 이미지 분리를 비교적 쉽게 하기 위하여 중심 도형의 외부에 여백이 있는 이미지를 이용할 수 있다. 만일 여백이 없는 경우에는 임의로 여백을 만들어 전경과 배경을 분리한다. 이런 가정 하에 배경 부분에는 정보가 없음으로 에지(Edge)를 검출하여 경계 영역을 검출할 수 있다. 에지 탐지(Edge Detection) 기법은 데이터 크기를 줄이며, 의미없는 자료를 없애주고, 영상의 구조적 정보 보존 측면에 영상처리에 많이 사용되는 기법이다. 대부분의 에지추출 마스크는 잡음에 대해 민감하므로, 작은 잡음이라도 그것을 에지로 간주하여 추출하는 경우가 많다. 이러한 부분의 단점을 보완하기 위한 방법이 캐니 마스크를 이용한 에지추출기법으로 실제로 잡음에 민감하지 않게 하며 효과적인 에지추출을 할 수 있다. In this case, as a 2D image used for 3D modeling production, an image having a blank space outside the central figure may be used in order to relatively easily separate the foreground image. If there is no blank space, a blank space is created to separate the foreground and the background. Under this assumption, since there is no information in the background part, an edge may be detected to detect a boundary region. Edge detection is a technique widely used in image processing in terms of reducing data size, removing meaningless data, and preserving structural information of images. Most edge extraction masks are sensitive to noise, so even a small noise is considered as an edge and extracted in many cases. A method to compensate for the shortcomings of this part is an edge extraction technique using a Canny mask, which makes it insensitive to noise and enables effective edge extraction.

<Waterfront 알고리즘><Waterfront Algorithm>

Waterfront 알고리즘은 배경 이미지를 바다로 표현한다면 전경 이미지는 섬으로 간주될 수 있으며 바다와 섬 사이의 경계 부분을 검출하는 알고리즘이다. 예를 들어, 바닷물이 가로축과 세로축으로만 흐른다는 가정 하에 최상단에서 부터 수평 오른쪽 방향과 수직 아래쪽 방향으로만 물이 흐를 때 에지(Edge)를 만나는 부분에서 물의 흐름이 멈추게 된다. 이때 물이 지나가는 자리는 배경으로 분류한다. 다음은 배경이 아닌 최하단 위치를 찾아 수평 왼쪽 방향과 수직 방향으로 물이 흐를 때 에지를 만날 때까지 배경으로 분류한다. 여기까지를 한 사이클(Cycle)이라고 하고 더 이상 배경이 검출되지 않는 사이클이 되면 알고리즘이 종료된다. 한 사이클 연산에 대부분의 배경이 분류되며 일부 영역만 아직 전경으로 분류된 경우에는 여러 사이클을 거치는 동안 전경과 배경이 정확히 분류될 수 있다.The Waterfront algorithm can be regarded as an island if the background image is expressed as a sea, and is an algorithm that detects the boundary between the sea and the island. For example, under the assumption that seawater flows only in the horizontal and vertical axes, when water flows only in the horizontal right and vertical downward directions from the top, the flow of water stops at the part where the edge meets. At this time, the place where the water passes is classified as a background. Next, find the lowest position, not the background, and classify it as a background until it meets an edge when water flows in the horizontal left and vertical directions. This is called one cycle, and the algorithm ends when the background is no longer detected. If most of the background is classified in one cycle operation and only some areas are still classified as foreground, the foreground and background can be accurately classified over several cycles.

<전경영역 세그먼테이션><Foreground area segmentation>

Waterfront 알고리즘을 이용하여 배경과 분리된 전경 영역은 전경영역 세그멘테이션 방법에 의해 라벨링을 한다. 이는 복잡한 도형을 3D 모델로 만들기 위해서는 비교적 단순한 모델의 조합에 의해 전체 3D 모델을 구성하기 위함이다. 전경영역 세그멘테이션은 Waterfront 알고리즘과 유사하다. 라벨링이 적용되지 않은 부분의 최상단 수평 우측 방향과 수직 우측 방향으로 이동 시 배경영역과 접점까지의 영역이 같은 라벨링 영역이 된다. The foreground region separated from the background using the Waterfront algorithm is labeled by the foreground region segmentation method. This is to compose the entire 3D model by combining relatively simple models in order to make a complex figure into a 3D model. Foreground segmentation is similar to the Waterfront algorithm. When moving in the horizontal right direction and the vertical right direction at the top of the part to which no labeling is applied, the background area and the area up to the contact point become the same labeling area.

그 다음으로 버텍스(Vertex) 분배인데, 같은 라벨별로 3D 모델을 각각 따로 작성하고 최종 모델은 이들을 조합하여 전체를 구성하게 된다. 이런 방법을 이용하면 복잡한 도형의 모델도 구성할 수 있다. 버텍스의 분배는 라벨링 영역을 일정한 구획으로 세분화를 하는데, 예를 들어, 수평축을 기준으로 같은 수평 축에는 같은 개수의 버텍스를 할당한다. 영역이 작으면 버텍스의 간격이 작아지고 영역이 넓어지면 버텍스 간격도 벌이지게 된다. 같은 수평축에 할당되는 버텍스 수가 많아질수록 고해상도의 3D 모델이 된다. 물론, 이렇게 3D 모델을 완성하고 나서도 사람의 개입으로 3D 모델을 변경하거나 변형하는 과정이 더 필요할 수도 있다. 자연스럽지 않거나 변형이 필요한 부분에 대하여 각 담당자가 수동으로 작업을 더 진행할 수도 있다.The next is vertex distribution, where 3D models are created separately for each same label, and the final model is composed of the whole by combining them. Using this method, it is possible to construct a model of a complex figure. The distribution of vertices subdivides the labeling area into a certain section. For example, the same number of vertices is assigned to the same horizontal axis with respect to the horizontal axis. When the region is small, the vertex spacing becomes smaller, and when the region is wide, the vertex spacing becomes wider. The higher the number of vertices allocated to the same horizontal axis, the higher the 3D model becomes. Of course, even after completing the 3D model in this way, the process of changing or transforming the 3D model with human intervention may be more necessary. For parts that are not natural or need to be modified, each person in charge may manually proceed with further work.

생성부(313)는, 사용자 단말(100)에서 신체정보 및 얼굴정보를 입력하는 경우, 신체정보 및 얼굴정보에 기반하여 3D 아바타를 생성할 수 있다. 사용자 단말(100)은, 인체의 적어도 하나의 부위의 사이즈를 포함하는 신체정보를 업로드하고, 얼굴정보가 포함된 사진을 업로드한 후, 신체정보 및 얼굴정보에 기반하여 생성된 3D 아바타를 출력할 수 있다.When the user terminal 100 inputs body information and face information, the generator 313 may generate a 3D avatar based on the body information and face information. The user terminal 100 uploads body information including the size of at least one part of the human body, uploads a photo including face information, and then outputs a 3D avatar generated based on the body information and face information. can

시착부(315)는, 3D 아바타 상 신체정보에 대응하는 사이즈를 가지는 의류의 3D 데이터를 추출하여 시착시킬 수 있다. 사용자 단말(100)은, 3D 아바타 상에 신체정보에 대응하는 사이즈를 가지는 의류를 추출하여 시착한 결과를 출력할 수 있다. 가상 피팅 시뮬레이션의 중요한 요소는 사용자의 정확한 3D 인체 데이터와 의류의 자연스런 결합이 중요하고, 의류와 인체와의 결합을 생성하기 위해서는 의류의 기하학적 구조와 물리적 특성 모델링과 3D 인체 데이터와 의복과의 충돌 검사 및 반응 처리 기술이 필요하다. The try-on unit 315 may extract 3D data of clothing having a size corresponding to the body information on the 3D avatar and try on it. The user terminal 100 may extract the clothes having a size corresponding to the body information on the 3D avatar and output a try-on result. An important element of virtual fitting simulation is the user's accurate 3D human body data and natural combination of clothing. and reaction processing techniques.

예를 들어, 옷감의 물리적인 탄성률을 반영하거나, 의복 영상의 장력 구조 모델을 개선하는 방법, 착의 과정에 의류의 물리적인 성질이 반영함으로써 실제 착의 결과와 모습이 유사하도록 도출하는 방법이 이용될 수 있다. 의복의 패턴을 인체 데이터에 착의, 즉 피팅시키기 위해서는 대상 의류를 패턴으로 분해한 후, 분해된 패턴 영상을 인체 데이터 위에 입히게 되어 복잡한 형태의 의류 착의 결과를 잘 보여줄 수 있는데, 이를 위해서는, 패턴 제작을 한 후 온라인상에 업로드용 데이터로 가공하여 적용시키는 방법을 이용할 수 있다.For example, a method that reflects the physical elastic modulus of the cloth, a method of improving the tension structure model of the clothing image, or a method of deriving the appearance similar to the actual wearing result by reflecting the physical properties of the clothing in the wearing process can be used. have. In order to wear, that is, fit a clothing pattern to the human body data, the target clothing is decomposed into a pattern, and then the decomposed pattern image is overlaid on the human body data to show the result of wearing clothes in a complex form. After that, you can use the method of processing and applying data for uploading online.

또는, 가상 피팅용으로 디지털 의류 영상을 별도로 이용할 수도 있는데, 의류의 실제 길이와 크기를 이용하여, 의류와 앞, 뒷면의 의류 사진영상에서 배경분리로 추출하는 방법을 이용할 수 있다. 이때, 추출된 앞, 뒤 의류 영상에 물리적 성질을 부여하여 인체 데이터에 입히는 경우, 실제 인체에 입힌 경우와 유사한 결과를 얻을 수 있다. 상술한 바와 같이 의류 영상의 추출은 윤곽선 추출(Edge Detection) 방식으로 배경을 분리하여 추출할 수 있으며, 의류의 적어도 하나의 특징점을 기준점으로 설정할 수 있다. Alternatively, a digital clothing image may be separately used for virtual fitting, and a method of extracting the clothing and front and back clothing photographic images as background separation using the actual length and size of the clothing may be used. In this case, when physical properties are given to the extracted front and back clothing images and applied to the human body data, results similar to those applied to the actual human body can be obtained. As described above, the clothing image may be extracted by separating the background using an edge detection method, and at least one feature point of the clothing may be set as a reference point.

이때, 의류 영상을 구성하는 삼각 폴리곤의 꼭지점을 질량점으로 설정하고, 선분을 스프링으로 하는 질량 스프링 모델을 이용하는 경우, 모델링된 의류 입자에 작용하는 힘은, 입자 사이의 거리에 비례하는 스프링 힘과 입자의 상대속도에 저항하는 댐핑(Damping) 힘으로 정의될 수 있다. 3축의 좌표계에서 입자의 위치벡터, 속력벡터, 스프링상수, 스프링의 댐핑 상수, 입자사이의 실제 길이, 및 스프링의 장력벡터를 이용하면, 실제 의류가 가상으로 피팅되더라도 실제로 입어보는 것과 같이 얼마나 늘어지게 되는지, 또는 늘어나게 되는지 등의 효과를 줄 수 있게 된다. 물론, 상술한 방법에 한정되는 것은 아니고 실재감을 줄 수 있는 다양한 방법이 이용될 수 있음은 자명하다 할 것이다.In this case, when a mass spring model is used in which the vertices of triangular polygons constituting the clothing image are set as mass points and a spring is used as a line segment, the force acting on the modeled clothing particles is proportional to the spring force and the distance between the particles. It can be defined as the damping force that resists the relative velocity of a particle. Using the particle's position vector, speed vector, spring constant, spring damping constant, actual length between particles, and spring tension vector in the 3-axis coordinate system, even if the actual garment is virtually fitted, how much it stretches as if wearing it. It is possible to give an effect such as whether or not it is stretched. Of course, it will be obvious that various methods that can give a sense of reality can be used without being limited to the above-described method.

전송부(317)는, 시착한 결과를 사용자 단말(100)로 전송할 수 있다. 아바타에 입혀보는 것은 스타일, 디자인 및 컬러 등 비주얼적인 면인데, 문제는 의류는 몸에 가장 가깝게 닿는 것이기 때문에 아무리 스타일이나 디자인 또 컬러가 매칭이 되었다고 할지라도 입는 사람이 불편하게 느끼는 경우 잘 입지 않게 되거나 반품을 하게 된다. 이때, 전송부(317)는, 사용자가 실제 옷을 착용하였을 때의 정확한 착용감이나 핏(Fit)을 실감할 수 있도록 햅틱 수트(Haptic Suit)를 더 적용할 수 있다. 최근 비대면 및 비접촉을 위하여 온라인 쇼핑을 많이 하지만, 정작 오프라인에서 옷을 사는 경우에도 사람들이 실제로 다른 사람이 만졌거나 입어봤던 옷을 피팅해보는 것을 꺼리는 경우가 많다. 이에 따라, 온라인으로 쇼핑하는 경우는 물론 오프라인에서 쇼핑을 하는 경우에도 햅틱 수트를 착용하고 실제 착용감을 가늠해본 후 원하는 사이즈를 찾아 입어보거나 살 수 있도록 하는 경우 타인이 만졌던 물건을 만지는 횟수를 최소화할 수 있고, 최소한의 접촉이 이루어질 수 있다.The transmitter 317 may transmit the trial-on result to the user terminal 100 . Wearing an avatar is a visual aspect, such as style, design, and color. will make a refund In this case, the transmission unit 317 may further apply a haptic suit so that the user can feel the correct fit or fit when the user actually wears the clothes. Recently, many people shop online for non-face-to-face and non-contact purposes, but even when buying clothes offline, people are often reluctant to try on clothes that other people have actually touched or tried on. Accordingly, when shopping online as well as offline, if you wear a haptic suit and measure the actual fit and then find the size you want to try on or buy, you can minimize the number of times you touch things that others have touched. and minimal contact can be made.

햅틱수트의 가장 중요한 요소는 무게 및 부피이다. 현재 실용화된 시스템들은 모두 합성된 이미지를 통한 시각적인 가상피팅을 제공하고 있으므로, 이러한 방법과 비교하여 햅틱 상의를 착용하는 것이 무겁고 불편하다면 실용성이 떨어진다. 특히 신체에 밀착되는 의류의 경우에는 착용자 체형 및 옷감의 특성에 따라 착용감이 크게 다를 수 있다. 이에 따라, 케이블 방식의 햅틱수트를 이용하여 케이블의 길이로 사이즈를 조절하며, 케이블을 구동하는 모터의 탄성도(Stiffness)를 제어하여 옷 소재의 신축성 및 움직일 때의 편안함을 경험할 수 있도록 할 수 있다. 케이블을 이용한 햅틱장치는 Phantom을 비롯하여 힘궤환 기능을 갖는 상용화된 기기들이 다수 있으며, 가장 큰 장점은 원격 동력 전달의 편리성과 모터 등 엑츄에이터를 원하는 곳에 위치시킬 수 있다는 점이다. The most important elements of a haptic suit are weight and volume. Since all of the systems currently put to practical use provide visual virtual fitting through a synthesized image, compared to this method, if wearing a haptic top is heavy and inconvenient, its practicality is low. In particular, in the case of clothing in close contact with the body, the wearability may vary greatly depending on the wearer's body type and the characteristics of the cloth. Accordingly, it is possible to adjust the size by the length of the cable using the cable-type haptic suit and to control the stiffness of the motor driving the cable to experience the elasticity of the clothing material and the comfort when moving. . For haptic devices using cables, there are many commercially available devices with a force feedback function, including the Phantom.

예를 들어, 사용자가 자신만의 햅틱수트를 가지고 있다면, 코로나로 다른 사람이 만졌거나 기침을 해서 코로나 바이러스가 남아있을지도 모르는 매장에 걸려있는 옷을 입어봐야만 하는 위험부담이나, 온라인에서 사용자가 직접 옷을 입어보지 않고도 어느 정도의 당김과 신축성이 있는지를 확인해볼 수 있다. 의류는 착용감 때문에도 환불이나 반품이 많은데, 아바타 시뮬레이션으로 어느 정도 길이가 되는지, 자신의 얼굴색과는 맞는지 등의 비주얼적인 면을 확인했다면, 햅틱수트를 이용하여 신축성은 있는지, 어느 정도 당김이 있는지, 어느 정도 압박이 있는지에 대한 착용감적인 면을 확인할 수 있다. 이는 크게 세 가지 방법으로 이용될 수 있다. ① 하나는 옷의 사이즈와 옷감의 탄성도를 재현하기 위해 케이블의 장력을 이용한 햅틱수트를 이용하는 방법이고, ② 다른 하나는 공압(Pneumatic)을 이용하여, 즉 도 4의 (d)와 같이 장의 융털과 같은 형상의 돌기를 에어백 형식으로 내부에 넣고, 그 돌기에 수축 및 팽창은, 대기, 유입, 유지 및 배기의 4 단계에 따라 공압밸브가 개별로 제어되도록 함으로써, 어느 부분에 압박감이 있는지 어느 부분이 당기는지를 확인할 수 있도록 하는 것이다. ③ 또 다른 하나는, 진동촉감(Vibrotactile), 전기촉감(Electrotactile), 공기촉감(Pneumatictactile)을 이용할 수 있는데, 진동촉감의 경우에는 진동모터를 햅틱수트에 메쉬형(MeshType)으로 삽입한뒤 배열함으로써 값싸고 쉽게 구성할 수 있다. For example, if a user has their own haptic suit, the risk of having to try on clothes hanging in a store where the coronavirus may remain because someone else has touched or coughed due to the corona virus, or online You can check how much tension and elasticity it has without trying on it. There are many refunds or returns for clothing because of its fit. If you check the visual aspects such as how long it is through avatar simulation and whether it matches your face color, you can use a haptic suit to determine whether it has elasticity and how much tension it has. You can check the wearability aspect of how much pressure is applied. This can be mainly used in three ways. ① One is a method of using a haptic suit using the tension of a cable to reproduce the size and elasticity of the fabric, and ② the other is using pneumatic, that is, intestinal villi as shown in Fig. 4(d). A protrusion of the same shape is put inside in the form of an airbag, and the contraction and expansion of the protrusion are individually controlled by the pneumatic valve according to the four stages of atmospheric, inlet, hold, and exhaust, so that which part has a feeling of pressure and which part This is to check if it is pulling. ③ Another one can use Vibrotactile, Electrotactile, and Pneumatictactile. Inexpensive and easy to configure.

<햅틱수트><Haptic Suit>

상의(Upper Garment)의 경우, 가슴과 허리부분은 둘레 치수가 중요하며 상체의 움직임에 대한 신축성이 주 관심 대상이다. 위팔을 들어 올리거나 앞으로 뻗을 때 가장 중요한 요소는 옷의 진공(Armhole) 치수이다. 착용하고자 하는 상의가 몸에 밀착하는 옷의 예를 들면, 이러한 옷을 입었을 때 옷의 사이즈와 옷감의 탄력성을 느끼게 하기 위하여 높이에 따른 둘레 길이와 탄력성을 케이블을 사용하여 실감할 수 있도록 하는 것이 목적이다. 이를 위하여 높이에 따른 케이블의 길이를 실제 옷의 사이즈와 동일하게, 또한 옷감의 탄력성에 따라 장력을 조절할 필요가 있다. 실제 옷을 착용한 경우의 둘레 방향의 케이블과 양쪽 진공의 치수를 구현하는 케이블을 표시하였다. 가장 이상적인 방법은 상의 전체를 매우 많은 케이블을 사용하여 마치 옷을 만들 듯이 케이블로 옷을 직조하는 것이나 이는 많은 수의 케이블과 각 케이블을 제어하는 모터 및 제어기가 필요하므로 비현실적이다.In the case of the upper garment, the circumference of the chest and waist is important, and the elasticity for the movement of the upper body is the main concern. The most important factor when raising or extending the upper arm is the size of the armhole of the garment. For example, if the top you want to wear is in close contact with the body, the purpose is to use a cable to feel the circumference length and elasticity according to the height in order to feel the size of the clothes and the elasticity of the fabric when wearing these clothes. to be. To this end, it is necessary to make the length of the cable according to the height the same as the actual size of the clothes, and to adjust the tension according to the elasticity of the fabric. The cable in the circumferential direction when wearing actual clothes and the cable that implements the dimensions of both vacuums are shown. The most ideal way is to weave the clothes with cables as if to make clothes by using a lot of cables for the entire top, but this is unrealistic because it requires a large number of cables and a motor and a controller to control each cable.

예를 들어, 풀리가 부착된 1 개의 카트가 레일을 따라 상하로 고속으로 이동하며 순차적으로 각 부분의 사이즈와 탄력성을 느낄 수 있는 구조를 설계할 수 있고, 양쪽 진공 부분에는 독립된 모터를 사용할 수 있다. 가슴부분의 좌우에 레일이 각각 하나씩 고정되며 이를 따라 상하로 카트가 움직이며 상의의 우측(착용자 기준 방향) 카트에는 풀리가 고정되고 허리의 모터축에 고정된 풀리에 감긴 케이블은 우측 카트의 풀리를 거쳐 좌측의 레일을 따라 상하로 움직이는 카트에 고정된다. 햅틱 상의의 무게를 줄이기 위하여 카트이동용 모터 2개와 케이블 제어용 모터는 모두 허리벨트에 고정할 수 있다. 양쪽 진공 부분에는 각각의 모터가 진공 사이즈에 따라 케이블의 길이와 장력을 제어한다. 레일상의 카트의 상하 위치를 제어하는 2개의 모터, 케이블을 제어하는 모터, 양 쪽 진공부분의 케이블을 제어하는 2개의 모터를 사용하여 총 5개의 모터를 사용할 수 있다.For example, it is possible to design a structure in which one cart with a pulley moves up and down along the rail at high speed and sequentially feels the size and elasticity of each part, and independent motors can be used for both vacuum parts. . One rail is fixed on the left and right of the chest, and the cart moves up and down along it. The pulley is fixed to the cart on the right side of the top (in the direction of the wearer), and the cable wound around the pulley fixed to the motor shaft at the waist moves the pulley of the right cart. It is fixed to a cart that moves up and down along the rail on the left. In order to reduce the weight of the haptic top, the two motors for moving the cart and the motor for controlling the cable can both be fixed to the waist belt. In both vacuum sections, each motor controls the length and tension of the cable according to the vacuum size. A total of 5 motors can be used by using two motors to control the upper and lower positions of the cart on the rail, a motor to control the cable, and two motors to control the cables in both vacuum parts.

상의는 중앙 부분을 절개하여 다양한 옷 사이즈를 구현하도록 하고, 절개된 부분을 케이블로 연결하여 케이블의 길이로써 착용한 옷의 사이즈가 결정되고 케이블이 연결된 모터의 Stiffness를 제어하여 옷감의 탄력성을 느낄 수 있도록 설계할 수 있다. 진공부분은 상의의 외부를 케이블로 감아, 이 케이블의 길이와 장력을 제어하는 구조이다. 벨트에 부착된 양쪽 2개의 모터는 각 카트의 상하 이동을 제어하며 중앙의 모터는 케이블 장력을 제어한다. 가슴 부분 좌우측의 레일에는 카트가 상하로 움직이며 햅틱 상의 착용을 쉽게 하기 위하여 케이블 끝은 고리로 좌측 카트에 연결될 수 있다. The upper part is cut in the center to realize various clothes sizes, and the cut part is connected with a cable to determine the size of the clothes worn by the length of the cable. can be designed to The vacuum part is a structure that controls the length and tension of the cable by winding the outside of the jacket with a cable. Two motors on either side of the belt control the up and down movement of each cart, and the central motor controls the cable tension. The cart moves up and down on the rails on the left and right sides of the chest, and the end of the cable can be connected to the left cart with a hook to make it easier to wear the haptic top.

또는, 햅틱수트는 의복 전체에 고르게 부착되어 있는 신경근육 전기 자극(Neuro-Muscular Electrical Stimulation) 시스템을 통해 착용자에게 다양한 촉감을 전달해줄 수도 있다. 따라서 햅틱수트를 입은 사용자들은 촉각 시스템을 통해 다양한 감각을 가상현실 속에서 느낄 수 있다. 신경근육을 자극하는 전기 시스템으로는 복근 단련을 위한 훈련용 벨트에 사용하는 전기근육자극(EMS)이나, 진통을 완화해주는 전기 치료 등에 쓰이는 경피신경자극(TENS) 같은 방법이 적용될 수 있다. 이때, 촉각 엔진 라이브러리(Haptic Engine Library)를 이용하여 사용자가 원하는 환경을 직접 구축할 수 있다.Alternatively, the haptic suit may deliver various tactile sensations to the wearer through a Neuro-Muscular Electrical Stimulation system that is uniformly attached to the entire garment. Therefore, users wearing haptic suits can feel various senses in virtual reality through the tactile system. As an electrical system to stimulate the neuromuscular muscle, methods such as electrical muscle stimulation (EMS) used for training belts for abdominal muscle training or transdermal nerve stimulation (TENS) used for electrical therapy to relieve pain can be applied. In this case, a user's desired environment can be directly built by using the haptic engine library.

아바타사이징부(320)는, 인종, 성별, 나이 및 체형별 인체모델을 데이터베이스로 구축한 후, 사용자 단말(100)에서 입력한 입력한 인종, 성별, 나이 및 신체정보에 기반하여 사용자의체형을 추출하고, 사용자의 체형과 가장 유사한 인체모델을 선택하여 인체모델을 신체정보의 사이즈 정보에 맞게 변형할 수 있다. 개인 캐릭터인 아바타를 용이하게 구성하기 위해서는 어느 정도 다양한 인체 모델을 데이터베이스로 구축한 다음 단계에서 개인 체형에 가까운 모델을 선택하여 인체 모델을 개인 체형의 사이즈에 맞게 변형하는 것이 바람직하다. 이때, 개인의 체형과 취향에 알맞은 의류를 자유롭게 선택하기 위해서는 인체 모델 데이터베이스와 의복 모델 데이스터베이스의 용이한 구축과 확장성 속도가 빠른 시스템이 요구된다. 이러한 시스템은 개인체형에 유사한 캐릭터를 구성하고, 개인캐릭터에 다양한 의류를 가상현실 또는 증강현실 기반에서 패션 피팅을 연출하는 것이다. The avatar sizing unit 320 builds a human body model for each race, gender, age and body type as a database, and then determines the user's body type based on the race, gender, age and body information input from the user terminal 100 . By extracting and selecting a human body model most similar to the user's body type, the human body model can be transformed according to the size information of the body information. In order to easily compose an avatar, which is an individual character, it is desirable to build a database of various human body models and then select a model close to the individual body type and transform the human body model to fit the size of the individual body type. In this case, in order to freely select clothes suitable for an individual's body type and taste, a system with an easy construction and scalability of a human body model database and a clothes model database is required. Such a system composes a character similar to the individual body type, and creates a fashion fitting based on virtual reality or augmented reality with various clothes on the individual character.

표준모델과 의류 모델 데이터베이스의 제작, 의류 코디네이션을 위한 모델의 전처리, 개인 캐릭터의 구성, 의류모델의 피팅 과정으로 구분되는 단계에서 아바타사이징부(320)는 개인체형 데이터를 참조하여 표준모델 데이터베이스 중에서 가장 유사한 체형의 모델을 선택하고, 선택된 모델을 변형하여 개인 캐릭터를 구성하는 방법을 이용할 수 있다. 개인 캐릭터에 선택된 의복모델을 맞춤으로써 가상 핏 예측 서비스가 가능하다. 첫 단계로는 성별, 체형별로 나누어서, 한국인의 개성에 맞는 모델을 제작하여 데이터베이스로 구축한 후, 개인 체형과 유사한 체형의 인체모델을 데이터베이스로부터 선택하고, 체형의 크기에 따라 선택된 모델의 높이, 너비, 두께, 둘레를 변형하여, 개인 캐릭터인 아바타를 구성한다. 그리고 나서, 인체변형의 전처리과정으로서, 부위별로 그룹을 설정하고, 변형방법은 인체모델의 부위별로 선형변형을 사용할 수 있는데, 이 방법은 전처리과정을 설정함으로써, 성별, 체형별에 따라 기하학적인 구조가 다양한 인체모델을 효과적으로 변형할 수가 있다. 다양한 의류모델의 생성은 3D 모델링 제작툴을 이용할 수 있으나 그 제작툴은 어느 하나의 툴로 한정하지는 않는다. 이때, 다른 목적으로 이미 제작된 인체모델도 활용할 수가 있기 때문에 인체모델의 데이터베이스 구축이 용이하다. 또한, 기하학적인 선형변형을 주로 채택하고 있어서 속도가 빠르기 때문에 개인 감성과 체형에 어울리는 피팅이 가능할 수 있다.The avatar sizing unit 320 refers to the individual body type data in the steps of the production of the standard model and the clothing model database, the pre-processing of the model for clothing coordination, the composition of the individual character, and the fitting process of the clothing model. A method of configuring a personal character by selecting a model having a similar body type and transforming the selected model may be used. A virtual fit prediction service is possible by fitting a selected clothing model to an individual character. The first step is to divide by gender and body type, create a model that fits the personality of Koreans, build a database, select a human body model with a body shape similar to the individual body type from the database, and select the height and width of the model according to the size of the body type. , thickness, and circumference to form an avatar as a personal character. Then, as a preprocessing process for human body transformation, groups are set for each part, and linear transformation can be used for each part of the human body model as a transformation method. can effectively transform various human body models. A 3D modeling production tool may be used to generate various clothing models, but the production tool is not limited to any one tool. In this case, it is easy to construct a database of the human body model because the human body model already produced for other purposes can be utilized. In addition, because geometrical linear deformation is mainly adopted and the speed is fast, it may be possible to fit the individual sensibility and body type.

예를 들어, 체형은, 남녀를 마른형, 보통형, 비만형으로 분류하고, 상체 비만형인지, 하체 비만형인지를 나누어 지방분포를 고려한 다음, 동일한 키에 너비, 두께, 둘레의 차이나 밑위 길이, 발에서 무릎까지의 비율과 무릎에서 허벅지까지의 비율 등을 더 고려할 수 있다. 즉, 높이, 너비, 두께, 둘레의 항목이 평균치인 것을 보통형으로, 평균키에 너비, 두께, 둘레의 항목이 백분위수의 10%에 해당하는 치수를 마른형으로, 90%에 해당하는 치수를 비만형으로 할 수 있지만 이에 한정되지는 않는다. 한국인의 다양한 체형에 대한 3D 모델을 데이터베이스로 구축하는 것은, 개인캐릭터를 간단한 방법으로 좀 더 현실감 있게 구성하기 위함이다. 보통형을 변형하여 모든 체형의 아바타를 구성하는 것 보다는, 개인체형에 유사한 모델을 데이터베이스에서 선택한 후, 선택된 모델을 다소 변형하는 편이 현실감 있는 아바타를 용이하게 구성할 수 있다. 예를 들면, 마른 체형에대해서는 보통형 보다는 마른형을 선택하여 다소 변형하면, 좀 더 현실감 있는 개인캐릭터를 구성할 수 있다.For example, for body type, classify men and women into skinny, normal, and obese, and consider the distribution of fat by dividing whether they are upper body obese or lower body obese, and then consider the difference in width, thickness, girth, rise length, and feet at the same height. The knee-to-knee ratio and the knee-to-thigh ratio can be further considered. In other words, the average height, width, thickness, and circumference items are averaged, and the average height, width, thickness, and circumference items corresponding to 10% of the percentile are skinny, and dimensions corresponding to 90%. can be an obese type, but is not limited thereto. Building 3D models of various body types of Koreans as a database is to make individual characters more realistic in a simple way. Rather than constructing avatars of all body types by modifying the normal type, it is easier to construct realistic avatars by selecting a model similar to the individual body type from the database and then slightly modifying the selected model. For example, if you choose a skinny type rather than a normal type for a skinny body and slightly modify it, you can compose a more realistic personal character.

얼굴생성부(330)는, 사용자 단말(100)로부터 사진을 입력받는 경우, 사진 내 포함된 피사체 중 얼굴을 식별하여 추출하고, 추출된 2D 얼굴 데이터로부터 3D 얼굴 데이터를 3D 모델링하여 생성할 수 있다. 이때 2D 얼굴 데이터만 가지고 3D를 만드는 경우 정면만 있는 사진으로는 깊이감을 추정할 수가 없기 때문에 양옆, 뒷면 등 다양한 사진이 요구될 수 있다. When receiving a photo from the user terminal 100, the face generator 330 may identify and extract a face among subjects included in the photo, and 3D model and generate 3D face data from the extracted 2D face data. . In this case, when making 3D with only 2D face data, various photos such as sides and back may be required because the sense of depth cannot be estimated from a photo with only the front.

얼굴을 이루는 적어도 하나의 선을 3D 라인으로 표시할 때, 얼굴의 형태를 구성하는 점, 선 및 면의 집합으로 메쉬(Mesh)를 제작하는 3D 폴리곤 모델(Polygon Model)을 이용하여 3D 라인으로 표시할 수 있다. 이때, 본 발명의 일 실시예에서는, 두 단계의 메쉬 워핑(Mesh Warping) 방법을 이용하여 추출된 특징점을 기반으로 직관적인 메쉬를 자동으로 구성할 수 있도록 하고, 영역기반의 변형으로 주위 정점(Vertex)이 자연스럽게 배치될 수 있도록 구성할 수 있다. 텍스쳐 매핑을 하기 위하여 입력 영상을 기반으로 텍스쳐 맵을 구성하게 되는데, 이 과정에서 소요되는 시간이 얼굴 모델링에서 많은 부분을 차지한다. 이에 따라, 본 발명의 일 실시예에서는, 이러한 처리과정을 얼굴 변형시 일반 모델의 UV 좌표도 두 단계 메쉬 워핑을 통해 변형함으로써 별도의 텍스쳐 맵을 구성할 필요가 없도록 할 수도 있다.When at least one line constituting a face is displayed as a 3D line, it is displayed as a 3D line using a 3D polygon model that creates a mesh with a set of points, lines, and faces constituting the shape of the face. can do. At this time, in an embodiment of the present invention, an intuitive mesh can be automatically constructed based on the extracted feature points using a two-step mesh warping method, and the surrounding vertices (Vertex) are formed by area-based deformation. ) can be configured so that they can be arranged naturally. In order to perform texture mapping, a texture map is constructed based on an input image, and the time required for this process occupies a large part in face modeling. Accordingly, in an embodiment of the present invention, when the face is deformed, the UV coordinates of the general model are also transformed through two-step mesh warping, so that it is not necessary to configure a separate texture map.

<Candidate-3 Face Model & MPEG-4 FDP><Candidate-3 Face Model & MPEG-4 FDP>

3D 일반 얼굴 모델로 Candidate-3 모델을 이용할 수 있다. Candidate-3 얼굴 모델은 MPEG-4에서 정의한 얼굴 특징점을 기반으로 모델링되었기 때문에 비교적 적은 수의 정점으로 얼굴 모델링이 가능하지만, 적은 수의 정점으로 인하여 정교하고 세밀한 얼굴 모델링은 어려울 수 있다. 이에 따라, 세밀하고 정교한 모델링을 원하는 경우, Candidate-3 얼굴 모델을 기반으로 정점들을 세분화하여 M 개의 정점과 N 개의 삼각형 폴리곤(Triangle Polygon)으로 구성된 얼굴 모델을 사용할 수 있다. Candidate-3 model is available as a 3D general face model. Since the Candidate-3 face model is modeled based on the facial feature points defined in MPEG-4, face modeling is possible with a relatively small number of vertices. Accordingly, if detailed and sophisticated modeling is desired, a face model composed of M vertices and N triangle polygons can be used by subdividing vertices based on the Candidate-3 face model.

<얼굴 특징점 추출><Extraction of facial feature points>

다음으로 입력 얼굴 영상에서 얼굴의 특징 정보를 추출해야 한다. 이때, 얼굴 특징점을 추출하는 알고리즘으로는, ASM(Active Shape Model) 알고리즘, AAM(Active Appearance Model), ACM(Active Contour Model), 점 분포 모델(Point Distribution Model)을 기반하는 AdaBoost 얼굴 검출 알고리즘 등이 존재한다. ASM과 AAM에서는 공통적으로 주성분분석(Principal Component Analysis) 기반의 특징 모델링과 최적화를 적용하여 얼굴 모형을 매개 변수화 하여 통계적으로 접근한다. 두 모델링 기법에서의 차이점으로, AAM은 모형 매개변수의 최적화 과정에서 전역 외곽(Global Appearance) 모델을 적용하는 반면에, ASM에서는 초기 레이블이 주어지고 모든 레이블 위치에서 새로운 위치를 찾아가는 지역 영역(Local Region) 기반으로 동작한다. ASM이 모형 지역화(Shape localization)에서 AAM 보다 성능적으로 뛰어나며, 조명 영향에 보다 강인한 것으로 나타나고 있다. 다만, ASM은 질감 특징 모델링을 위한 프로파일을 1 차원 배열로 사용하며, 영역 검색 과정에서 지역 영역의 특징점을 구분하기 어려운 단점이 있다.Next, facial feature information should be extracted from the input face image. At this time, as an algorithm for extracting facial feature points, AdaBoost face detection algorithm based on ASM (Active Shape Model) algorithm, AAM (Active Appearance Model), ACM (Active Contour Model), and Point Distribution Model, etc. exist. In ASM and AAM, feature modeling and optimization based on Principal Component Analysis are commonly applied to parameterize the face model and approach statistically. The difference between the two modeling techniques is that, while AAM applies a Global Appearance model in the process of optimizing model parameters, in ASM, an initial label is given and a new location is found at every label location (Local Region). ) based on It has been shown that ASM outperforms AAM in shape localization and is more robust to lighting effects. However, ASM uses a profile for texture feature modeling as a one-dimensional array, and has a disadvantage in that it is difficult to distinguish feature points of a local area in the area search process.

AAM을 기반으로 얼굴 특징점을 추출하기 위해서는, 통계적인 모델링 방법으로 객체의 형상과 텍스쳐 정보인 통계적 모델을 입력된 영상에서 검출하는 알고리즘이다. AAM은 모델링 단계와 검출(Fitting) 단계로 이루어지는데, 전자인 모델링 단계는 형상 모델(Shape Model)을 이용한다. 형상 모델은 학습 영상에 대해 사용자가 직접 특징점을 지정하여 구축하는 모델이다. 얼굴 형상 모델 S는 평균 형상 (bar)X와 고유값(Eigen Value) 중 큰 값에 대응되는 n 개의 형상 고유벡터(Eigen Vector)인 Φi(i=1,...,n)를 선형 결합하여 이하 수학식 1과 같이 나타낼 수 있다.In order to extract facial feature points based on AAM, it is an algorithm that detects a statistical model, which is information on the shape and texture of an object, from an input image using a statistical modeling method. AAM consists of a modeling step and a fitting step. The former modeling step uses a shape model. The shape model is a model constructed by designating feature points directly by the user for the training image. The face shape model S is obtained by linearly combining Φi(i=1,...,n), n shape eigenvectors corresponding to the larger of the average shape (bar)X and the eigen value. It can be expressed as Equation 1 below.

Figure pat00001
Figure pat00001

텍스쳐 모델(Texture Model)은 추출하고자 하는 특징 영역에 대한 영상에서 픽셀 명도값을 말한다. 평균형상 내부 공간의 화소 집합을 이용하여 모델링하는 과정은 형상 차이에서 발생하는 텍스쳐 변화율을 줄여준다. 정규화 과정을 거친 텍스쳐 데이터에 대하여 형상 모델과 동일한 PCA 과정을 통해 선형적인 모델을 이하 수학식 2와 같이 구한다.A texture model refers to a pixel brightness value in an image for a feature region to be extracted. The process of modeling using a set of pixels in the inner space of the average shape reduces the rate of texture change caused by shape differences. With respect to the texture data that has undergone the normalization process, a linear model is obtained as in Equation 2 below through the same PCA process as the shape model.

Figure pat00002
Figure pat00002

정규화된 평균 그레이 레벨(Gray Level) 벡터 (bar)g와 텍스쳐 고유벡터 T, 텍스쳐 파라미터 c의 선형 결합으로 텍스쳐 모델 g를 구할 수 있다.A texture model g can be obtained by linearly combining the normalized average gray level vector (bar)g, the texture eigenvector T, and the texture parameter c.

<결합 모델><Combination model>

그리고 나서, 형상 파라미터 bs와 텍스쳐 파라미터 bg를 조절하면 다양한 얼굴의 모양과 생김새를 표현할 수 있다. 이 두 가지 파라미터를 열벡터로 결합(Combined)하여 형상과 텍스쳐 파라미터가 합쳐진 형태의 외모 파라미터 c를 조절하면 형상 모델 S'와 텍스쳐 모델 g'를 동시에 제어할 수 있다.Then, by adjusting the shape parameter bs and the texture parameter bg, various face shapes and features can be expressed. By combining these two parameters with a heat vector and adjusting the appearance parameter c, which is a combination of shape and texture parameters, the shape model S' and the texture model g' can be simultaneously controlled.

Figure pat00003
Figure pat00003

<AAM 검출><AAM detection>

검출(Fitting)은 학습된 형상 모델과 텍스쳐 모델에 기반하여 입력된 영상에서 특징을 검출하는 과정이다. 수학식 3으로 모델링된 얼굴 이미지의 텍스쳐와 입력된 검출 대상 이미지를 평균 형상 (bar)X로 워핑(Warping)한 텍스쳐와의 에러의 제곱을 최소화하는 외모 파라미터 c를 찾고, 이때의 c를 가지고 수학식 3으로 표현되는 형상 모델을 찾고자 하는 얼굴 특징점들로 판정한다. 모델과 입력 데이터의 에러 제곱을 최소화하는 외모 파라미터 c를 찾는 방법은 최적화의 문제이다.Fitting is a process of detecting features in an input image based on a learned shape model and a texture model. Find the appearance parameter c that minimizes the square of the error between the texture of the face image modeled by Equation 3 and the texture in which the input detection target image is warped with the average shape (bar)X, and mathematically with the c The shape model expressed by Equation 3 is determined as facial feature points to be found. How to find the appearance parameter c that minimizes the squared error of the model and input data is a matter of optimization.

<메쉬 워핑을 통한 3D 얼굴 및 UV 변형><3D face and UV transformation through mesh warping>

AAM을 통해 얼굴의 특징 정보가 추출되면, 이를 통해 3D 일반 얼굴 모델링과 UV 정보를 추출된 특징점을 바탕으로 변형한다. 이를 위해 대응 관계가 명확하고 처리 시간을 단축시킬 수 있는 두 단계 메쉬 워핑을 사용할 수 있다. 메쉬 워핑은 소스 영상과 목적 영상에 서로 대응되는 제어점을 지정하여 메쉬를 구성하고 소스 영상의 화소값이 목적 영상의 메쉬 영역에 맞게 매핑하는 것이다. 두 단계 메쉬 워핑을 하기 위해서는, 소스 영상의 제어점과 목적 영상의 제어점을 기반으로 소스 메쉬와 목적 메쉬를 구성한다. 목적 메쉬는 입력 영상에서 AAM을 통해 추출된 얼굴 특징점을 구성하고, 소스 메쉬는 특징점에 해당하는 3D 일반 모델 정점의 (x,y) 좌표로 구성된다. 자연스러운 워핑을 위해 얼굴 형태와 얼굴 구성요소(눈, 코, 입)을 독립적으로 워핑할 수 있다. 얼굴형 워핑 시 메쉬의 구성은 얼굴 외곽의 특징점들을 포함하도록 구성하고, 얼굴 구성요소 워핑 시에는 눈, 코, 입의 특징점을 포함하는 메쉬로 구성한다. 메쉬가 구성되면 워핑은 이 메쉬를 기준으로 두 단계의 처리 과정을 거쳐 수행된다. When facial feature information is extracted through AAM, 3D general face modeling and UV information are transformed based on the extracted feature points. For this, two-step mesh warping can be used, which has a clear correspondence and can reduce processing time. In mesh warping, a mesh is configured by designating control points corresponding to the source image and the target image, and pixel values of the source image are mapped to fit the mesh region of the target image. In order to perform two-step mesh warping, a source mesh and a target mesh are constructed based on the control points of the source image and the control points of the target image. The target mesh consists of facial feature points extracted through AAM from the input image, and the source mesh consists of (x,y) coordinates of the vertices of the 3D general model corresponding to the feature points. For natural warping, you can warp the face shape and face components (eyes, nose, mouth) independently. When warping the face shape, the mesh is configured to include feature points outside the face, and when warping the face component, the mesh is configured to include feature points of the eyes, nose, and mouth. When the mesh is constructed, warping is performed through two-step processing based on the mesh.

첫 번째 단계는 수직 스플라인(Vertical Spline)에 대한 처리로 소스 메쉬 제어점의 x 좌표가 목적 메쉬의 x 좌표로 이동한다. 제어점들의 x 좌표값들에 대해 보간 함수를 적용시키고, 리샘플링(Resampling) 방법을 사용하여 재추출함으로써 새로운 값들로 행 내의 각 화소들이 보간된다. 보간법은 간단한 선형 보간법에서부터 복잡한 스플라인 함수까지 다양하다. 두 번째 단계에서는, 수평 스플라인(Horizontal Spline)에 대한 처리로, x 좌표에 대해 이루어졌던 처리가 y 좌표에 대해 반복되며 출력영상의 각 열은 중간 영상으로부터 재추출된다. 각 단계에서 변형되는 해당 위치를 계산할 때 3D 모델 정점 값들의 위치이면 변형되는 대응 좌표를 버퍼에 저장하게 되고, 그 좌표로 3D 얼굴 모델의 정점 값들을 정렬하게 된다. 결과적으로, AAM으로 추출된 소수의 특징점 좌표에 기반하여 3D 모델 정점을 부드럽게 변형시키게 된다. The first step is processing for vertical splines, and the x-coordinate of the source mesh control point is moved to the x-coordinate of the destination mesh. Each pixel in the row is interpolated with new values by applying an interpolation function to the x coordinate values of the control points and re-extracting using a resampling method. Interpolation methods range from simple linear interpolation to complex spline functions. In the second step, the processing for the horizontal spline is repeated for the x-coordinate, and each column of the output image is re-extracted from the intermediate image. If the position of the 3D model vertex values is the position of the 3D model vertex values when calculating the transformed position in each step, the transformed corresponding coordinates are stored in the buffer, and the vertex values of the 3D face model are aligned with the coordinates. As a result, the 3D model vertices are smoothly deformed based on the few feature point coordinates extracted with AAM.

<명도 변화 기반의 깊이 값 추출><Extraction of depth value based on brightness change>

마지막으로, 3D 얼굴의 깊이 정보 유도를 위해 이미지나 촬영 화면 내에서 명도 값 변화를 통하여 깊이 값(Depth Value)를 추출한다. 이 방법은 고정된 조명 조건 하에서 수행되어야 한다는 단점이 잇지만 일련의 이미지를 입력받아야 하고 복잡한 처리과정을 거치는 Shape-From-X 알고리즘보다 간단하고 처리속도가 빠르다는 장점이 있다. 이때, 조명 추정과 그림자 생성 기법을 기반으로 조명 위치를 정해진 곳에 배치하고 가상 조명을 이를 기반으로 유사한 위치에 배치하도록 한다. 조명은 그림자로 깊이 값의 크기를 구분하기 쉽도록 조명을 얼굴보다 위쪽에 배치한다. 랜더링한 2D 영상의 각 샘플 포인트에서 명도 분포가 입력 영상의 샘플 포인트에서의 얼굴 명도 분포와 유사한 값을 갖도록 사용자가 3D 공간상의 조명을 조절할 수 있도록 한다. 이는 깊이 값을 조절하기 전에 인접한 샘플 포인트의 밝기 차이가 보편적인 인간의 얼굴 영역에서 들어간 부분과 나온 부분의 명도 값 차이를 나타낼 수 있도록 그 값을 임계값을 두어 제한함으로써 깊이 값을 변형할 때 오류 확률을 적게하는 작업을 하는 것이다.Finally, in order to derive depth information of a 3D face, a depth value is extracted through a change in brightness value within an image or a shooting screen. This method has the disadvantage that it must be performed under fixed lighting conditions, but has the advantage of being simpler and faster than the Shape-From-X algorithm, which requires a series of images and undergoes complex processing. At this time, based on the lighting estimation and shadow generation technique, the lighting location is placed in a predetermined place, and the virtual lighting is placed in a similar location based on this. The lighting is placed above the face so that the size of the depth value can be easily distinguished by the shadow. It allows the user to adjust the lighting in 3D space so that the brightness distribution at each sample point of the rendered 2D image has a value similar to that of the face brightness distribution at the sample point of the input image. This is an error when transforming the depth value by limiting the value before adjusting the depth value by limiting the value so that the difference in brightness of adjacent sample points can represent the difference in the brightness value between the part entering and the part coming out of the common human face region. It's about reducing the odds.

두 영상의 얼굴 영역에서 유사한 밝기 분포를 갖게 되면, 미리 지정한 특징점들의 상대적 밝기를 비교하여 얼굴 모델의 특징 정점들의 깊이 값을 조절한다. 렌더링된 얼굴 모델 영상에서 조명의 영향을 많이 받는 영역, 예를 들어, 코, 이마, 입, 턱 등에 대한 각 샘플 포인트들의 명도값(Mn(n=1,...,9))은 주위 일정 영역의 평균 명도값을 취하고, 마찬가지로 입력 영상에서 해당 영역에 대한 평균 명도값을 In(n=1,...,9)이라 할 때, 이하 수학식 4를 적용하여 각 샘플 포인트에 해당하는 정점의 깊이 값 vn(z)을 구한다.When the two images have a similar brightness distribution in the face region, the depth value of the feature vertices of the face model is adjusted by comparing the relative brightness of the feature points specified in advance. In the rendered face model image, the brightness value (Mn(n=1,...,9)) of each sample point for an area heavily affected by lighting, for example, the nose, forehead, mouth, and chin, is constant around When the average brightness value of the region is taken, and the average brightness value of the region in the input image is In(n=1,...,9), the vertex corresponding to each sample point is applied by applying Equation 4 below. Find the depth value vn(z) of .

Figure pat00004
Figure pat00004

A는 이미지 내 인접 샘플 포인트 간의 밝기 값의 차이를, B는 렌더링된 모델의 인접 샘플 포인트 간의 밝기 값의 차이를 나타낸다. 해당 정점의 깊이 값이 구해지면, 해당 정점과 연결된 인접 정점들을 추출하여 인접 샘플 포인트까지 총 step인 totalstep으로 각 정점들을 구분한다. 각 step에 이하 수학식 5를 통해 구한 가중치 α로 정점들의 깊이 값을 조정한다.A represents the difference in brightness values between adjacent sample points in the image, and B represents the difference in brightness values between adjacent sample points in the rendered model. When the depth value of the corresponding vertex is obtained, the adjacent vertices connected to the corresponding vertex are extracted, and each vertex is divided into a total step, which is a total step up to the adjacent sample point. At each step, the depth value of the vertices is adjusted with the weight α obtained through Equation 5 below.

Figure pat00005
Figure pat00005

물론, 상술한 방법 이외에도, 3D 라인을 표시하고 UV 매핑을 하는 방법은 다양할 수 있으므로 상술한 방법에 한정하지 않는다. Of course, in addition to the above-described method, a method for displaying a 3D line and performing UV mapping may be various, so that the method is not limited to the above-described method.

쇼핑안내부(340)는, 사용자 단말(100)에서 입력한 신체정보에 대응하는 사이즈를 가지는 의류를 카테고리별로 추출하여 쇼핑목록을 생성할 수 있다. 한국은 사이즈가 다양하지 않아 다양성 문제가 오래전부터 제기되고는 있으나, 재고관리라는 이유로 업계 관계자들은 재고를 남기지 않기 위해 가장 보편적인 사이즈를 생산해 판매한다. 반면 해외 브랜드들은 다양한 사이즈의 의류를 판매하지 않는 것은 평등권 침해라는 이유로 32, 34, 36, 38, 40, 42, 44, 46, 48, 50 등 최대 10가지의 사이즈가 존재한다. 패스트 패션계에서도 평균적으로 XS, S, M ,L, XL, XXL 등 6단 사이즈 제도를 운영하고 있지만, 한국은 단 3 가지 밖에 없다. 이에 키가 크거나 뚱뚱하거나 키가 작거나 너무 마른 사람들은 평균적인 체형이 아니라는 이유로 맞는 옷이나 신발 등을 사기가 너무나 어렵다. 이에, 이러한 사용자들은 예쁜 옷을 보아도 막상 해당 사이트에 들어가서 상세 페이지를 보면, 자신의 사이즈가 없어서 다시 옷을 고르고, 또 사이즈를 보는 과정이 반복된다. 이에 따라, 본 발명의 일 실시예에서는 사용자가 살 수 없는 의류나 신발이 있는 카테고리나 메뉴 자체를 삭제(비활성화)함으로써 사용자가 자신이 살 수 없거나 자신에게 맞지 않는 옷을 보고 또 상세 페이지를 검토하는 시간을 줄여줄 수 있다. The shopping guide 340 may generate a shopping list by extracting clothes having a size corresponding to the body information input from the user terminal 100 by category. Korea does not have a wide variety of sizes, so the issue of diversity has been raised for a long time. However, due to inventory management, industry insiders manufacture and sell the most common sizes in order not to leave stock. On the other hand, overseas brands have up to 10 sizes, such as 32, 34, 36, 38, 40, 42, 44, 46, 48, and 50, on the grounds that not selling clothing of various sizes is a violation of equal rights. Even in the fast fashion industry, on average, there are six sizes of sizes: XS, S, M, L, XL, and XXL, but in Korea, there are only three. Therefore, it is very difficult for people who are tall, fat, short or too skinny to buy clothes or shoes that fit them because they are not of average body type. Accordingly, even when these users see pretty clothes, when they enter the site and look at the detailed page, they do not have their own size, so the process of selecting clothes again and looking at the size is repeated. Accordingly, in one embodiment of the present invention, by deleting (inactivating) a category or menu itself containing clothes or shoes that the user cannot buy, the user sees clothes that he cannot buy or does not fit him and reviews the detailed page. It can save you time.

개인화부(350)는, 적어도 하나의 카테고리를 출력할 때, 사용자 단말(100)에서 입력한 신체정보에 대응하는 사이즈를 가지는 의류가 존재하는 카테고리만 활성화를 유지하고, 사용자 단말(100)에서 입력한 신체정보에 대응하는 사이즈를 가지는 의류가 존재하지 않는 카테고리는 비활성화시켜 적어도 하나의 카테고리를 개인화할 수 있다.When outputting at least one category, the personalization unit 350 maintains activation of only a category in which clothing having a size corresponding to the body information input from the user terminal 100 exists, and is inputted from the user terminal 100 . At least one category may be personalized by inactivating a category in which clothing having a size corresponding to one body information does not exist.

코디부(360)는, IBL(Instance Based Learning) 기반으로 현재 시착한 의류에 어울리는 의류를 추천해줄 수 있다. IBL은 전문가의 지능을 인스턴스화하여 트레이닝 데이터로 준비하며, 실제 현재 입어본 상의 또는 하의에 어울리는 하의 또는 상의를 추천받기 위해서는 트레이닝 데이터를 참고하게 된다. 인스턴스 기반의 매칭처리에서 유사의류검색 기능을 두 번 이상 이용할 수 있다. 이 방법은 전문가가 인스턴스를 대상으로 직접 트레이닝을 해야 하는 단점이 있다. 트레이닝 데이터가 많을수록, 전문가의 지능을 더욱 정밀하게 표현할 수 있겠지만, 매칭 카운트가 급속이 증가하므로 트레이닝 데이터가 안정화될 때까지는 상당한 노력이 필요할 수도 있다. 하나의 의류가 선택되면, 속성별로 의류 데이터를 분해한 후, 전문가의 속성값 메트릭스를 사용하여 각각의 속성값과 가장 어울림 정도가 좋은 속성들의 값을 구하게 된다. 속성별로 가장 좋은 어울림을 가지는 속성들이 선택되면, 이 속성들과 가장 근접하는 의류를 상품 데이터에서 검색하여 자동 매칭을 해주는 방식이다.The coordinator 360 may recommend clothes suitable for the currently tried-on clothes based on Instance Based Learning (IBL). IBL instantiates the intelligence of an expert and prepares it as training data, and the training data is referred to in order to receive a recommendation for the top or top that matches the top or bottom actually worn. Similar clothing search function can be used more than once in instance-based matching processing. This method has a disadvantage in that an expert needs to train directly on the instance. The more training data, the more precisely the expert's intelligence can be expressed, but since the match count increases rapidly, it may take considerable effort until the training data is stable. When one piece of clothing is selected, after decomposing the clothing data for each attribute, an attribute value matrix of an expert is used to obtain the values of the attributes that best match each attribute value. When the attributes with the best match for each attribute are selected, the clothes closest to these attributes are searched for in product data and automatically matched.

의류의 속성은 소재, 색상, 문양, 라인 등으로 나누어진다. 또한 개인의 신체적 특성은, 신장, 체중, 허리 사이즈, 얼굴의 크기/형태와 색깔, 목의 길이, 팔 길이와 굵기, 다리 길이와 굵기, 가슴 둘레, 엉덩이 둘레, 상체와 하체의 비율 등으로 나뉘어진다. 이와 같은 특성들 간의 관계를 코디 전문가에 의해 일반화하여 개인의 신체적 특성에 맞는 의류를 추천하는데 이용할 수 있다. 즉, 의류의 속성과 개인의 신체적 특성 사이의 관계를 잘 설정하게 되면, 개인에게 맞는 맞춤형 의류를 추천할 수 있는 시스템을 만들 수 있다. 이때, 의류의 속성 분류는 선행 연구의 분류를 따를 수 있다. 우선, 모든 여성복의 공통속성으로 소재와 문양, 색상을 정의할 수 있다. 그 후, 상의(자켓, 블라우스, 셔츠)와, 하의(팬츠, 스커트)에 대한 각각의 속성은 따로 분류하고, 상의의 공통속성은 전체라인, 네크라인, 소매의 길이, 옷깃(칼라), 버튼수로 구분하고, 재킷과 블라우스는 포켓과 소매모양을 추가적인 속성으로 정의할 수 있다. 하의의 경우는 기장과 라인을 공통속성으로 정의할 수 있고, 팬츠의 추가속성으로 무릎 윗부분과 바지통, 무릎 아랫부분과 바지통, 돌출형 포켓 등을 정의할 수 있다. 그리고, 스커트의 추가속성에는 주름모양과 전체모양(디자인)을 들 수 있다. The properties of clothing are divided into materials, colors, patterns, and lines. In addition, individual physical characteristics are divided into height, weight, waist size, face size/shape and color, neck length, arm length and thickness, leg length and thickness, chest circumference, hip circumference, upper body to lower body ratio, etc. lose The relationship between these characteristics can be generalized by a coordinating expert and used to recommend clothing suitable for an individual's physical characteristics. That is, if the relationship between the properties of clothing and the individual's physical characteristics is well established, it is possible to create a system for recommending customized clothing suitable for the individual. In this case, the classification of clothing attributes may follow the classification of previous studies. First of all, materials, patterns, and colors can be defined as common attributes of all women's wear. After that, the properties of the top (jacket, blouse, shirt) and bottom (pants, skirt) are classified separately, and the common properties of the top are the overall line, neckline, sleeve length, collar (collar), and button. Separated by number, jackets and blouses can define pockets and sleeve shapes as additional attributes. In the case of bottoms, length and line can be defined as common attributes, and as additional attributes of pants, the upper knee and trousers, the lower knee and trousers, and protruding pockets can be defined. Further, additional attributes of the skirt include a pleat shape and an overall shape (design).

선호도저장부(370)는, 사용자 단말(100)로부터 기 보유한 적어도 하나의 의류의 식별코드를 수집하고, 식별코드를 기준으로 의류를 검색한 후 의류의 스타일, 브랜드 및 사이즈를 사용자 선호 데이터로 저장할 수 있다. 예를 들어, 사용자 A는 B 브랜드의 옷을 다량다종으로 보유하고 있다면, 사용자 A는 B 브랜드의 옷을 선호한다고 할 수 있다. 그리고, 사용자 A가 보유하거나 구매한 사이즈를 보면, B 브랜드에서 C 사이즈를 선호한다고 할 수 있다. 각각의 브랜드별로 사이즈가 서로 상이하고, 각 브랜드별로 사용자가 선호하는 핏이 다를 수 있다. 예를 들어, B 브랜드는 요가나 스포츠복이어서 딱 맞는 핏을 선호하는데, C 브랜드는 후드티나 반팔티와 같은 일상복이나 편한 옷을 파는 브랜드여서 루즈 핏을 선호한다고 가정하면, [B 브랜드 - 핏 종류(슬림핏)], [C 브랜드- 핏 종류(루즈핏)]와 같이 저장할 수 있다. The preference storage unit 370 collects identification codes of at least one pre-owned clothing from the user terminal 100, searches for clothing based on the identification code, and stores the style, brand, and size of the clothing as user preference data. can For example, if user A has a large amount of brand B clothes, user A can say that they prefer clothes from brand B. And, looking at the size that user A owns or purchased, it can be said that brand B prefers size C. Each brand may have a different size, and a user's preferred fit may be different for each brand. For example, suppose that Brand B prefers a perfect fit because it is yoga or sportswear, but Brand C is a brand that sells casual or comfortable clothes such as hoodies and short-sleeved shirts and prefers a loose fit. (Slim Fit)], [C Brand-Fit Type (Loose Fit)] can be saved.

해외쇼핑부(380)는, 3D 아바타 상에 신체정보에 대응하는 사이즈를 가지는 의류 및 사용자 선호 데이터의 브랜드를 모두 만족하는 의류가 국내의 쇼핑몰에 존재하지 않는 경우, 국외의 쇼핑몰을 검색하여 사이즈 및 브랜드를 만족하는 의류를 추출하고, 배송대행지를 이용함에 따른 배송가격과 관세를 합한 금액을 사용자 단말(100)로 전송할 수 있다. 상술한 바와 같이 한국은 사이즈의 다양성이 적기 때문에, 맞는 옷을 사려면 해외직구도 마다할 수 없다. 또, 한국은 수입브랜드의 가격이 4 배 내지 5 배 이상 비싸기 때문에 해외배송비와 관세를 포함한다고 할지라도 한국보다는 싼 가격에 살 수 있다. 무엇보다 사이즈가 다양하고, 바지의 경우 허리둘레 뿐만 아니라 기장 사이즈까지 서로 다르게 나왔기 때문에, 바지를 잘르는 수선을 할 필요도 없다. 예를 들어, 남성 바지의 경우, Regular, Big, Tall로 나뉘고, 다시 Regular는 허리 사이즈가 26W부터 42W까지, 길이 사이즈가 28L부터 34L까지 존재한다. 바지를 살 때 허리 사이즈만 기준으로 사는 것이 아니고 다리 길이도 고려하여 살 수 있다. 이에 따라, 사용자가 원하는 브랜드의 옷이 한국에 없다면 이를 파는 해외 사이트를 검색하여 관세와 배송비를 모두 합한 금액을 알려줄 수 있다. 각 나라별로 관세부가정책이 다르나 미국의 경우 옷은 200불(배송비를 합한 금액)까지는 관세가 붙지 않으므로 200불 미만으로 살 것을 권유할 수도 있다.The overseas shopping unit 380 searches the overseas shopping mall to determine the size and size of the clothes in the domestic shopping mall when there is no clothing that satisfies the brand of the user preference data and the clothing having a size corresponding to the body information on the 3D avatar. Clothing that satisfies the brand may be extracted, and the sum of the delivery price and customs duties resulting from the use of a delivery agent may be transmitted to the user terminal 100 . As mentioned above, in Korea, there is little variety of sizes, so if you want to buy the right clothes, you can't help but shop overseas. In addition, since the price of imported brands in Korea is four to five times more expensive, you can buy them at a lower price than Korea, even including overseas shipping and tariffs. Above all, there is no need to cut the pants and mend them because they come in various sizes, and in the case of trousers, not only the waist circumference but also the length are different. For example, in the case of men's trousers, they are divided into Regular, Big, and Tall, and again Regular has waist sizes from 26W to 42W and length sizes from 28L to 34L. When buying pants, you can not only buy based on waist size, but also consider leg length. Accordingly, if a user's desired brand of clothes is not found in Korea, it is possible to search an overseas site that sells them and inform the user of the sum of the customs duties and the shipping cost. Each country has different tariff-addition policies, but in the United States, customs duties are not imposed on clothes up to $200 (the sum of shipping costs), so it may be recommended to buy less than $200.

해외직구부(390)는, 3D 아바타 상에 신체정보에 대응하는 사이즈를 가지는 의류 및 사용자 선호 데이터의 브랜드를 모두 만족하는 의류가 국내의 쇼핑몰에 존재하나, 동일한 의류를 판매하는 국외의 쇼핑몰에서의 의류가격, 배송비 및 관세를 합한 금액이 국내의 쇼핑몰의 가격보다 낮은 경우, 국외의 쇼핑몰의 URL을 사용자 단말(100)로 전송할 수 있다. The overseas direct purchase unit 390 is a 3D avatar with clothes having a size corresponding to the body information and clothes satisfying both brands of user preference data exist in a domestic shopping mall, but in an overseas shopping mall that sells the same clothes. When the sum of the clothing price, shipping cost, and tariff is lower than the price of the domestic shopping mall, the URL of the overseas shopping mall may be transmitted to the user terminal 100 .

무료수거부(391)는, 사용자 단말(100)에서 의류를 주문 및 결제하여 배송을 요청하고, 사용자가 직접 시착 후 반품이나 교환을 요청하는 경우, 사용자 단말(100)로부터 반품이나 교환을 요청한 이유를 선택받고 무료로 수거할 수 있다. 상술한 바와 같이, 아바타 시뮬레이션을 통하여 비주얼적인 면을 확인하고, 햅틱 수트를 이용하여 착용감까지 보았어도, 실제로 입어보는 것을 대체할 수는 없다. 이에 따라, 무료수거부(391)는, 주문 및 결제하여 배송한 후 사용자가 입어봤지만 재질이나 다른 사항이 마음에 들지 않는 경우 무료반품이나 교환을 할 수 있도록 한다. 또는, 사이즈 때문에 교환하는 일이 없도록, 만약 M 사이즈를 주문했다면, S나 L 즉 그 아래나 위 사이즈를 함께 보내줌으로써 맞는 사이즈만 구매하고 나머지는 무료로 수거해갈 수 있도록 할 수도 있다.When the free collection unit 391 orders and pays for clothes in the user terminal 100 to request delivery, and the user directly requests a return or exchange after try-on, the reason for requesting a return or exchange from the user terminal 100 can be selected and collected for free. As described above, even if the visual aspect is checked through the avatar simulation and the fit is seen using the haptic suit, it cannot replace the actual wearing. Accordingly, the free collection unit 391 enables a free return or exchange if the user has tried on, but does not like the material or other matters after ordering, payment, and delivery. Or, to avoid exchanging because of the size, if you ordered a size M, you can also send the size S or L, that is, below or above it, so that you can purchase only the right size and collect the rest for free.

이하, 상술한 도 2의 시착 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, an operation process according to the configuration of the try-on service providing server of FIG. 2 will be described in detail with reference to FIGS. 3 and 4 as an example. However, it will be apparent that the embodiment is only one of various embodiments of the present invention and is not limited thereto.

도 3을 참조하면, (a) 시착 서비스 제공 서버(300)는 사용자 단말(100)로부터 신체정보 및 얼굴정보를 수집한 후, 신체정보로부터 가장 유사한 인체모델을 선택한 후, (b) 신체정보에 맞게 인체모델을 조절하여 3D 아바타를 생성하고, (c) 그 얼굴은 얼굴정보, 즉 사진으로부터 추출한 2D 얼굴 데이터로부터 3D 얼굴 데이터를 생성하고 이를 인체모델에 합성한다. 이렇게 (d)를 통하여 얼굴 및 신체가 완성되었다면, 도 4의 (a)와 같이 사용자의 신체정보에 대응하는 사이즈를 보유한 의류의 카테고리만을 활성화시켜 출력한다. 그리고, (b) 국내 쇼핑몰에 맞는 사이즈가 없거나 해외 쇼핑몰이 더 싼 경우 이에 대한 정보를 안내하고, (c) 3D 아바타에 의류 데이터를 출력하여 비주얼을 확인하도록 하며, (d) 햅틱수트가 있다면 착용감도 느껴볼 수 있도록 한다.Referring to FIG. 3 , (a) the try-on service providing server 300 collects body information and face information from the user terminal 100, selects the most similar human body model from the body information, (b) A 3D avatar is generated by adjusting the human body model accordingly, and (c) the face information is generated from the 2D face data extracted from the photo, and 3D face data is generated and synthesized into the human body model. If the face and body are completed through (d), only the category of clothing having the size corresponding to the user's body information is activated and output as shown in FIG. 4 (a). And, (b) if there is no size suitable for the domestic shopping mall or if the overseas shopping mall is cheaper, information is provided, (c) the clothing data is output to the 3D avatar to check the visual, and (d) if there is a haptic suit, the fit so you can feel it too.

이와 같은 도 2 내지 도 4의 3D 아바타를 이용한 시착 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 3D 아바타를 이용한 시착 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The matters not described with respect to the method of providing a try-on service using the 3D avatar of FIGS. 2 to 4 are the same as those described above for the method of providing the try-on service using the 3D avatar through FIG. 1 or easily from the described content. Since it can be inferred, the following description will be omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 3D 아바타를 이용한 시착 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.5 is a diagram illustrating a process in which data is transmitted/received between components included in the system for providing a try-on service using the 3D avatar of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process in which data is transmitted/received between each component will be described with reference to FIG. 5, but the present application is not limited to such an embodiment, and the example shown in FIG. 5 according to the various embodiments described above will be described. It is apparent to those skilled in the art that the data transmission/reception process may be changed.

도 5를 참조하면, 시착 서비스 제공 서버는, 적어도 하나의 카테고리의 의류의 의류 데이터에 사이즈 및 재질을 태깅하여 저장한다(S5100).Referring to FIG. 5 , the try-on service providing server tags and stores the size and material in clothing data of at least one category of clothing ( S5100 ).

그리고, 시착 서비스 제공 서버는, 의류 데이터 내 이미지 및 사이즈에 기반하여 3D 모델링을 진행하여 3D 데이터로 변환하고(S5200), 사용자 단말에서 신체정보 및 얼굴정보를 입력하는 경우, 신체정보 및 얼굴정보에 기반하여 3D 아바타를 생성한다(S5300).In addition, the try-on service providing server performs 3D modeling based on the image and size in the clothing data to convert it into 3D data (S5200), and when inputting body information and face information from the user terminal, the body information and face information Based on the 3D avatar is generated (S5300).

또, 시착 서비스 제공 서버는, 3D 아바타 상 신체정보에 대응하는 사이즈를 가지는 의류의 3D 데이터를 추출하여 시착시키고(S5400), 시착한 결과를 사용자 단말로 전송한다(S5500).Also, the try-on service providing server extracts 3D data of clothes having a size corresponding to the body information on the 3D avatar and tries them on (S5400), and transmits the try-on result to the user terminal (S5500).

상술한 단계들(S5100~S5500)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5500)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps ( S5100 to S5500 ) is merely an example and is not limited thereto. That is, the order between the above-described steps ( S5100 to S5500 ) may be mutually changed, and some of the steps may be simultaneously executed or deleted.

이와 같은 도 5의 3D 아바타를 이용한 시착 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 3D 아바타를 이용한 시착 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters that have not been described with respect to the method of providing a try-on service using the 3D avatar of FIG. 5 are the same as those described above for the method of providing a try-on service using the 3D avatar through FIGS. Since it can be inferred, the following description will be omitted.

도 5를 통해 설명된 일 실시예에 따른 3D 아바타를 이용한 시착 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The method of providing a try-on service using a 3D avatar according to an embodiment described with reference to FIG. 5 may be implemented in the form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer. have. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 3D 아바타를 이용한 시착 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 3D 아바타를 이용한 시착 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The above-described method for providing a try-on service using a 3D avatar according to an embodiment of the present invention may be executed by an application basically installed in a terminal (which may include a program included in a platform or an operating system, etc. basically installed in the terminal). and may be executed by an application (ie, a program) installed directly in the master terminal by a user through an application providing server such as an application store server, an application, or a web server related to the corresponding service. In this sense, the above-described method for providing a try-on service using a 3D avatar according to an embodiment of the present invention is implemented as an application (that is, a program) installed by default in a terminal or directly installed by a user and read by a computer such as a terminal. It can be recorded on a recordable medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

Claims (10)

인체의 적어도 하나의 부위의 사이즈를 포함하는 신체정보를 업로드하고, 얼굴정보가 포함된 사진을 업로드한 후, 신체정보 및 얼굴정보에 기반하여 생성된 3D 아바타를 출력하고, 상기 3D 아바타 상에 상기 신체정보에 대응하는 사이즈를 가지는 의류를 추출하여 시착한 결과를 출력하는 사용자 단말; 및
적어도 하나의 카테고리의 의류의 의류 데이터에 사이즈 및 재질을 태깅하여 저장하는 저장부, 상기 의류 데이터 내 이미지 및 사이즈에 기반하여 3D 모델링을 진행하여 3D 데이터로 변환하는 변환부, 상기 사용자 단말에서 상기 신체정보 및 얼굴정보를 입력하는 경우, 상기 신체정보 및 얼굴정보에 기반하여 3D 아바타를 생성하는 생성부, 상기 3D 아바타 상 상기 신체정보에 대응하는 사이즈를 가지는 의류의 3D 데이터를 추출하여 시착시키는 시착부, 상기 시착한 결과를 상기 사용자 단말로 전송하는 전송부를 포함하는 시착 서비스 제공 서버;
를 포함하는 3D 아바타를 이용한 시착 서비스 제공 시스템.
After uploading body information including the size of at least one part of the human body and uploading a photo including face information, a 3D avatar generated based on the body information and face information is output, and the 3D avatar is displayed on the 3D avatar. a user terminal for extracting clothes having a size corresponding to body information and outputting a try-on result; and
A storage unit that tags and stores sizes and materials in clothing data of at least one category of clothing, a conversion unit that performs 3D modeling based on images and sizes in the clothing data and converts them into 3D data, and the body in the user terminal When information and face information are input, a generator generates a 3D avatar based on the body information and face information, and a try-on unit extracts 3D data of clothing having a size corresponding to the body information on the 3D avatar and tries on it a try-on service providing server including a transmission unit for transmitting the try-on result to the user terminal;
A system for providing a try-on service using a 3D avatar comprising a.
제 1 항에 있어서,
상기 시착 서비스 제공 서버는,
인종, 성별, 나이 및 체형별 인체모델을 데이터베이스로 구축한 후, 상기 사용자 단말에서 입력한 입력한 인종, 성별, 나이 및 신체정보에 기반하여 사용자의체형을 추출하고, 상기 사용자의 체형과 가장 유사한 인체모델을 선택하여 상기 인체모델을 상기 신체정보의 사이즈 정보에 맞게 변형하는 아바타사이징부;
를 더 포함하는 것을 특징으로 하는 3D 아바타를 이용한 시착 서비스 제공 시스템.
The method of claim 1,
The try-on service providing server,
After building a human body model for each race, gender, age and body type as a database, the user's body type is extracted based on the race, gender, age and body information input from the user terminal, and the body shape most similar to the user's body type is extracted. an avatar sizing unit that selects a human body model and transforms the human body model to fit the size information of the body information;
A try-on service providing system using a 3D avatar, characterized in that it further comprises.
제 1 항에 있어서,
상기 시착 서비스 제공 서버는,
상기 사용자 단말로부터 사진을 입력받는 경우, 상기 사진 내 포함된 피사체 중 얼굴을 식별하여 추출하고, 추출된 2D 얼굴 데이터로부터 3D 얼굴 데이터를 3D 모델링하여 생성하는 얼굴생성부;
를 더 포함하는 것을 특징으로 하는 3D 아바타를 이용한 시착 서비스 제공 시스템.
The method of claim 1,
The try-on service providing server,
a face generator that, when receiving a picture from the user terminal, identifies and extracts a face from among the subjects included in the picture, and generates 3D face data by 3D modeling from the extracted 2D face data;
A try-on service providing system using a 3D avatar, characterized in that it further comprises.
제 1 항에 있어서,
상기 시착 서비스 제공 서버는,
상기 사용자 단말에서 입력한 신체정보에 대응하는 사이즈를 가지는 의류를 카테고리별로 추출하여 쇼핑목록을 생성하는 쇼핑안내부;
를 더 포함하는 것을 특징으로 하는 3D 아바타를 이용한 시착 서비스 제공 시스템.
The method of claim 1,
The try-on service providing server,
a shopping guide unit for generating a shopping list by extracting clothes having a size corresponding to the body information input from the user terminal by category;
A try-on service providing system using a 3D avatar, characterized in that it further comprises.
제 1 항에 있어서,
상기 시착 서비스 제공 서버는,
적어도 하나의 카테고리를 출력할 때, 상기 사용자 단말에서 입력한 신체정보에 대응하는 사이즈를 가지는 의류가 존재하는 카테고리만 활성화를 유지하고, 상기 사용자 단말에서 입력한 신체정보에 대응하는 사이즈를 가지는 의류가 존재하지 않는 카테고리는 비활성화시켜 상기 적어도 하나의 카테고리를 개인화하는 개인화부;
를 더 포함하는 것을 특징으로 하는 3D 아바타를 이용한 시착 서비스 제공 시스템.
The method of claim 1,
The try-on service providing server,
When outputting at least one category, only the category in which clothing having a size corresponding to the body information input from the user terminal exists is kept active, and clothing having a size corresponding to the body information input from the user terminal is maintained. a personalization unit that inactivates non-existent categories to personalize the at least one category;
A try-on service providing system using a 3D avatar, characterized in that it further comprises.
제 1 항에 있어서,
상기 시착 서비스 제공 서버는,
IBL(Instance Based Learning) 기반으로 현재 시착한 의류에 어울리는 의류를 추천해주는 코디부;
를 더 포함하는 것을 특징으로 하는 3D 아바타를 이용한 시착 서비스 제공 시스템.
The method of claim 1,
The try-on service providing server,
a coordinating unit that recommends clothes that match the clothes you are currently trying on based on IBL (Instance Based Learning);
A try-on service providing system using a 3D avatar, characterized in that it further comprises.
제 1 항에 있어서,
상기 시착 서비스 제공 서버는,
상기 사용자 단말로부터 기 보유한 적어도 하나의 의류의 식별코드를 수집하고, 상기 식별코드를 기준으로 의류를 검색한 후 의류의 스타일, 브랜드 및 사이즈를 사용자 선호 데이터로 저장하는 선호도저장부;
를 더 포함하는 것을 특징으로 하는 3D 아바타를 이용한 시착 서비스 제공 시스템.
The method of claim 1,
The try-on service providing server,
a preference storage unit that collects identification codes of at least one pre-owned clothing from the user terminal, searches for clothing based on the identification code, and stores the style, brand, and size of the clothing as user preference data;
A try-on service providing system using a 3D avatar, characterized in that it further comprises.
제 7 항에 있어서,
상기 시착 서비스 제공 서버는,
상기 3D 아바타 상에 상기 신체정보에 대응하는 사이즈를 가지는 의류 및 상기 사용자 선호 데이터의 브랜드를 모두 만족하는 의류가 국내의 쇼핑몰에 존재하지 않는 경우, 국외의 쇼핑몰을 검색하여 사이즈 및 브랜드를 만족하는 의류를 추출하고, 배송대행지를 이용함에 따른 배송가격과 관세를 합한 금액을 상기 사용자 단말로 전송하는 해외쇼핑부;
를 더 포함하는 것을 특징으로 하는 3D 아바타를 이용한 시착 서비스 제공 시스템.
8. The method of claim 7,
The try-on service providing server,
When clothes having a size corresponding to the body information and clothes satisfying both the brand of the user preference data and the clothes having the size corresponding to the body information on the 3D avatar do not exist in a domestic shopping mall, search an overseas shopping mall to find clothes that satisfy the size and brand an overseas shopping unit for extracting and transmitting the sum of the shipping price and customs duties according to the use of a shipping agent to the user terminal;
A try-on service providing system using a 3D avatar, characterized in that it further comprises.
제 7 항에 있어서,
상기 시착 서비스 제공 서버는,
상기 3D 아바타 상에 상기 신체정보에 대응하는 사이즈를 가지는 의류 및 상기 사용자 선호 데이터의 브랜드를 모두 만족하는 의류가 국내의 쇼핑몰에 존재하나, 동일한 의류를 판매하는 국외의 쇼핑몰에서의 의류가격, 배송비 및 관세를 합한 금액이 국내의 쇼핑몰의 가격보다 낮은 경우, 상기 국외의 쇼핑몰의 URL을 상기 사용자 단말로 전송하는 해외직구부;
를 더 포함하는 것을 특징으로 하는 3D 아바타를 이용한 시착 서비스 제공 시스템.
8. The method of claim 7,
The try-on service providing server,
On the 3D avatar, clothes having a size corresponding to the body information and clothes satisfying both the brand of the user preference data exist in a domestic shopping mall, but clothing prices, shipping costs, and an overseas direct purchase unit for transmitting the URL of the overseas shopping mall to the user terminal when the sum of tariffs is lower than the price of the domestic shopping mall;
A try-on service providing system using a 3D avatar, characterized in that it further comprises.
제 1 항에 있어서,
상기 시착 서비스 제공 서버는,
상기 사용자 단말에서 의류를 주문 및 결제하여 배송을 요청하고, 사용자가 직접 시착 후 반품이나 교환을 요청하는 경우, 상기 사용자 단말로부터 반품이나 교환을 요청한 이유를 선택받고 무료로 수거하는 무료수거부;
를 더 포함하는 것을 특징으로 하는 3D 아바타를 이용한 시착 서비스 제공 시스템.
The method of claim 1,
The try-on service providing server,
a free collection unit that receives a selection of a reason for requesting a return or exchange from the user terminal and collects it for free;
A try-on service providing system using a 3D avatar, characterized in that it further comprises.
KR1020210041313A 2021-03-30 2021-03-30 System for providing virtual cloth fitting service using three-dimensional avatar KR102530461B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210041313A KR102530461B1 (en) 2021-03-30 2021-03-30 System for providing virtual cloth fitting service using three-dimensional avatar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210041313A KR102530461B1 (en) 2021-03-30 2021-03-30 System for providing virtual cloth fitting service using three-dimensional avatar

Publications (2)

Publication Number Publication Date
KR20220135526A true KR20220135526A (en) 2022-10-07
KR102530461B1 KR102530461B1 (en) 2023-05-08

Family

ID=83595419

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210041313A KR102530461B1 (en) 2021-03-30 2021-03-30 System for providing virtual cloth fitting service using three-dimensional avatar

Country Status (1)

Country Link
KR (1) KR102530461B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102572041B1 (en) * 2023-02-03 2023-08-30 주식회사 바우로컴퍼니 Men's goods sales system
CN116757772A (en) * 2023-06-07 2023-09-15 广州星巢网络科技有限公司 Intelligent management system for renting and retail of clothes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180105066A (en) * 2017-03-14 2018-09-27 주식회사 신스컴퍼니 System for purchasing goods of online shopping mall and method therefor
KR102082615B1 (en) * 2019-10-08 2020-02-27 송수아 Seasonal goods comprehensive sales yystem, and method thereof
KR102202843B1 (en) * 2020-04-14 2021-01-14 이상철 System for providing online clothing fitting service using three dimentional avatar
KR20210020183A (en) * 2019-08-13 2021-02-24 유스잉 Method for providing customized fitting service in online shopping mall

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180105066A (en) * 2017-03-14 2018-09-27 주식회사 신스컴퍼니 System for purchasing goods of online shopping mall and method therefor
KR20210020183A (en) * 2019-08-13 2021-02-24 유스잉 Method for providing customized fitting service in online shopping mall
KR102082615B1 (en) * 2019-10-08 2020-02-27 송수아 Seasonal goods comprehensive sales yystem, and method thereof
KR102202843B1 (en) * 2020-04-14 2021-01-14 이상철 System for providing online clothing fitting service using three dimentional avatar

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102572041B1 (en) * 2023-02-03 2023-08-30 주식회사 바우로컴퍼니 Men's goods sales system
CN116757772A (en) * 2023-06-07 2023-09-15 广州星巢网络科技有限公司 Intelligent management system for renting and retail of clothes

Also Published As

Publication number Publication date
KR102530461B1 (en) 2023-05-08

Similar Documents

Publication Publication Date Title
Hong et al. Interactive virtual try-on based three-dimensional garment block design for disabled people of scoliosis type
Gill A review of research and innovation in garment sizing, prototyping and fitting
CN114663199B (en) Dynamic display real-time three-dimensional virtual fitting system and method
KR101671649B1 (en) Method and System for 3D manipulated image combined physical data and clothing data
US7149665B2 (en) System and method for simulation of virtual wear articles on virtual models
KR100511210B1 (en) Method for converting 2d image into pseudo 3d image and user-adapted total coordination method in use artificial intelligence, and service besiness method thereof
US6310627B1 (en) Method and system for generating a stereoscopic image of a garment
US11439194B2 (en) Devices and methods for extracting body measurements from 2D images
Kim et al. An exploratory study of users’ evaluations of the accuracy and fidelity of a three-dimensional garment simulation
EP1240623B1 (en) System and method for visualizing personal appearance
CN107924532A (en) Method and apparatus for the description for providing dress form
WO2020203656A1 (en) Information processing device, information processing method, and program
KR102530461B1 (en) System for providing virtual cloth fitting service using three-dimensional avatar
US20190026810A1 (en) Highly Custom and Scalable Design System and Method for Articles of Manufacture
US20220253923A1 (en) Virtual Fitting Room
WO2006071006A1 (en) Method for converting 2d image into pseudo 3d image and user-adapted total coordination method in use artificial intelligence, and service business method thereof
JP7273433B2 (en) Image generation device, method, program, and virtual try-on system
CN110675214A (en) Virtual fitting somatosensory simulation method and system
Qiu et al. Fusion mode and style based on artificial intelligence and clothing design
Gupta New directions in the field of anthropometry, sizing and clothing fit
Li et al. Feature curve-net-based three-dimensional garment customization
De Raeve et al. Mass customization, business model for the future of fashion industry
KR20190057516A (en) Artificial intelligence total fashion styling system and method using augmented reality
Gunatilake et al. An ICT based Solution for Virtual Garment Fitting for Online Market Place: A Review of Related Literature
US20230104072A1 (en) Systems and methods for automating clothing transaction

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant