KR20230156467A - Clothes sale method using augmented reality - Google Patents

Clothes sale method using augmented reality Download PDF

Info

Publication number
KR20230156467A
KR20230156467A KR1020220055848A KR20220055848A KR20230156467A KR 20230156467 A KR20230156467 A KR 20230156467A KR 1020220055848 A KR1020220055848 A KR 1020220055848A KR 20220055848 A KR20220055848 A KR 20220055848A KR 20230156467 A KR20230156467 A KR 20230156467A
Authority
KR
South Korea
Prior art keywords
clothing
data
user
information
virtual fitting
Prior art date
Application number
KR1020220055848A
Other languages
Korean (ko)
Inventor
서송이
Original Assignee
(주)다올컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)다올컴퍼니 filed Critical (주)다올컴퍼니
Priority to KR1020220055848A priority Critical patent/KR20230156467A/en
Publication of KR20230156467A publication Critical patent/KR20230156467A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

증강현실을 이용한 의류 판매방법이 개시된다. 본 발명에 따른 의류 판매방법은, 증강현실 기반의 의류 판매방법에 있어서, 의상 데이터 및 사용자에 대한 영상 데이터를 획득하는 단계; 의상 데이터에 대응하는 신체 부위 영역을 영상 데이터로부터 인식하는 단계; 인식된 신체 부위 영역에 대한 제1형상 정보 및 의상 데이터에 기초한 제2형상 정보에 기초하여 영상 데이터로부터 의상 데이터와 연계된 의상이 사용자의 신체 부위 영역에 착용된 것으로 인식되는 증강현실 기반의 가상 피팅 데이터를 생성하는 단계; 및 가상 피팅 데이터를 사용자 단말로 제공하여 표시하는 단계;를 포함한다.A method of selling clothing using augmented reality is disclosed. A clothing selling method according to the present invention is an augmented reality-based clothing selling method, comprising: acquiring clothing data and image data about a user; Recognizing a body part area corresponding to clothing data from image data; Augmented reality-based virtual fitting in which clothes linked to clothing data from image data are recognized as being worn on the user's body part area based on first shape information about the recognized body part area and second shape information based on clothing data. generating data; and providing and displaying virtual fitting data to the user terminal.

Description

증강현실을 이용한 의류 판매방법{CLOTHES SALE METHOD USING AUGMENTED REALITY}Clothing selling method using augmented reality {CLOTHES SALE METHOD USING AUGMENTED REALITY}

본 발명은 증강현실을 이용한 의류 판매방법에 관한 것으로서, 보다 상세하게는 증강현실 기능을 이용해 의상을 가상으로 피팅하는 컨텐츠를 통해 사용자의 체형 등의 해당 의상이 어울리는지에 대한 판단을 보조할 수 있는, 증강현실을 이용한 의류 판매방법에 관한 것이다.The present invention relates to a method of selling clothing using augmented reality. More specifically, the present invention relates to a method of selling clothing using augmented reality, which can assist in determining whether the clothing suits the user's body type through content that virtually fits clothing using the augmented reality function. This is about a method of selling clothing using augmented reality.

최근 들어 온라인 쇼핑 시장은 인터넷의 발달과 모바일 기기의 보급으로 급격한 성장세를 보이고 있다. 특히,Recently, the online shopping market has been showing rapid growth due to the development of the Internet and the spread of mobile devices. especially,

온라인 쇼핑몰은 오프라인 매장을 유지할 필요가 없기 때문에, 보관 및 유지에 소요되는 비용이 절감되어 오프Since online shopping malls do not need to maintain offline stores, storage and maintenance costs are reduced and

라인 매장보다 저렴한 가격으로 고객에게 상품을 제공할 수 있는 장점이 있으며, 다양한 제품 정보를 시간 및It has the advantage of being able to provide products to customers at lower prices than line stores, and provides various product information in a timely and cost-effective manner.

공간에 제약 없이 많은 고객에게 동시에 제공함으로써, 잠재적 고객을 실제 고객으로 유치하는 효과도 있다.By providing services to many customers simultaneously without space constraints, it has the effect of attracting potential customers into actual customers.

한편, 이러한 온라인 쇼핑몰에서는 다양한 제품의 정보를 주로 시각적 정보로 제공하고 있는데, 실제로 착용한 상태에서의 정보를 획득할 수 없는 온라인 쇼핑의 한계를 고려하면, 의류와 같이 상품은 상품 형상에 대한 설명정보, 사이즈 정보, 사용자와 무관한 모델이 상품을 착용한 이미지뿐만 아니라 해당 상품을 구매하려는 사용자(고객)의 체형에 적합한지 여부, 사용자(고객)의 선호 경향에 부합하는지 여부 등 구매 결정을 위한 다각도의 정보를 제공할 필요가 있다.Meanwhile, these online shopping malls provide information about various products mainly as visual information, but considering the limitations of online shopping in which information cannot be obtained when actually worn, products such as clothing are provided with explanatory information about the shape of the product. , size information, images of a model unrelated to the user wearing the product, as well as whether the product fits the body type of the user (customer) who wants to purchase the product, and whether it matches the user's (customer) preferences, etc. from various angles for purchasing decisions. It is necessary to provide information.

이와 관련하여, 최근 들어 가상현실/증강현실 등을 활용하여 보다 실제에 가까운 의류 정보를 사용자에게 제공할 수 있는 방안이 요구된다.In this regard, there is a recent need for a method that can provide users with clothing information that is closer to reality by utilizing virtual reality/augmented reality, etc.

공개특허공보 제10-2001-0000912호 (공개일자: 2001.01.05)Public Patent Publication No. 10-2001-0000912 (Publication Date: 2001.01.05)

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 증강현실 기능을 이용해 의상을 가상으로 피팅하는 컨텐츠를 통해 사용자의 체형 등의 해당 의상이 어울리는지에 대한 판단을 보조할 수 있는 증강현실 기반의 의류 판매방법을 제공하려는 것을 목적으로 한다.The present invention is intended to solve the problems of the prior art described above, and is an augmented reality-based technology that can assist in determining whether the clothing suits the user's body type through content that virtually fits clothing using the augmented reality function. The purpose is to provide a method for selling clothing.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 사용자 단말을 통해 시공간 제약 없이 보다 편리한 의상 착용 및 의상 구매를 지원하는 증강현실 기반의 의류 판매방법을 제공하려는 것을 목적으로 한다.The present invention is intended to solve the problems of the prior art described above, and aims to provide an augmented reality-based clothing sales method that supports more convenient wearing and purchasing of clothing without time and space constraints through a user terminal.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenges sought to be achieved by the embodiments of the present application are not limited to the technical challenges described above, and other technical challenges may exist.

전술한 목적을 달성하기 위한 본 발명의 일 측면에 따른 증강현실을 이용한 의류 판매방법은, 의상 데이터 및 사용자에 대한 영상 데이터를 획득하는 단계; 상기 의상 데이터에 대응하는 신체 부위 영역을 상기 영상 데이터로부터 인식하는 단계; 상기 인식된 신체 부위 영역에 대한 제1형상 정보 및 상기 의상 데이터에 기초한 제2형상 정보에 기초하여 상기 영상 데이터로부터 상기 의상 데이터와 연계된 의상이 상기 사용자의 신체 부위 영역에 착용된 것으로 인식되는 증강현실 기반의 가상 피팅 데이터를 생성하는 단계; 및 상기 가상 피팅 데이터를 사용자 단말로 제공하여 표시하는 단계;를 포함하는 것을 특징으로 한다.A clothing sales method using augmented reality according to an aspect of the present invention to achieve the above-described object includes the steps of acquiring clothing data and image data about the user; Recognizing a body part area corresponding to the clothing data from the image data; Augmentation in which clothing associated with the clothing data from the image data is recognized as being worn in the body part region of the user based on first shape information for the recognized body part region and second shape information based on the clothing data. Generating reality-based virtual fitting data; and providing and displaying the virtual fitting data to a user terminal.

본 발명에 따르면, 증강현실 기능을 이용해 의상을 가상으로 피팅하는 컨텐츠를 통해 사용자의 체형 등의 해당 의상이 어울리는지에 대한 판단을 보조할 수 있다.According to the present invention, it is possible to assist in determining whether the clothing suits the user's body type through content that virtually fits clothing using the augmented reality function.

또한, 본 발명에 따르면, 사용자 단말을 통해 시공간 제약 없이 보다 편리한 의상 착용 및 의상 구매를 지원할 수 있다.In addition, according to the present invention, it is possible to support more convenient wearing and purchasing of clothes without time and space constraints through the user terminal.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects that can be obtained herein are not limited to the effects described above, and other effects may exist.

도 1은 본원의 일 실시예에 따른 증강현실 기반의 의류 판매 시스템의 개략적인 구성도이다.
도 2는 사용자에 대한 영상 데이터로부터 의상 데이터에 대응하는 신체 부위 영역을 인식하는 것을 설명하기 위한 도면이다.
도 3은 입력된 패션 이미지에 대응되는 의상 데이터에 대한 정보를 제공하기 위한 사용자 인터페이스를 예시적으로 나타낸 도면이다.
도 4은 본원의 일 실시예에 따른 증강현실 기반의 의류 판매 서비스 제공 장치의 개략적인 구성도이다.
도 5는 본원의 일 실시예에 따른 증강현실 기반의 의류 판매 서비스 제공 방법에 대한 동작 흐름도이다.
도 6은 영상 데이터에 기초하여 가상 아바타를 생성 및 표시하는 방법에 대한 동작 흐름도이다.
1 is a schematic configuration diagram of an augmented reality-based clothing sales system according to an embodiment of the present application.
FIG. 2 is a diagram illustrating recognition of a body part area corresponding to clothing data from image data about a user.
Figure 3 is a diagram illustrating an example of a user interface for providing information about clothing data corresponding to an input fashion image.
Figure 4 is a schematic configuration diagram of an augmented reality-based clothing sales service providing device according to an embodiment of the present application.
Figure 5 is an operation flowchart of a method for providing an augmented reality-based clothing sales service according to an embodiment of the present application.
Figure 6 is an operation flowchart of a method for creating and displaying a virtual avatar based on image data.

이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 설명한다. 각 도면의 구성요소들에 참조부호를 기재함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호로 표시한다. 또한, 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시 예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다. Hereinafter, some embodiments of the present invention will be described through exemplary drawings. When assigning reference numerals to components in each drawing, identical components are indicated with the same reference numerals as much as possible, even if they are shown in different drawings. Additionally, when describing embodiments of the present invention, if detailed descriptions of related known configurations or functions are judged to impede understanding of the embodiments of the present invention, the detailed descriptions will be omitted.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속될 수 있지만, 그 구성 요소와 그 다른 구성요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Additionally, when describing the components of an embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. When a component is described as being "connected," "coupled," or "connected" to another component, that component may be directly connected, coupled, or connected to that other component, but may not be connected to that component or that other component. It should be understood that another component may be “connected,” “coupled,” or “connected” between elements.

도 1은 본원의 일 실시예에 따른 증강현실 기반의 의류 판매 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of an augmented reality-based clothing sales system according to an embodiment of the present application.

도 1을 참조하면, 본원의 일 실시예에 따른 증강현실 기반의 의류 판매 시스템(10)은, 본원의 일 실시예에 따른 증강현실 기반의 의류 판매 서비스 제공 장치(100)(이하, '서비스 제공 장치(100)'라 한다.), 사용자 단말(200) 및 데이터베이스(300)를 포함할 수 있다.Referring to FIG. 1, the augmented reality-based clothing sales system 10 according to an embodiment of the present application is an augmented reality-based clothing sales service providing device 100 (hereinafter referred to as 'service provision') according to an embodiment of the present application. It may include a 'device 100'), a user terminal 200, and a database 300.

서비스 제공 장치(100), 사용자 단말(200) 및 데이터베이스(300) 상호간은 [0036] 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The service providing device 100, the user terminal 200, and the database 300 may communicate with each other through the network 20. The network 20 refers to a connection structure that allows information exchange between nodes such as terminals and servers. Examples of such networks 20 include the 3rd Generation Partnership Project (3GPP) network, Long Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area) Network), wifi network, Bluetooth network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc., but are not limited thereto.

사용자 단말(200)은 예를 들면, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 무선 통신 장치일 수 있다.The user terminal 200 includes, for example, a smartphone, a SmartPad, a tablet PC, etc., as well as a Personal Communication System (PCS), a Global System for Mobile communication (GSM), a Personal Digital Cellular (PDC), and a PHS ( Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminal It can be any type of wireless communication device, such as:

서비스 제공 장치(100)는 의상 데이터 및 사용자에 대한 영상 데이터를 획득할 수 있다.The service providing device 100 may acquire clothing data and image data about the user.

본원의 실시예에 관한 설명에서 의상 데이터는 사용자 단말(200)의 사용자가 획득하고자 하는 소정의 의상에 대한 유형 정보, 형상 정보, 브랜드 정보, 상품 식별정보, 규격 정보, 가격 정보 등 해당 의상과 연계된 다양한 정보를 폭넓게 포함하는 개념일 수 있다. 본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 사용자 단말(200)의 화면을 통해 제공된 복수의 의상 목록에서 선택된 의상에 대응하는 의상 데이터를 미리 구축된 데이터베이스(300)로부터 획득하는 것일 수 있다.In the description of the embodiments of the present application, clothing data is linked to the clothing, such as type information, shape information, brand information, product identification information, standard information, and price information, for a given clothing that the user of the user terminal 200 wishes to acquire. It may be a concept that broadly encompasses a variety of information. According to an embodiment of the present application, the service providing device 100 may obtain costume data corresponding to a costume selected from a plurality of costume lists provided through the screen of the user terminal 200 from a pre-built database 300. there is.

또한, 본원의 실시예에 관한 설명에서 사용자에 대한 영상 데이터는 사용자 단말(200)에 탑재된 카메라(미도시)로부터 촬영되어 소정의 인물의 신체 영역을 적어도 일부 포함하는 이미지, 동영상 등을 의미하는 것일 수 있다. 다른 예로, 사용자에 대한 영상 데이터는 사용자 단말(200)과 구분되는 별개의 촬영 디바이스에 의해 촬영되어 사용자 단말(200)에 저장된 것이거나, 사용자 단말(200)의 요청에 의해 별도의 디바이스로부터 서비스 제공 장치(100)로 제공되는 것일 수 있다.In addition, in the description of the embodiments of the present application, the image data for the user refers to images, videos, etc. captured by a camera (not shown) mounted on the user terminal 200 and including at least a portion of the body area of a predetermined person. It may be. As another example, image data about the user is captured by a separate recording device from the user terminal 200 and stored in the user terminal 200, or the service is provided from a separate device at the request of the user terminal 200. It may be provided as device 100.

도 2는 사용자에 대한 영상 데이터로부터 의상 데이터에 대응하는 신체 부위 영역을 인식하는 것을 설명하기 위한 도면이다.FIG. 2 is a diagram illustrating recognition of a body part area corresponding to clothing data from image data about a user.

도 2를 참조하면, 서비스 제공 장치(100)는 의상 데이터에 대응하는 신체 부위 영역을 사용자 단말(200)로부터 획득된 영상 데이터로부터 인식할 수 있다. 본원의 일 실시예에 따르면, 도 2에 도시된 바와 같이, 서비스 제공 장치(100)는 획득된 영상 데이터에서 의상 데이터에 대응하는 신체 부위 영역을 포함하도록 구분지어지는 가상의 경계 영역(A)을 영상 데이터에 오버레이 하여 표시함으로써 사용자의 신체 부위 영역에 대한 인식 결과를 육안으로 확인 가능하도록 할 수 있다.Referring to FIG. 2 , the service providing device 100 may recognize a body part area corresponding to clothing data from image data obtained from the user terminal 200 . According to an embodiment of the present application, as shown in FIG. 2, the service providing device 100 creates a virtual boundary area (A) divided to include a body part area corresponding to clothing data in the acquired image data. By overlaying and displaying image data, the recognition results for the user's body part area can be confirmed with the naked eye.

여기서, 의상 데이터에 대응하는 신체 부위 영역이란, 획득된 의상 데이터와 연계된 의상(예를 들면, 사용자 단말(200)의 사용자가 구매를 희망하거나, 정보를 획득할 목적으로 선택된 의상 등)의 유형 정보 및 형상 정보에 기초하여 해당 의상을 실제로 착용할 경우 해당 의상이 착용 또는 착장되는 신체 부위를 포함하는 영역을 의미할 수 있다. 예를 들어, 의상 데이터가 신발에 대한 것인 경우, 의상 데이터에 대응하는 신체 부위 영역은 사용자의 발 부위를 포함하는 영역일 수 있다. 예시적으로, 도 2를 참조하면, 도 2는 의상 데이터의 유형 정보가 원피스 등 사용자의 상체 및 하체에 전체적으로 착용되는 것이거나 상의 및 하의가 모두 의상 데이터로 선택된 경우(달리 말해, 사용자가 상의인 제1의상과 하의인 제2의상을 모두 가상 피팅하고자 하는 경우) 등에 대응하여 사용자의 상체 및 하체 영역을 모두 커버하는 신체 부위 영역이 인식된 결과를 나타낸 것일 수 있다.Here, the body part area corresponding to the clothing data refers to the type of clothing (e.g., clothing selected for the purpose of obtaining information or that the user of the user terminal 200 wishes to purchase) associated with the acquired clothing data. Based on the information and shape information, when the corresponding clothing is actually worn, it may mean an area including the body part where the clothing is worn or worn. For example, if the clothing data is about shoes, the body part area corresponding to the clothing data may be an area including the user's foot area. Illustratively, referring to FIG. 2, the type information of clothing data is one that is worn entirely on the user's upper and lower body, such as a dress, or both tops and bottoms are selected as clothing data (in other words, when the user is a top wearer) This may indicate a result in which a body part area covering both the upper and lower body areas of the user is recognized, corresponding to a case where a virtual fitting of both the first outfit and the second outfit (bottoms) is desired.

또한, 서비스 제공 장치(100)는 의상 데이터에 대응하는 신체 부위 영역이 영상 데이터에 미포함된 것으로 판단되면, 영상 데이터의 갱신을 사용자 단말(200)로 요청할 수 있다. 예시적으로, 의상 데이터가 신발에 대응되는 것이나, 사용자 단말(200)로부터 획득된 영상 데이터에 사용자의 발 부위가 드러나지 않는 경우 서비스 제공 장치(100)는 의상 데이터에 대응하는 신체 부위 영역인 발 부위가 포함되도록 갱신된 영상 데이터를 재차 제공해 줄 것을 텍스트, 이미지, 음성 등의 형식을 통해 요구하는 안내 정보가 사용자 단말(200)에 표출되도록 할 수 있다.Additionally, if the service providing device 100 determines that the body part area corresponding to the clothing data is not included in the image data, it may request the user terminal 200 to update the image data. As an example, if the clothing data corresponds to shoes, but the user's foot is not revealed in the image data obtained from the user terminal 200, the service providing device 100 determines the foot portion, which is a body part area corresponding to the clothing data. Guidance information requesting that the updated video data be provided again in the form of text, image, voice, etc. may be displayed on the user terminal 200.

반대로, 영상 데이터에 의상 데이터에 대응하는 신체 부위 영역이 포함된 것으로 판단되면, 서비스 제공 장치(100)는 인식된 신체 부위 영역에 대한 제1형상 정보 및 의상 데이터에 기초한 제2형상 정보에 기초하여 영상 데이터로부터 의상 데이터와 연계된 의상이 사용자의 신체 부위 영역에 착용된 것으로 인식되는 증강현실 기반의 가상 피팅 데이터를 생성할 수 있다.Conversely, if it is determined that the image data includes a body part area corresponding to the clothing data, the service providing device 100 uses the first shape information for the recognized body part area and the second shape information based on the clothing data. From image data, augmented reality-based virtual fitting data can be generated in which the clothing linked to the clothing data is recognized as being worn on the user's body part area.

달리 말해, 본원에서의 가상 피팅 데이터는 사용자의 신체를 촬영한 영상 데이터에서 사용자가 가상으로 피팅하려는 의상의 의상 데이터에 대응하는 신체 부위를 인식하고, 해당 의상의 의상 데이터에 기초한 형상과 인식된 신체 부위의 형상을 정합하여 증강된 화상을 의미할 수 있다. 예를 들어, 서비스 제공 장치(100)는 신발에 해당하는 의상 데이터에 대응하여 사용자의 발 부위를 인식하고, 사용자의 발 부위의 형상(제1형상 정보) 및 해당 신발의 형상(제2형상 정보)에 기초하여 사용자가 해당 신발을 실제로 신고 있는 듯한 모습을 반영하는 화상인 가상 피팅 데이터를 생성할 수 있다.In other words, the virtual fitting data herein recognizes the body part corresponding to the clothing data of the clothing that the user wants to virtually fit from image data taken of the user's body, and the shape and recognized body based on the clothing data of the clothing. This may mean an image enhanced by matching the shape of the area. For example, the service providing device 100 recognizes the user's foot part in response to clothing data corresponding to the shoe, and determines the shape of the user's foot part (first shape information) and the shape of the shoe (second shape information). ) Based on this, virtual fitting data, which is an image that reflects the user's appearance as if he or she is actually wearing the shoes, can be generated.

또한, 서비스 제공 장치(100)는 생성된 가상 피팅 데이터를 사용자 단말(200)로 제공하여 표시할 수 있다.Additionally, the service providing device 100 may provide the generated virtual fitting data to the user terminal 200 and display it.

본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 생성된 가상 피팅 데이터를 사용자 단말(200)의 화면에 표시하되, 가상 피팅 데이터가 표출되는 영역 외의 배경 영역에 가상 피팅 데이터의 생성에 활용된 의상 데이터와 연계된 아이템에 대한 객체가 표시되도록 할 수 있다. 예시적으로, 아이템은 활용된 의상 데이터에 어울리는 것으로 추천될 수 있는 장신구, 액세서리 등의 패션 아이템일 수 있다. 이와 관련하여, 서비스 제공 장치(100)는 데이터베이스(300)에 미리 저장된 의상 데이터와 패션 아이템 간의 매칭 정보에 기초하여, 가상 피팅 데이터의 생성에 활용된 의상 데이터와 매칭되는 패션 아이템을 나타내는 객체를 배경 영역을 활용하여 표시하되, 표시된 객체를 선택하는 사용자 입력(예를 들어, 표시된 객체를 터치하는 사용자 입력 등)이 인가되면, 해당 객체에 대응하는 패션 아이템에 대한 제3형상 정보에 기초하여 가상 피팅 데이터를 갱신하도록 동작할 수 있다.According to an embodiment of the present application, the service providing device 100 displays the generated virtual fitting data on the screen of the user terminal 200, but utilizes the generated virtual fitting data to generate virtual fitting data in a background area other than the area where the virtual fitting data is displayed. Objects for items linked to the clothing data can be displayed. By way of example, the item may be a fashion item such as jewelry or accessories that can be recommended as matching the clothing data used. In this regard, the service providing device 100 creates a background object representing a fashion item that matches the clothing data used to generate virtual fitting data, based on matching information between clothing data and fashion items pre-stored in the database 300. It is displayed using an area, but when a user input for selecting the displayed object (for example, a user input for touching the displayed object, etc.) is applied, virtual fitting is performed based on the third shape information about the fashion item corresponding to the object. It can operate to update data.

예를 들어, 서비스 제공 장치(100)는 사용자가 가상 피팅 콘텐츠를 제공받기 위해 선택한 의상에 대한 형상인 제2형상 정보와 해당 의상에 대응하도록 인식된 신체 부위 영역의 형상인 제1형상 정보에 기초하여 가상 피팅 데이터를 우선적으로 제공하되, 배경 영역을 통해 해당 의상과 어울리는 별도의 패션 아이템에 대한 정보를 표시하고, 사용자가 해당 패션 아이템까지 추가적으로 가상 피팅하려는 사용자 입력을 인가하면, 해당 패션 아이템에 대한 제3형상 정보를 추가 반영하여 가상 피팅 데이터를 갱신하여 표시할 수 있다.For example, the service providing device 100 may provide virtual fitting content based on second shape information, which is the shape of the clothing selected by the user to receive virtual fitting content, and first shape information, which is the shape of the body part area recognized to correspond to the corresponding clothing. Provides virtual fitting data first, displays information on separate fashion items that match the clothing through the background area, and if the user approves a user input for additional virtual fitting of the fashion item, information on the fashion item is provided. The virtual fitting data can be updated and displayed by additionally reflecting the third shape information.

또한, 본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 가상 피팅 데이터가 출력된 이후, 가상 피팅 데이터에 활용된 의상에 대한 사이즈 변경을 요청하는 사용자 입력이 인가되면, 제2형상 정보를 사이즈 변경을 요청하는 사용자 입력에 기초하여 변경하여 가상 피팅 데이터를 갱신할 수 있다. 또한, 본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 가상 피팅 데이터가 출력된 이후, 가상 피팅 데이터에 활용된 의상에 대한 색상 변경을 요청하는 사용자 입력이 인가되면, 제2형상 정보를 색상 변경을 요청하는 사용자 입력에 기초하여 변경하여 가상 피팅 데이터를 갱신할 수 있다.In addition, according to an embodiment of the present application, after the virtual fitting data is output, the service providing device 100 provides second shape information when a user input requesting a size change for the clothing used in the virtual fitting data is applied. The virtual fitting data can be updated by changing it based on a user input requesting a size change. In addition, according to an embodiment of the present application, after the virtual fitting data is output, when a user input requesting a color change for the clothes used in the virtual fitting data is applied, the service providing device 100 generates the second shape information. The virtual fitting data can be updated by changing it based on a user input requesting a color change.

또한, 본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 사이즈 변경을 요청하는 사용자 입력에 기초하여 데이터베이스(300)에 확보된 해당 의상에 대한 사이즈 체계에 기초하여 제2형상 정보를 변경하되, 의상 브랜드, 의상 구매처 등에 따라 동일한 사이즈라도 실측치가 상이하여 실제로는 사용자의 신체에 맞지 않는 가상 피팅 데이터가 생성되는 것을 방지할 수 있도록, 데이터베이스(300)에 미리 수집된 의상별 수치형 사이즈 정보 및 실제로 해당 의상을 착용해본 복수의 사용자에 의해 수집된 사이즈 피드백 정보를 반영하여 제2형상 정보가 가상 피팅 데이터 상에서 변경되는 정도를 결정할 수 있다.In addition, according to an embodiment of the present application, the service providing device 100 changes the second shape information based on the size system for the corresponding clothing secured in the database 300 based on a user input requesting a size change, In order to prevent the creation of virtual fitting data that does not actually fit the user's body due to differences in actual measurements even if they are the same size depending on the clothing brand, clothing purchase place, etc., numerical size information for each clothing collected in advance in the database 300 and The degree to which the second shape information changes in the virtual fitting data can be determined by reflecting the size feedback information collected by a plurality of users who have actually worn the corresponding clothing.

본원의 일 실시예에 따르면, 사이즈 피드백 정보는 의상의 실제 착용자에 해당하는 복수의 사용자에 의해 수집된 후기 정보 등에 반영된 해당 의상의 수치형 사이즈 정보와 실제 체감되는 사이즈 수준에 대한 비교 결과를 의미하는 것일 수 있다. 예시적으로, 서비스 제공 장치(100)는 의상에 대한 구매 링크를 제공하고, 사용자의 의상 구입이 이루어진 후, 구입한 의상을 실제로 착용한 이력이 있는 사용자의 사용자 단말(200)로부터 수치형 사이즈 정보 대비 실제 의상이 상대적으로 작은 것으로 체감되는지, 큰 것으로 체감되는지, 딱맞게 체감되는지 등에 대한 정보를 사이즈 피드백 정보로서 수신하고, 해당 의상에 대하여 수집된 사이즈 피드백 정보를 종합하여 해당 의상과 연계된 의상 데이터에 대한 사이즈 변경 요청에 대응하는 제2형상 정보 변경시 가상 피팅 데이터에 반영되는 의상의 증강 화상이 변경되는 정도를 결정할 수 있다.According to an embodiment of the present application, the size feedback information refers to the result of comparison between the numerical size information of the clothing reflected in review information collected by a plurality of users corresponding to the actual wearer of the clothing and the actual perceived size level. It may be. As an example, the service providing device 100 provides a purchase link for clothing, and after the user purchases the clothing, numerical size information is received from the user terminal 200 of the user who has a history of actually wearing the purchased clothing. Information on whether the actual clothing is perceived as relatively small, large, or fits perfectly is received as size feedback information, and the size feedback information collected for the clothing is synthesized to provide clothing data linked to the clothing. When the second shape information corresponding to the size change request is changed, the extent to which the augmented image of the clothing reflected in the virtual fitting data is changed can be determined.

또한, 본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 사용자의 사이즈 변경을 요청하는 사용자 입력이 제1체형 정보에 기초하여 설정되는 한계 범위를 벗어나도록 인가되면, 인가된 사이즈 변경을 요청하는 사용자 입력에 기초하여서는 가상 피팅 데이터를 갱신하지 않고, 한계 범위를 이탈하였다는 안내 정보가 사용자 단말(200)을 통해 출력되도록 할 수 있다. 예시적으로, 사용자의 신체 부위의 형상을 나타내는 제1형상 정보에 비추어 보았을 때, 사용자가 과도하게 작은 사이즈로의 변경을 요청하면, 해당 요청에 대응하여서는 가상 피팅 데이터를 미제공하고 사이즈 변경 요청이 적절하지 않다는 안내 정보를 제공하여 사용자가 사용자의 체형에 적합한 사이즈를 선택하도록 유도할 수 있다.In addition, according to an embodiment of the present application, the service providing device 100 requests a change in the approved size when the user input requesting a size change is applied to exceed the limit range set based on the first body type information. Based on the user input, the virtual fitting data may not be updated, and guidance information indicating that the limit range has been exceeded may be output through the user terminal 200. For example, in light of the first shape information representing the shape of the user's body part, if the user requests a change to an excessively small size, virtual fitting data is not provided in response to the request, and the size change request is appropriately made. By providing guidance information that does not apply, the user can be guided to select a size appropriate for the user's body type.

또한, 본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 사용자 단말(200)[0054] 의 사용자에 대하여 미리 확보된 체형 정보, 선호도 정보, 보유 의상 정보 및 영상 데이터로부터 파악되는 착용 의상 정보 중 적어도 하나에 기초하여 가상 피팅 데이터를 생성하기 위해 활용된 의상 데이터와 연계된 추천 스코어를 도출할 수 있다.In addition, according to an embodiment of the present application, the service providing device 100 provides wearing clothing information obtained from body shape information, preference information, clothing information, and image data secured in advance for the user of the user terminal 200 [0054]. Based on at least one of the following, a recommendation score linked to the clothing data used to generate virtual fitting data may be derived.

구체적으로, 체형 정보는 사용자의 신장, 몸무게, 팔길이, 다리길이, 허리둘레, 가슴둘레, 발크기, 어깨넓이 등 사용자의 신체의 외형 상의 특징이나 신체 조성(body composition)과 연계된 정보로서 사용자의 체격을 구성하는 요소 각각의 규격 특성, 근육 발달 정도 등을 폭넓게 포함하는 것일 수 있다. 또한, 본원의 일 실시예에 따르면, 사용자의 체형 정보는 사용자 입력 또는 사용자에 대해 촬영된 사용자의 신체를 적어도 일부 포함하는 별도의 영상 데이터에 대한 분석 결과 도출되는 복수의 카테고리 중 어느 하나에 해당하는 것일 수 있다. 예를 들어, 체형 정보와 연계된 복수의 카테고리는 세장형, 역사형(근육형), 비만형 등을 포함하는 것일 수 있으나, 이에만 한정되는 것은 아니다.Specifically, body shape information is information linked to the user's physical appearance characteristics or body composition, such as the user's height, weight, arm length, leg length, waist circumference, chest circumference, foot size, and shoulder width. It may broadly include the standard characteristics and degree of muscle development of each element that constitutes the physique. In addition, according to an embodiment of the present application, the user's body shape information corresponds to one of a plurality of categories derived as a result of user input or analysis of separate image data containing at least a portion of the user's body photographed for the user. It may be. For example, the plurality of categories associated with body type information may include, but are not limited to, elongated type, short type (muscular type), obese type, etc.

또한, 본원의 일 실시예에 따르면 사용자의 선호도 정보는 패션 분야와 관련하여 고려될 수 있는 복수의 스타일 중 미리 입력된 사용자의 선호 스타일을 의미하는 것일 수 있다. 이와 관련하여, 서비스 제공 장치(100)는 사용자 단말(200)로 복수의 스타일 목록을 제공하고, 제공된 목록 중 적어도 하나의 선호 스타일을 선택하도록 사용자 단말(200)에 인가된 사용자 입력에 기초하여 사용자의 선호도 정보를 미리 보유할 수 있다. 이해를 돕기 위해 예시하면, 복수의 스타일은 자연스러움(natural), 복고(retro), 락(rock), 스트릿(street), 걸리시(girlish) 등의 범주로 구분되는 것일 수 있으나, 이에만 한정되는 것은 아니다. 이와 관련하여, 데이터베이스(300)에는 의상 데이터를 보유한 의상 각각에 대한 스타일 매칭 결과가 저장될 수 있다. 또한, 본원의 일 실시예에 따르면, 서비스 제공 장치(100) 또는 데이터베이스(300)는 복수의 스타일 각각에 대한 연관 정도에 대한 정보를 보유할 수 있다. 이와 관련하여, 서비스 제공 장치(100)는 가상 피팅 데이터를 생성하는데 활용된 의상 데이터에 대하여 매칭된 스타일이 사용자의 선호 스타일과 일치하지 않더라고, 서로 다른 두 스타일 간의 연관 정도를 고려하여 추천 스코어를 도출하도록 동작할 수 있다.Additionally, according to an embodiment of the present application, the user's preference information may mean the user's pre-entered preferred style among a plurality of styles that can be considered in relation to the fashion field. In this regard, the service providing device 100 provides a plurality of style lists to the user terminal 200, and allows the user to select at least one preferred style from the provided list based on the user input authorized to the user terminal 200. Preference information can be stored in advance. As an example to aid understanding, plural styles may be divided into categories such as natural, retro, rock, street, and girlish, but are not limited to these. That is not the case. In this regard, the database 300 may store style matching results for each outfit holding clothing data. Additionally, according to an embodiment of the present application, the service providing device 100 or the database 300 may retain information about the degree of association for each of a plurality of styles. In this regard, the service providing device 100 provides a recommendation score by considering the degree of association between the two different styles even if the style matched to the clothing data used to generate the virtual fitting data does not match the user's preferred style. It can be operated to derive.

또한, 본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 사용자의 보유 의상에 대한 정보를 미리 보유할 수 있다. 예시적으로, 서비스 제공 장치(100)는 사용자의 온라인 쇼핑몰 구매 이력 등을 보유하는 것일 수 있다.Additionally, according to an embodiment of the present application, the service providing device 100 may previously retain information about the user's clothing. As an example, the service providing device 100 may hold the user's online shopping mall purchase history, etc.

이와 관련하여, 서비스 제공 장치(100)는 사용자의 보유 의상에 대한 의상 데이터와 가상 피팅 데이터를 생성하는데 활용된 의상 데이터의 스타일 간의 연관 정도 등에 기초하여 추천 스코어를 산출하는 것일 수 있다.In this regard, the service providing device 100 may calculate a recommendation score based on the degree of correlation between clothing data for the user's clothing and the style of clothing data used to generate virtual fitting data.

또한, 본원의 일 실시예에 따르면, 영상 데이터로부터 파악되는 착용 의상 정보는 구체적으로 영상 데이터에서 상 피팅 데이터를 생성하는데 활용되지 않은 영역에 등장하는 신체 부위에 착용된 의상에 대한 정보를 의미하는 것일 수 있다. 이와 관련하여, 서비스 제공 장치(100)는 가상 피팅 데이터의 생성을 위한 의상 데이터에 대응되는 신체 부위를 인식하고, 해당 인식 결과를 고려하여 인식된 신체 부위 이외의 영역에서 착용된 의상을 추가로 탐지할 수 있다. 또한, 서비스 제공 장치(100)는 탐지된 착용 의상 정보에 부합하는 의상 데이터와 가상 피팅 데이터를 생성하는데 활용된 의상 데이터의 스타일 간의 연관 정도 등에 기초하여 추천 스코어를 산출하는 것일 수 있다.In addition, according to an embodiment of the present application, information on clothing worn from image data specifically refers to information about clothing worn on body parts that appear in areas that are not used to generate image fitting data from image data. You can. In this regard, the service providing device 100 recognizes body parts corresponding to clothing data for generating virtual fitting data and additionally detects clothing worn in areas other than the recognized body parts by considering the recognition results. can do. Additionally, the service providing device 100 may calculate a recommendation score based on the degree of correlation between clothing data matching the detected wearing clothing information and the style of clothing data used to generate virtual fitting data.

또한, 서비스 제공 장치(100)는 추천 스코어에 기초하여 의상 데이터와 연계된 상품 구매 링크를 사용자 단말(200)로 제공할 수 있다. 예시적으로, 서비스 제공 장치(100)는 산출된 추천 스코어가 미리 설정된 임계값 이상이면, 가상 피팅 데이터에 생성에 활용된 의상 데이터와 연계된 의상에 대한 상품 구매 링크를 제공할 수 있다.Additionally, the service providing device 100 may provide a product purchase link associated with clothing data to the user terminal 200 based on the recommendation score. As an example, if the calculated recommendation score is greater than or equal to a preset threshold, the service providing device 100 may provide a product purchase link for the clothing associated with the clothing data used to generate the virtual fitting data.

여기서, 상품 구매 링크란 서비스 제공 장치(100)와 별개로 운용되되 해당 의상을 판매하는 온라인 쇼핑몰 등의 구매 채널에 접속하기 위한 접속 경로 정보(예를 들면, URL 등)일 수 있다. 다른 예로, 상품 구매 링크는 서비스 제공 장치(100)의 운용 주체에 의해 제공되는 온라인 쇼핑몰 등의 구매 채널에서 해당 의상에 대한 상품 구매가 가능한 경우, 서비스 제공 장치(100)가 제공하는 미리 구축된 결제/배송정보 입력 페이지, 장바구니 페이지, 관심 품목(위시리스트) 페이지 등을 의미하는 것일 수 있다.Here, the product purchase link is operated separately from the service providing device 100, but may be access path information (for example, URL, etc.) for accessing a purchase channel such as an online shopping mall that sells the corresponding clothing. As another example, the product purchase link is a pre-established payment method provided by the service provision device 100 when the product can be purchased for the clothing in a purchase channel such as an online shopping mall provided by the operator of the service provision device 100. /This may mean a delivery information input page, shopping cart page, interest item (wish list) page, etc.

또한, 본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 사용자의 영상 데이터로부터 가상 피팅 데이터를 생성하여 출력하는데 소요되는 시간 동안 미리 설정된 광고 정보를 사용자 단말(200)에 제공하여 표시할 수 있다. 이에 따라, 사용자 단말(200)의 사용자가 증강현실 기반의 가상 피팅 데이터를 육안으로 확인하기 전까지 소요되는 시간 동안에도 사용자의 관심을 지속적으로 유도할 수 있으며, 해당 소요 시간을 활용하여 사용자가 추가적인 의상 정보에 접근하도록 하거나 다른 상품을 구매할 수 있는 유인으로 작용할 수 있다. 본원의 일 실시예에 따르면, 서비스 제공 장치(100)가 획득된 영상 데이터로부터 가상 피팅 데이터를 생성하여 출력될 때까지 사용자 단말(200)에 표시되는 광고 정보는 전술한 사용자 정보(예를 들면, 사용자의 체형 정보, 선호도 정보, 보유 의상 정보 등)에 기초하여 맞춤형으로 결정되는 것일 수 있다.In addition, according to an embodiment of the present application, the service providing device 100 may provide and display preset advertising information to the user terminal 200 during the time required to generate and output virtual fitting data from the user's image data. there is. Accordingly, it is possible to continuously attract the user's interest even during the time taken before the user of the user terminal 200 visually checks the augmented reality-based virtual fitting data, and by utilizing the time taken, the user can add additional clothes. It can act as an incentive to access information or purchase other products. According to an embodiment of the present application, the advertising information displayed on the user terminal 200 until the service providing device 100 generates and outputs virtual fitting data from the acquired image data is the above-described user information (e.g., It may be customized based on the user's body type information, preference information, clothing information, etc.).

본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 획득된 영상 데이터에 기초하여 사용자에 대응하는 가상 아바타를 생성할 수 있다. 또한, 서비스 제공 장치(100)는 의상 데이터에 기초하여 생성된 가상 아바타의 외형을 변경할 수 있다. 또한, 서비스 제공 장치(100)는 외형이 변경된 가상 아바타를 사용자 단말(200)로 제공하여 표시할 수 있다.According to an embodiment of the present application, the service providing device 100 may create a virtual avatar corresponding to the user based on acquired image data. Additionally, the service providing device 100 may change the appearance of the virtual avatar created based on clothing data. Additionally, the service providing device 100 may provide and display a virtual avatar with a changed appearance to the user terminal 200.

본원의 일 실시예에 따르면, 가상 아바타는 사용자의 체형, 얼굴형 및 피부톤 중 적어도 하나를 포함하도록 미리 확보되거나 획득된 영상 데이터로부터 파악된 사용자 외형 정보를 고려하여 생성된 3차원 아바타일 수 있다.According to an embodiment of the present application, the virtual avatar may be a three-dimensional avatar created by considering the user's appearance information identified from image data secured or acquired in advance to include at least one of the user's body shape, face shape, and skin tone.

여기서, 가상 아바타를 생성하기 위해 활용되는 사용자의 영상 데이터는 전술한 증강현실 기반의 가상 피팅 데이터를 생성하기 위한 영상 데이터와 동일한 것일 수 있으나, 이에만 한정되는 것은 아니며, 다른 예로, 서비스 제공 장치(100)는 별도의 시점에 확보된 사용자에 대한 영상 데이터에 기초하여 가상 아바타를 미리 생성하여 보유하되, 사용자가 소정의 의상에 대한 의상 데이터를 선택하고, 증강현실 기반의 가상 피팅 데이터를 생성하기 위한 영상 데이터를 촬영하여 가상 피팅 데이터를 제공받는 가상 피팅 콘텐츠를 실행할 때마다 미리 생성된 가상 아바타의 외형을 가상 피팅 데이터의 생성에 활용된 의상 데이터를 반영하여 변경하는 것일 수 있다.Here, the user's image data used to create a virtual avatar may be the same as the image data for generating the augmented reality-based virtual fitting data described above, but is not limited thereto. As another example, a service providing device ( 100) generates and holds a virtual avatar in advance based on image data about the user obtained at a separate point in time, but allows the user to select clothing data for a given outfit and generate augmented reality-based virtual fitting data. Each time the virtual fitting content that receives virtual fitting data by shooting video data is executed, the appearance of the pre-generated virtual avatar may be changed to reflect the clothing data used to generate the virtual fitting data.

이와 관련하여, 서비스 제공 장치(100)는 선택된 의상 데이터를 활용하여 영상 데이터로부터 가상 피팅 데이터를 생성하는 프로세스와 병렬적으로 미리 생성된 가상 아바타의 외형을 해당 의상 데이터에 기초하여 변경하는 프로세스를 수행하도록 동작하되, 가상 피팅 데이터를 사용자 단말(200)에 표시하는 프로세스가 종료되고 나서 외형이 변경된 가상 아바타를 사용자 단말(200)로 제공하여 표시하는 것일 수 있다.In this regard, the service providing device 100 performs a process of changing the appearance of a pre-generated virtual avatar based on the corresponding clothing data in parallel with the process of generating virtual fitting data from image data using the selected clothing data. However, after the process of displaying the virtual fitting data on the user terminal 200 is completed, a virtual avatar with a changed appearance may be provided and displayed on the user terminal 200.

본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 패션 이미지를 입력받고, 입력된 패션 이미지로부터 미리 설정된 패션 속성을 추출할 수 있다. 여기서, 패션 이미지란 사용자가 인터넷 검색 등의 루트를 통해 획득한 유명인 이미지, 패션쇼 이미지 등 사용자가 아닌 인물이 특정한 의상을 착용한 상태로 촬영된 이미지를 의미하는 것일 수 있다. 또한, 패션 속성은 입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성, 의상 유형 속성, 부분 속성, 질감 속성, 옷감 패턴 속성, 장식 속성, 마감 처리 속성 등을 포함할 수 있다.According to an embodiment of the present application, the service providing device 100 may receive a fashion image as an input and extract preset fashion attributes from the input fashion image. Here, a fashion image may refer to an image in which a person other than the user is photographed wearing a specific outfit, such as a celebrity image or a fashion show image acquired by the user through a route such as an Internet search. Additionally, fashion attributes may include color attributes indicating the dominant color of the clothes included in the input image, clothes type attributes, part attributes, texture attributes, fabric pattern attributes, decoration attributes, finishing attributes, etc.

또한, 서비스 제공 장치(100)는 패션 이미지로부터 추출된 패션 속성에 기초하여 미리 수집된 의상 데이터 데이터베이스(300)로부터 패션 이미지에 대응하는 의상 데이터를 탐색할 수 있다. 달리 말해, 서비스 제공 장치(100)는 사용자가 제공한 패션 이미지에 등장하는 의상에 대한 정보를 데이터베이스(300)를 통한 검색을 통해 파악할 수 있다. 또한, 서비스 제공 장치(100)는 탐색된 의상 데이터에 대한 정보를 사용자 단말(200)로 제공할 수 있다.Additionally, the service providing device 100 may search for clothing data corresponding to the fashion image from the clothing data database 300 collected in advance based on fashion attributes extracted from the fashion image. In other words, the service providing device 100 can determine information about clothes appearing in a fashion image provided by a user through a search through the database 300. Additionally, the service providing device 100 may provide information about the searched clothing data to the user terminal 200.

도 3은 입력된 패션 이미지에 대응되는 의상 데이터에 대한 정보를 제공하기 위한 사용자 인터페이스를 예시적으로 나타낸 도면이다.Figure 3 is a diagram illustrating an example of a user interface for providing information about clothing data corresponding to an input fashion image.

구체적으로, 도 3의 (a)는 패션 이미지를 입력받기 위한 인터페이스이고, 도 3의 (b)는 입력된 패션 이미지로부터 패션 속성을 추출하고, 패션 이미지에 포함된 의상에 대한 의상 데이터를 데이터베이스(300)로부터 탐색하는 프로세스가 진행되는 도중에 표출되는 인터페이스이고, 도 3의 (c)는 탐색된 의상 데이터에 대한 정보를 제공하는 인터페이스이다.Specifically, Figure 3 (a) is an interface for receiving a fashion image, and Figure 3 (b) extracts fashion attributes from the input fashion image and stores clothing data for clothes included in the fashion image in a database ( It is an interface displayed while the search process from 300) is in progress, and (c) in FIG. 3 is an interface that provides information about the searched clothing data.

여기서, 탐색된 의상 데이터에 대한 정보를 제공하는 방식과 관련하여, 도 3의 (c)를 참조하면, 서비스 제공 장치(100)는 탐색된 의상에 대하여 기 저장된 데이터베이스(300) 내의 의상 상세 정보(예시적으로, 도 3의 (c)를 참조하면, 브랜드 정보, 상품 번호(품번) 정보, 구매링크 정보(URL 등), 사이즈 정보, 구매링크와 연계된 재고 정보, 사용자가 아닌 다른 사용자에 의해 의상 탐색 프로세스가 진행된 횟수(분석횟수) 정보, 추천 점수 정보 등)를 출력하도록 동작할 수 있다.Here, in relation to the method of providing information on the searched clothing data, referring to (c) of FIG. 3, the service providing device 100 provides detailed clothing information in the database 300 previously stored for the searched clothing ( Illustratively, referring to (c) of FIG. 3, brand information, product number (item number) information, purchase link information (URL, etc.), size information, inventory information linked to the purchase link, by a user other than the user It can be operated to output information on the number of times the costume search process has been performed (number of analysis times), recommendation score information, etc.

다른 예로, 본원의 일 실시예에 따른 서비스 제공 장치(100)는 탐색된 의상 데이터와 연계된 의상에 기초하여 기 생성된 가상 피팅 데이터를 갱신할 수 있다. 본원의 일 실시예에 따르면, 서비스 제공 장치(100)는 패션 이미지로부터 의상 데이터가 탐색되면 해당 의상 데이터가 반영된 가상 피팅 데이터를 생성하기 위하여 사용자 단말(200)로 해당 의상 데이터에 대응하는 신체 영역이 포함되는 영상 데이터를 제공할 것을 요청하는 영상 요청신호를 전송할 수 있다. 예시적으로, 서비스 제공 장치(100)는 영상 요청 신호에 대응하여 '탐색된 의상을 가상 피팅하시겠습니까? 상체가 포함되도록 촬영해주세요.'와 같은 안내 텍스트, 음성 등을 사용자 단말(200)로 표시하여 사용자가 패션 이미지 기반의 가상 피팅 콘텐츠를 참여하도록 유도할 수 있다. 또한, 사용자 단말(200)로부터 영상 데이터가 획득되는 이후의 가상 피팅 콘텐츠 제공 프로세스는 앞서 설명한 의상 데이터 및 영상 데이터를 활용하여 가상 피팅 데이터를 생성하는 프로세스와 동등하게 진행될 수 있으므로, 중복되는 설명은 생략하도록 한다.As another example, the service providing device 100 according to an embodiment of the present application may update previously generated virtual fitting data based on the clothes associated with the searched clothes data. According to an embodiment of the present application, when clothing data is searched for from a fashion image, the service providing device 100 provides a body area corresponding to the clothing data to the user terminal 200 in order to generate virtual fitting data reflecting the clothing data. A video request signal requesting provision of included video data may be transmitted. Illustratively, the service providing device 100 responds to the video request signal by asking 'Do you want to virtually fit the searched outfit? Guidance text, voice, etc., such as 'Please take the picture including the upper body', can be displayed on the user terminal 200 to encourage the user to participate in virtual fitting content based on fashion images. In addition, the process of providing virtual fitting content after image data is acquired from the user terminal 200 may proceed in the same manner as the process of generating virtual fitting data using the clothing data and image data described above, so redundant description is omitted. Let's do it.

도 4은 본원의 일 실시예에 따른 증강현실 기반의 의류 판매 서비스 [0071] 제공 장치의 개략적인 구성도이다.Figure 4 is a schematic configuration diagram of an augmented reality-based clothing sales service providing device according to an embodiment of the present application.

도 4를 참조하면, 서비스 제공 장치(100)는, 영상 분석부(110), 가상 피팅부(120), 출력부(130) 및 추천부(140)를 포함할 수 있다.Referring to FIG. 4 , the service providing device 100 may include an image analysis unit 110, a virtual fitting unit 120, an output unit 130, and a recommendation unit 140.

영상 분석부(110)는 의상 데이터 및 사용자에 대한 영상 데이터를 획득할 수 있다. 또한, 영상 분석부(110)는 획득된 의상 데이터에 대응하는 신체 부위 영역을 영상 데이터로부터 인식할 수 있다.The image analysis unit 110 may acquire clothing data and image data about the user. Additionally, the image analysis unit 110 may recognize a body part area corresponding to the acquired clothing data from the image data.

또한, 영상 분석부(110)는 의상 데이터에 대응하는 신체 부위 영역이 획득된 영상 데이터에 미포함된 것으로 판단되면, 영상 데이터의 갱신을 요청할 수 있다.Additionally, if it is determined that the body part area corresponding to the clothing data is not included in the acquired image data, the image analysis unit 110 may request an update of the image data.

또한, 영상 분석부(110)는 패션 이미지를 입력받고, 입력된 패션 이미지로부터 미리 설정된 패션 속성을 추출할 수 있다. 또한, 영상 분석부(110)는 추출된 패션 속성에 기초하여 미리 수집된 의상 데이터 데이터베이스(300)로부터 수집된 패션 이미지에 대응하는 의상 데이터를 탐색할 수 있다.Additionally, the image analysis unit 110 may receive a fashion image and extract preset fashion attributes from the input fashion image. Additionally, the image analysis unit 110 may search for clothing data corresponding to the fashion image collected from the clothing data database 300 collected in advance based on the extracted fashion attributes.

가상 피팅부(120)는 인식된 신체 부위 영역에 대한 제1형상 정보 및 의상 데이터에 기초한 제2형상 정보에 기초하여 영상 데이터로부터 의상 데이터와 연계된 의상이 사용자의 신체 부위 영역에 착용된 것으로 인식되는 증강 현실 기반의 가상 피팅 데이터를 생성할 수 있다.The virtual fitting unit 120 recognizes that the clothing associated with the clothing data is worn on the user's body part area based on the first shape information about the recognized body part area and the second shape information based on the clothing data. Augmented reality-based virtual fitting data can be generated.

출력부(130)는 가상 피팅 데이터를 사용자 단말로 제공하여 표시할 수 있다.The output unit 130 may provide and display virtual fitting data to the user terminal.

추천부(140)는 사용자에 대하여 미리 확보된 체형 정보, 선호도 정보, 보유 의상 정보 및 획득된 영상 데이터로부터 파악되는 착용 의상 정보 중 적어도 하나에 기초하여 의상 데이터와 연계된 추천 스코어를 도출할 수 있다.The recommendation unit 140 may derive a recommendation score associated with clothing data based on at least one of body type information, preference information, information on clothing held, and information on clothing worn from acquired image data obtained in advance for the user. .

또한, 이와 관련하여 출력부(130)는 도출된 추천 스코어에 기초하여 의상 데이터와 연계된 상품 구매 링크를 제공할 수 있다.Additionally, in relation to this, the output unit 130 may provide a product purchase link linked to clothing data based on the derived recommendation score.

또한, 출력부(130)는 패션 이미지에 대응하도록 탐색된 의상 데이터와 관련하여, 탐색된 의상 데이터에 대한 정보를 사용자 단말(200)로 제공할 수 있다.Additionally, the output unit 130 may provide information about the searched clothing data to the user terminal 200 in relation to the searched clothing data corresponding to the fashion image.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Below, we will briefly look at the operation flow of the present application based on the details described above.

도 5는 본원의 일 실시예에 따른 증강현실 기반의 의류 판매 서비스 제공 방법에 대한 동작 흐름도이다.Figure 5 is an operation flowchart of a method for providing an augmented reality-based clothing sales service according to an embodiment of the present application.

도 5에 도시된 증강현실 기반의 의류 판매 서비스 제공 방법은 앞서 설명된 서비스 제공 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 서비스 제공 장치(100)에 대하여 설명된 내용은 증강현실 기반의 의류 판매 서비스 제공 방법에 대한 설명에도 동일하게 적용될 수 있다.The method of providing an augmented reality-based clothing sales service shown in FIG. 5 can be performed by the service providing device 100 described above. Therefore, even if the content is omitted below, the content described with respect to the service providing device 100 can be equally applied to the explanation of the method of providing an augmented reality-based clothing sales service.

도 5를 참조하면, 단계 S11에서 영상 분석부(110)는 의상 데이터 및 사용자에 대한 영상 데이터를 획득할 수 있다.Referring to FIG. 5, in step S11, the image analysis unit 110 may acquire clothing data and image data about the user.

다음으로, 단계 S12에서 영상 분석부(110)는 의상 데이터에 대응하는 신체 부위 영역을 획득된 영상 데이터로부터 인식할 수 있다.Next, in step S12, the image analysis unit 110 may recognize a body part area corresponding to the clothing data from the acquired image data.

상술한 단계 S12의 판단 결과, 의상 데이터에 대응하는 신체 부위 영역이 영상 데이터에 미포함된 것으로 판단되면, 단계 S121에서 영상 분석부(110)는 영상 데이터의 갱신을 요청할 수 있다. 본원의 일 실시예에 따르면, 출력부(130)는 영상 분석부(110)의 갱신 요청에 기초하여 사용자 단말(200)에 의상 데이터에 대응하는 신체 부위 영역이 포함되도록 갱신된 영상 데이터를 재차 제공해줄 것을 텍스트, 이미지, 음성 등의 방식을 통해 요구하는 안내 정보가 표출되도록 할 수 있다.As a result of the determination in step S12 described above, if it is determined that the body part area corresponding to the clothing data is not included in the image data, the image analysis unit 110 may request updating of the image data in step S121. According to an embodiment of the present application, the output unit 130 provides the updated image data again to include the body part area corresponding to the clothing data to the user terminal 200 based on the update request from the image analysis unit 110. The requested guidance information can be displayed through text, image, voice, etc.

반대로, 단계 S12의 판단 결과, 의상 데이터에 대응하는 신체 부위 영역이 영상 데이터에 포함된 것으로 판단되면 단계 S13에서 가상 피팅부(120)는 인식된 신체 부위 영역에 대한 제1형상 정보 및 의상 데이터에 기초한 제2형상 정보에 기초하여 영상 데이터로부터 의상 데이터와 연계된 의상이 사용자의 신체 부위 영역에 착용된 것으로 인식되는 증강현실 기반의 가상 피팅 데이터를 생성할 수 있다.Conversely, if, as a result of the determination in step S12, it is determined that the body part area corresponding to the clothing data is included in the image data, in step S13, the virtual fitting unit 120 provides the first shape information and clothing data for the recognized body part area. Based on the second shape information, augmented reality-based virtual fitting data can be generated from image data in which the clothing associated with the clothing data is recognized as being worn on the user's body part area.

다음으로, 단계 S14에서 출력부(130)는 생성된 가상 피팅 데이터를 사용자 단말(200)로 제공하여 표시할 수 있다.Next, in step S14, the output unit 130 may provide the generated virtual fitting data to the user terminal 200 and display it.

다음으로, 단계 S15에서 추천부(140)는 사용자에 대하여 미리 확보된 체형 정보, 선호도 정보, 보유 의상 정보 및 획득된 영상 데이터로부터 파악되는 착용 의상 정보 중 적어도 하나에 기초하여 해당 의상 데이터와 연계된 추천 스코어를 도출할 수 있다.Next, in step S15, the recommendation unit 140 provides information linked to the corresponding clothing data based on at least one of body type information, preference information, clothing information held in advance, and clothing information to be worn obtained from the acquired image data. A recommendation score can be derived.

다음으로, 단계 S16에서 출력부(130)는 단계 S15에서 도출된 추천 스코어에 기초하여 의상 데이터와 연계된 상품 구매 링크를 사용자 단말(200)로 제공할 수 있다.Next, in step S16, the output unit 130 may provide a product purchase link associated with clothing data to the user terminal 200 based on the recommendation score derived in step S15.

상술한 설명에서, 단계 S11 내지 S16은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S16 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present disclosure. Additionally, some steps may be omitted or the order between steps may be changed as needed.

도 6은 영상 데이터에 기초하여 가상 아바타를 생성 및 표시하는 방법에 대한 동작 흐름도이다.Figure 6 is an operation flowchart of a method for creating and displaying a virtual avatar based on image data.

도 6에 도시된 영상 데이터에 기초하여 가상 아바타를 생성 및 표시하는 방법은 앞서 설명된 서비스 제공 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 서비스 제공 장치(100)에 대하여 설명된 내용은 EH 6에 대한 설명에도 동일하게 적용될 수 있다.The method of generating and displaying a virtual avatar based on the image data shown in FIG. 6 can be performed by the service providing device 100 described above. Therefore, even if the content is omitted below, the content described with respect to the service providing device 100 can be equally applied to the description of EH 6.

도 6를 참조하면, 단계 S21에서 가상 피팅부(120)는 영상 데이터에 기초하여 사용자에 대응하는 가상 아바타를 생성할 수 있다.Referring to FIG. 6, in step S21, the virtual fitting unit 120 may create a virtual avatar corresponding to the user based on image data.

다음으로, 단계 S22에서 가상 피팅부(120)는 획득된 의상 데이터에 기초하여 가상 아바타의 외형을 변경할 수 있다.Next, in step S22, the virtual fitting unit 120 may change the appearance of the virtual avatar based on the acquired clothing data.

다음으로, 단계 S23에서 출력부(130)는 가상 아바타를 사용자 단말(200)로 제공하여 표시할 수 있다.Next, in step S23, the output unit 130 may provide a virtual avatar to the user terminal 200 and display it.

상술한 설명에서, 단계 S21 내지 S23은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S21 to S23 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present disclosure. Additionally, some steps may be omitted or the order between steps may be changed as needed.

이상에서 본 발명에 따른 실시예들이 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 보호 범위는 다음의 특허청구범위뿐만 아니라 이와 균등한 것들에 의해 정해져야 한다.Although embodiments according to the present invention have been described above, they are merely illustrative, and those skilled in the art will understand that various modifications and equivalent scope of embodiments are possible therefrom. Accordingly, the scope of protection of the present invention should be determined not only by the following claims but also by their equivalents.

Claims (1)

증강현실 기반의 의류 판매방법에 있어서,
의상 데이터 및 사용자에 대한 영상 데이터를 획득하는 단계;
상기 의상 데이터에 대응하는 신체 부위 영역을 상기 영상 데이터로부터 인식하는 단계;
상기 인식된 신체 부위 영역에 대한 제1형상 정보 및 상기 의상 데이터에 기초한 제2형상 정보에 기초하여 상기 영상 데이터로부터 상기 의상 데이터와 연계된 의상이 상기 사용자의 신체 부위 영역에 착용된 것으로 인식되는 증강현실 기반의 가상 피팅 데이터를 생성하는 단계; 및
상기 가상 피팅 데이터를 사용자 단말로 제공하여 표시하는 단계;
를 포함하는 것을 특징으로 하는, 증강현실을 이용한 의류 판매방법.
In the augmented reality-based clothing sales method,
Obtaining clothing data and image data for the user;
Recognizing a body part area corresponding to the clothing data from the image data;
Augmentation in which clothing associated with the clothing data from the image data is recognized as being worn in the body part region of the user based on first shape information for the recognized body part region and second shape information based on the clothing data. Generating reality-based virtual fitting data; and
Providing and displaying the virtual fitting data to a user terminal;
A method of selling clothing using augmented reality, comprising:
KR1020220055848A 2022-05-06 2022-05-06 Clothes sale method using augmented reality KR20230156467A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220055848A KR20230156467A (en) 2022-05-06 2022-05-06 Clothes sale method using augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220055848A KR20230156467A (en) 2022-05-06 2022-05-06 Clothes sale method using augmented reality

Publications (1)

Publication Number Publication Date
KR20230156467A true KR20230156467A (en) 2023-11-14

Family

ID=88745149

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220055848A KR20230156467A (en) 2022-05-06 2022-05-06 Clothes sale method using augmented reality

Country Status (1)

Country Link
KR (1) KR20230156467A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010000912A (en) 2000-10-27 2001-01-05 이두영 Clothing merchandising system using on-line and clothing merchandising method thereby

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010000912A (en) 2000-10-27 2001-01-05 이두영 Clothing merchandising system using on-line and clothing merchandising method thereby

Similar Documents

Publication Publication Date Title
KR101418372B1 (en) System and method for recommending merchandise using virtual fitting
KR102415338B1 (en) Apparatus and method for clothing sales service based on augmented reality
CN106462979B (en) Fashion preference analysis
US8380586B2 (en) Consumer representation rendering with selected merchandise
US20140279289A1 (en) Mobile Application and Method for Virtual Dressing Room Visualization
KR101682769B1 (en) The user fitting type automatic online fashion coordination matching method
KR101623946B1 (en) Method, and computer program for virtual wearing
KR20200023970A (en) Virtual fitting support system
KR20130027801A (en) User terminal for style matching, style matching system using the user terminal and method thereof
CN105374057A (en) Virtual try-on apparatus and virtual try-on method
KR102506356B1 (en) Apparatus and method for recommending of fashion coordination
CN105374058A (en) Virtual try-on apparatus, virtual try-on system and virtual try-on method
US20180268472A1 (en) System and method for digital makeup mirror
KR102381566B1 (en) Simulation apparatus and method for fashion styling
KR20230156467A (en) Clothes sale method using augmented reality
Pei The effective communication system using 3D scanning for mass customized design
KR102365896B1 (en) Apparatus and method for recommending clothing
KR101001538B1 (en) Method for buying shopping goods using avatar and system thereof
KR20200071196A (en) A virtual fitting system based on face recognition
JP7459206B1 (en) Information processing device, information processing method, and information processing program
JP7391166B1 (en) Information processing device, information processing method, and information processing program
JP7391165B1 (en) Information processing device, information processing method, and information processing program
KR102512327B1 (en) How to operate a shopping mall that provides customized denim product information
US11804023B1 (en) Systems and methods for providing a virtual dressing room and a virtual stylist
CN116051228A (en) Method for determining try-on effect of goods