KR102646540B1 - Method for providing unmanned goods service - Google Patents

Method for providing unmanned goods service Download PDF

Info

Publication number
KR102646540B1
KR102646540B1 KR1020210116591A KR20210116591A KR102646540B1 KR 102646540 B1 KR102646540 B1 KR 102646540B1 KR 1020210116591 A KR1020210116591 A KR 1020210116591A KR 20210116591 A KR20210116591 A KR 20210116591A KR 102646540 B1 KR102646540 B1 KR 102646540B1
Authority
KR
South Korea
Prior art keywords
user
product
image
data
server
Prior art date
Application number
KR1020210116591A
Other languages
Korean (ko)
Other versions
KR20230033531A (en
Inventor
김대현
김재윤
Original Assignee
김대현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김대현 filed Critical 김대현
Priority to KR1020210116591A priority Critical patent/KR102646540B1/en
Publication of KR20230033531A publication Critical patent/KR20230033531A/en
Application granted granted Critical
Publication of KR102646540B1 publication Critical patent/KR102646540B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • G06T3/10
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/40Coin-freed apparatus for hiring articles; Coin-freed facilities or services for devices for accepting orders, advertisements, or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Abstract

본 발명은 무인 상품 서비스 제공 방법을 개시한다. 상기 무인 상품 서비스 제공 방법은, 사용자의 인적사항이 기록된 사용자 데이터를 수신하는 단계, 상기 사용자로부터 상품에 대한 선택을 수신하는 단계, 상기 상품을 상기 사용자에게 가상 피팅하되, 상기 가상 피팅은 상기 사용자의 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 것을 포함하는 단계, 상기 상품에 대한 구매요청을 수신하는 단계 및 상기 상품에 대한 연계상품을 판매하는 가맹점의 위치와 상기 사용자의 위치를 이용하여 가맹점 리스트를 제공하는 단계를 포함한다.The present invention discloses a method for providing unmanned product services. The unmanned product service providing method includes receiving user data in which the user's personal information is recorded, receiving a selection of a product from the user, and virtually fitting the product to the user, wherein the virtual fitting is performed by the user. A step including generating a virtual fitting image by combining the deformed appearance of and the image of the product, receiving a purchase request for the product, and the location of an affiliated store selling a linked product for the product and the location of the user. It includes the step of providing a list of affiliated stores using .

Description

무인 상품 서비스 제공 방법{Method for providing unmanned goods service} {Method for providing unmanned goods service}

본 발명은 딥러닝 모듈을 이용한 무인 상품 서비스 제공 방법에 관한 것이다. 구체적으로, 본 발명은 사용자의 이미지에 사용자가 선택한 상품의 이미지 및 변형 모습을 결합하여 가상 피팅 이미지를 생성할 수 있는 무인 상품 서비스 제공 방법에 관한 것이다.The present invention relates to a method of providing unmanned product services using a deep learning module. Specifically, the present invention relates to an unmanned product service providing method that can generate a virtual fitting image by combining the user's image with the image and modified appearance of the product selected by the user.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section simply provides background information for this embodiment and does not constitute prior art.

최근 들어, 인터넷이 발달함에 따라, 온라인으로 상품을 판매 및 구매하는 사람이 증가하여 온라인 매장이 더욱 커지고 있다. 이에 따라, 판매자들은 다양한 종류의 상품을 온라인 매장에 등록하고, 구매자들은 오프라인보다 온라인에서 상품을 구매하는 빈도가 높아졌다.Recently, as the Internet has developed, the number of people selling and purchasing products online has increased, and online stores are growing larger. Accordingly, sellers are registering various types of products in online stores, and buyers are purchasing products online more frequently than offline.

종래에는, 구매자들이 오프라인에서 안경테를 직접 피팅해본 후, 본인과 가장 어울리는 안경테를 구매하고, 시력을 측정하여 안경렌즈를 구매하였다.In the past, buyers would try on glasses frames offline, purchase the frames that best fit them, measure their visual acuity, and then purchase glasses lenses.

그러나, 온라인 매장이 확대됨에 따라, 구매자들의 안경테에 대한 선택폭이 넓어졌으나, 안경테를 직접 착용해볼 수 없어 상품에 대한 만족율이 낮았다. 이에, 구매자의 이미지에 안경테를 합성하여 구매자에게 가상으로 피팅함으로써, 상품에 대한 구매자의 만족율을 높일 수 있는 니즈가 요구되었다.However, as online stores expanded, buyers had a wider choice of glasses frames, but the satisfaction rate with the products was low because they could not try on the frames themselves. Accordingly, there was a need to increase the buyer's satisfaction rate with the product by combining the glasses frame with the buyer's image and virtually fitting it to the buyer.

또한, 안경테를 구매한 경우, 안경테에 결합가능한 안경렌즈를 구매할 수 있는 오프라인 매장을 찾아다녀야 하는 불편함이 있었다. 이에 따라, 구매자의 안경테 정보를 이용하여 안경테에 대한 안경렌즈를 판매하는 오프라인 매장을 제공할 수 있는 시스템이 요구되었다.Additionally, when purchasing a spectacle frame, there was the inconvenience of having to go to an offline store where one could purchase spectacle lenses that can be combined with the spectacle frame. Accordingly, there is a need for a system that can provide an offline store that sells eyeglass lenses for eyeglass frames using the buyer's eyeglass frame information.

본 발명의 목적은, 사용자에 의해 온라인 매장에서 선택된 상품을 사용자 이미지에 가상으로 피팅하여 가상 피팅 이미지를 생성하고, 가상 피팅한 상품에 대해 무인매장에서 직접 피팅 가능하게 할 수 있는 무인 상품 서비스 제공 방법을 제공하는 것이다.The object of the present invention is a method of providing an unmanned product service that creates a virtual fitting image by virtually fitting a product selected by a user in an online store to the user's image, and allows direct fitting of the virtually fitted product at an unmanned store. is to provide.

또한, 본 발명의 목적은, 사용자 이미지에 포함된 변형가능한 사용자의 외형을 변형하고, 외형이 변형된 사용자 이미지에 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 무인상품 서비스 제공 방법을 제공하는 것이다.In addition, the purpose of the present invention is to provide a method of providing an unmanned product service that generates a virtual fitting image by modifying the deformable appearance of the user included in the user image and combining the image of the product with the user image with the modified appearance. .

또한, 본 발명의 목적은, 사용자 데이터 및 피팅 데이터를 기초로 딥러닝을 이용하여 사용자가 선호할 가능성이 높은 상품 및 변형가능한 외형 항목을 추천하는 무인 상품 서비스 제공 방법을 제공하는 것이다.Additionally, the purpose of the present invention is to provide an unmanned product service providing method that recommends products that are likely to be preferred by the user and items with a changeable appearance using deep learning based on user data and fitting data.

또한, 본 발명의 목적은, 사용자가 구매한 안경테에 결합가능한 안경렌즈를 구매할 수 있는 오프라인 가맹점을 추천할 수 있는 무인 상품 서비스 제공 방법을 제공하는 것이다.Additionally, the purpose of the present invention is to provide an unmanned product service providing method that can recommend an offline affiliated store where a user can purchase eyeglass lenses that can be combined with the eyeglasses frame purchased.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the examples of the present invention. Additionally, it will be readily apparent that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the patent claims.

본 발명의 실시예에 따른 무인 상품 서비스 제공 방법은, 사용자의 인적사항이 기록된 사용자 데이터를 수신하는 단계, 상기 사용자로부터 상품에 대한 선택을 수신하는 단계, 상기 상품을 상기 사용자에게 가상 피팅하되, 상기 가상 피팅은 상기 사용자의 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 것을 포함하는 단계, 상기 상품에 대한 구매요청을 수신하는 단계; 및 상기 상품에 대한 연계상품을 판매하는 가맹점의 위치와 상기 사용자의 위치를 이용하여 가맹점 리스트를 제공하는 단계를 포함한다.An unmanned product service providing method according to an embodiment of the present invention includes receiving user data in which the user's personal information is recorded, receiving a selection of a product from the user, and virtually fitting the product to the user, The virtual fitting includes generating a virtual fitting image by combining the user's deformed appearance and an image of the product, receiving a purchase request for the product; and providing a list of affiliated stores using the location of the affiliated store selling a product linked to the product and the location of the user.

또한, 상기 사용자의 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 것을 포함하는 단계는, 상기 사용자의 사용자 단말기에 설치된 어플리케이션을 통해 상기 사용자의 이미지를 수신하고, 상기 사용자의 이미지에 변형을 가하여 상기 변형 모습을 생성하고, 상기 변형 모습에 수신한 상기 상품의 이미지를 결합하는 것을 포함할 수 있다.In addition, the step of generating a virtual fitting image by combining the user's deformed appearance and the image of the product includes receiving the user's image through an application installed on the user's user terminal, and applying the user's image to the user's image. It may include creating the modified appearance by applying a transformation and combining the received image of the product with the modified appearance.

또한, 상기 상품은, 상기 사용자 데이터와 상기 사용자의 가상 피팅이력이 포함된 가상 피팅 데이터를 이용하여 상기 상품 각각의 예상선호도를 산출하고, 산출된 상기 예상선호도를 기초로 상기 사용자에게 추천된 상품인 것을 포함할 수 있다.In addition, the product calculates the expected preference of each product using virtual fitting data including the user data and the user's virtual fitting history, and is a product recommended to the user based on the calculated expected preference. may include

또한, 상기 사용자의 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 것을 포함하는 단계는, 키오스크를 통해 상기 사용자의 이미지를 수신하고, 상기 사용자의 이미지에 변형을 가하여 상기 변형 모습을 생성하고, 상기 변형 모습에 상기 상품의 이미지를 결합하는 것을 포함할 수 있다.In addition, the step of generating a virtual fitting image by combining the user's deformed appearance and the image of the product includes receiving the user's image through a kiosk and applying a deformation to the user's image to create the deformed appearance. It may include generating and combining an image of the product with the modified appearance.

또한, 카메라를 통해 촬영된 상기 사용자의 실제 피팅과정이 포함되고, 실제 피팅 데이터와 연관된 영상 데이터를 수신하고, 상기 실제 피팅 데이터는 상기 사용자의 가상 피팅이력이 포함된 가상 피팅 데이터와 함께 이용되어 상기 사용자의 예상선호도를 산출하는 것을 더 포함할 수 있다.In addition, the user's actual fitting process captured through a camera is included, image data associated with the actual fitting data is received, and the actual fitting data is used together with virtual fitting data containing the user's virtual fitting history to It may further include calculating the user's expected preference.

또한, 상기 상품은, 상기 예상선호도를 기초로 상기 사용자에게 추천된 상품인 것을 포함할 수 있다.Additionally, the product may include a product recommended to the user based on the predicted preference.

또한, 상기 실제 피팅 데이터는, 상기 영상 데이터에서 추출된 상기 사용자의 피팅내역, 피팅시간 또는 피팅순서 중 적어도 하나를 포함할 수 있다.Additionally, the actual fitting data may include at least one of the user's fitting history, fitting time, or fitting order extracted from the image data.

또한, 상기 사용자의 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 단계는, 상기 사용자의 이미지에 외형 이미지를 결합하되, 상기 외형 이미지는 헤어스타일, 메이크업, 의류, 악세사리 또는 마스크에 대한 이미지 중 적어도 하나를 포함할 수 있다.In addition, the step of generating a virtual fitting image by combining the user's deformed appearance and the image of the product includes combining an external image with the user's image, wherein the external image is applied to hairstyle, makeup, clothing, accessories, or a mask. It may include at least one of the images for

또한, 상기 사용자의 외형 이미지를 결합하는 단계는, 상기 외형 이미지에 대한 카테고리를 표시하고, 상기 카테고리에 대해 크롤링을 이용하여 상기 외형 이미지의 항목을 수집하는 것을 포함할 수 있다.Additionally, the step of combining the user's external image may include displaying a category for the external image and collecting items of the external image using crawling for the category.

또한, 상기 가맹점 리스트를 제공하는 단계는, 상기 사용자의 위치와 상기 가맹점 간의 거리를 산출하고, 상기 산출된 거리가 짧은 순으로 상기 가맹점을 나열하여 상기 가맹점 리스트를 생성하는 것을 포함할 수 있다.Additionally, the step of providing the affiliated store list may include calculating the distance between the user's location and the affiliated store, and generating the affiliated store list by listing the affiliated stores in descending order of the calculated distance.

본 발명의 무인 상품 서비스 제공 방법은, 어플리케이션을 통해 사용자의 이미지를 수신하고, 사용자의 이미지에 사용자가 선택한 상품의 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 이를 통해, 상품을 가상으로 피팅해봄으로써, 상품 선택 및 구매에 대한 사용자의 만족도를 높일 수 있다. 또한, 매장 운영에 필요한 인력 및 비용을 절감함으로써, 매장의 수익률 향상을 기대할 수 있다.The unmanned product service providing method of the present invention can receive a user's image through an application and create a virtual fitting image by combining the user's image with the image of the product selected by the user. Through this, the user's satisfaction with product selection and purchase can be increased by virtually fitting the product. Additionally, by reducing the manpower and costs required to operate a store, an increase in the store's profitability can be expected.

또한, 본 발명의 무인 상품 서비스 제공 방법은, 사용자 이미지 내 변형가능한 외형에 대한 가상 외형 카테고리를 표시하고, 가상 외형 카테고리의 항목에 대한 선택수신을 기초로 사용자 이미지에 외형 이미지를 결합할 수 있다. 이어서, 외형이 변형된 사용자 이미지에 상품의 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 이에 따라, 헤어스타일, 메이크업, 의류 및 악세사리에 따라 어울리는 상품을 확인 후 구매하도록 함으로써, 패션에 대한 완성도 및 사용자의 만족감을 향상시킬 수 있다.In addition, the unmanned product service providing method of the present invention can display a virtual appearance category for a changeable appearance in a user image and combine the appearance image with the user image based on selection and reception of items in the virtual appearance category. Next, a virtual fitting image can be created by combining the product image with the user image whose appearance has been modified. Accordingly, fashion completion and user satisfaction can be improved by checking and purchasing products that match the hairstyle, makeup, clothing, and accessories.

또한, 본 발명의 무인 상품 서비스 제공 방법은, 사용자 데이터 및 피팅 데이터를 기초로 딥러닝 모듈을 이용하여 사용자별 예상선호도를 도출하고, 도출된 예상선호도를 기초로 상품 리스트 및 외형 항목을 생성할 수 있다. 이를 통해, 사용자의 기호를 반영한 상품을 추천하여 상품 구매에 대한 사용자의 시간을 절약하고, 사용자의 편의성 및 만족도를 향상시킬 수 있다.In addition, the unmanned product service provision method of the present invention can derive expected preferences for each user using a deep learning module based on user data and fitting data, and generate product lists and appearance items based on the derived expected preferences. there is. Through this, products that reflect the user's preferences can be recommended to save the user's time in purchasing products and improve user convenience and satisfaction.

또한, 본 발명의 무인 상품 서비스 제공 방법은, 사용자의 안경테 정보를 기초로 안경테에 결합가능한 안경렌즈를 판매하는 가맹점을 사용자와 인접한 거리순으로 나열하여 가맹점 리스트를 제공할 수 있다. 이를 통해, 온라인 및 오프라인 매장을 자동으로 연결하여 안경렌즈 구매에 대한 사용자의 편리성을 향상시키고, 온라인 매장에 대한 사용자의 서비스 이용률을 증가시키는 효과를 기대할 수 있다.In addition, the unmanned product service providing method of the present invention can provide a list of affiliated stores that sell spectacle lenses that can be combined with the spectacle frame based on the user's spectacle frame information by listing them in order of distance adjacent to the user. Through this, the effect of automatically connecting online and offline stores can be expected to improve the user's convenience in purchasing eyeglass lenses and increase the user's service utilization rate for online stores.

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described content, specific effects of the present invention are described below while explaining specific details for carrying out the invention.

도 1은 본 발명의 실시예에 따른 무인 상품 서비스 제공 방법을 수행하는 안경점 시스템을 설명하기 위한 개념도이다.
도 2는 도 1의 안경점 시스템의 각 구성요소를 설명하기 위한 블럭도이다.
도 3은 본 발명의 몇몇 실시예에 따른 무인 상품 서비스 제공 방법을 설명하기 위한 순서도이다.
도 4는 도 1의 S130 단계에서 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다.
도 5는 도 1의 S130 단계에서 사용자의 외형을 변형하여 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다.
도 6은 도 1의 S130 단계에서 키오스크를 통해 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다.
도 7은 도 6의 카메라를 통해 실제 피팅 데이터를 도출하는 방법을 설명하기 위한 순서도이다.
도 8은 도 1의 S150 단계에서 제공되는 가맹점 리스트를 설명하기 위한 예시도이다.
도 9는 도 1의 S110 단계에서 사용자에게 추천할 상품을 도출하는 과정에서 이용되는 딥러닝 모듈의 구성을 도시한 도면이다.
1 is a conceptual diagram illustrating an optical store system that performs an unmanned product service providing method according to an embodiment of the present invention.
Figure 2 is a block diagram for explaining each component of the optical store system of Figure 1.
Figure 3 is a flowchart for explaining a method of providing unmanned product services according to some embodiments of the present invention.
FIG. 4 is an example diagram for explaining a method of generating a virtual fitting image in step S130 of FIG. 1.
FIG. 5 is an example diagram illustrating a method of generating a virtual fitting image by modifying the user's appearance in step S130 of FIG. 1.
FIG. 6 is an example diagram illustrating a method of generating a virtual fitting image through a kiosk in step S130 of FIG. 1.
FIG. 7 is a flowchart explaining a method of deriving actual fitting data through the camera of FIG. 6.
FIG. 8 is an example diagram illustrating the affiliated store list provided in step S150 of FIG. 1.
Figure 9 is a diagram showing the configuration of a deep learning module used in the process of deriving a product to recommend to the user in step S110 of Figure 1.

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and patent claims should not be construed as limited to their general or dictionary meaning. According to the principle that the inventor can define terms or word concepts in order to explain his or her invention in the best way, it should be interpreted with a meaning and concept consistent with the technical idea of the present invention. In addition, the embodiments described in this specification and the configurations shown in the drawings are only one embodiment of the present invention and do not completely represent the technical idea of the present invention, so they cannot be replaced at the time of filing the present application. It should be understood that there may be various equivalents, variations, and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B used in the present specification and claims may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term 'and/or' includes any of a plurality of related stated items or a combination of a plurality of related stated items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the specification and claims are merely used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "include" or "have" should be understood as not precluding the existence or addition possibility of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다. Additionally, each configuration, process, process, or method included in each embodiment of the present invention may be shared within the scope of not being technically contradictory to each other.

이하에서는, 도 1 내지 도 9을 참조하여, 사용자 데이터 및 피팅 데이터를 기초로 사용자에게 무인 상품 서비스 제공 방법에 대하여 구체적으로 살펴보도록 한다.Hereinafter, with reference to FIGS. 1 to 9, we will look in detail at a method of providing unmanned product services to users based on user data and fitting data.

도 1은 본 발명의 실시예에 따른 무인 상품 서비스 제공 방법을 수행하는 안경점 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an optical store system that performs an unmanned product service providing method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 안경점 시스템은 안경점 서버(100), 사용자 단말기(200), 가맹점 관리 서버(300) 및 가맹점 단말기(400)를 포함할 수 있다.Referring to FIG. 1, an optical store system according to some embodiments of the present invention may include an optical store server 100, a user terminal 200, an affiliated store management server 300, and an affiliated store terminal 400.

본 발명에 따른 안경점 서버(100; 이하, 서버)는 사용자의 인적사항이 기록된 사용자 데이터, 상품 데이터 및 피팅 데이터를 수신할 수 있다. 이때, 사용자 데이터는 사용자의 나이, 성별, 지역 및 선호색상을 등을 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The optical store server 100 (hereinafter referred to as server) according to the present invention can receive user data, product data, and fitting data in which the user's personal information is recorded. At this time, the user data may include the user's age, gender, region, and preferred color. However, this embodiment is not limited to this.

상품 데이터는 판매 상품 데이터 및 연계상품 데이터를 포함할 수 있다. 판매상품 데이터는 서버(100)에서 판매하는 상품(예를 들어, 안경테)에 대한 데이터이고, 연계상품 데이터는 가맹점에서 판매하는 상품의 연계상품(예를 들어, 안경렌즈)에 대한 데이터일 수 있다.Product data may include sales product data and linked product data. The sales product data may be data on products sold by the server 100 (e.g., eyeglass frames), and the linked product data may be data on linked products (e.g., eyeglass lenses) of products sold at an affiliated store. .

구체적으로, 서버(100)는 연계상품을 판매하는 가맹점을 관리하는 가맹점 관리 서버(300)를 통해 연계상품 데이터를 수신할 수 있다. 가맹점 관리 서버(300)는 가맹점 단말기(400)에서 수신한 연계상품 데이터를 서버(100)에 전달할 수 있다. 여기에서, 복수의 가맹점은 가맹점별 판매가능한 연계상품을 가맹점 단말기(400)에 미리 등록할 수 있다. 가맹점 관리 서버(300)는 가맹점 단말기(400)에 의해 등록된 연계상품 데이터를 서버(100)에 실시간으로 제공할 수 있다. 가맹점 관리 서버(300)는 사용자 단말기(200)를 통해 수신한 사용자의 구매상품 데이터를 가맹점 단말기(400)에 전달할 수 있다. Specifically, the server 100 may receive linked product data through the affiliated store management server 300, which manages affiliated stores that sell linked products. The affiliated store management server 300 may transmit linked product data received from the affiliated store terminal 400 to the server 100. Here, a plurality of affiliated stores can pre-register linked products available for sale for each affiliated store on the affiliated store terminal 400. The affiliated store management server 300 may provide linked product data registered by the affiliated store terminal 400 to the server 100 in real time. The affiliated store management server 300 may transmit the user's purchase product data received through the user terminal 200 to the affiliated store terminal 400.

또한, 피팅 데이터는 가상 피팅 데이터 및/또는 실제 피팅 데이터를 포함할 수 있다. 여기에서, 가상 피팅 데이터는 어플리케이션 및/또는 키오스크를 통한 사용자의 가상 피팅이력을 포함할 수 있고, 실제 피팅 데이터는 무인매장에서 사용자가 상품을 직접 피팅한 실제 피팅이력일 수 있다.Additionally, the fitting data may include virtual fitting data and/or actual fitting data. Here, the virtual fitting data may include the user's virtual fitting history through an application and/or kiosk, and the actual fitting data may be the actual fitting history of the user directly fitting a product in an unmanned store.

서버(100)는 사용자 데이터, 상품 데이터 및 피팅 데이터를 이용하여 상품 리스트를 도출할 수 있다. 이때, 서버(100)는 딥러닝을 이용하여 상품별 사용자의 예상선호도를 산출하고, 산출된 예상선호도를 기초로 상품을 나열하여 표시할 수 있다. 서버(100)는 상품 리스트에 표시된 상품에 대한 사용자의 선택을 수신할 수 있다.The server 100 may derive a product list using user data, product data, and fitting data. At this time, the server 100 can calculate the user's expected preference for each product using deep learning, and list and display the products based on the calculated expected preference. The server 100 may receive the user's selection of a product displayed in the product list.

이어서, 서버(100)는 어플리케이션 또는 키오스크를 통해 사용자 이미지를 수신할 수 있다. 서버(100)는 사용자 이미지에 사용자의 선택을 수신한 상품의 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다.Next, the server 100 may receive the user image through an application or kiosk. The server 100 may generate a virtual fitting image by combining the user image with the image of the product selected by the user.

또한, 서버(100)는 사용자 이미지에 대해 변형가능한 외형을 인식하고, 가상 외형 카테고리를 표시할 수 있다. 가상 외형 카테고리란, 서버(100)가 사용자 이미지에 포함된 사용자의 외형 중에서 가상 피팅하여 변형할 수 있는 외형 항목에 대한 카테고리일 수 있다. 여기에서, 가상 외형 카테고리에는 헤어스타일, 메이크업, 의류, 악세사리 및 마스크 카테고리가 포함될 수 있다.Additionally, the server 100 may recognize a deformable appearance of the user image and display a virtual appearance category. The virtual appearance category may be a category for appearance items that the server 100 can modify by virtual fitting among the user's appearance included in the user image. Here, the virtual appearance category may include hairstyle, makeup, clothing, accessories, and mask categories.

이때, 서버(100)는 외부 서버로부터 가상 외형 카테고리별로 표시될 외형 항목에 대한 데이터를 크롤링(Crawling)을 통해 수집할 수 있다. 여기에서, 크롤링(Crawling)이란, 수많은 웹 페이지에 분산되어 있는 데이터를 추출하여 정보를 수집하는 기술이며, 스크레이핑이라고도 불린다. 외부 정보는 포탈 사이트 검색정보(예를 들어, 구글 등), SNS(예를 들어, 페이스북 등), 커뮤니티(예를 들어, 네이버 카페), 개인 블로그를 통해 접근 가능한 정보를 포함한다.At this time, the server 100 may collect data about appearance items to be displayed for each virtual appearance category from an external server through crawling. Here, crawling is a technology that collects information by extracting data distributed across numerous web pages, and is also called scraping. External information includes information accessible through portal site search information (e.g., Google, etc.), SNS (e.g., Facebook, etc.), communities (e.g., Naver Cafe), and personal blogs.

서버(100)는 크롤링을 통해 수집된 외형 데이터에 대해 사용자의 선호도를 산출하여 선호도 순으로 외형 항목을 나열하여 가상 외형 카테고리에 표시할 수 있다.The server 100 may calculate the user's preference for appearance data collected through crawling, list appearance items in order of preference, and display them in a virtual appearance category.

이어서, 서버(100)는 사용자의 선택을 수신한 외형 항목에 해당하는 외형 이미지를 사용자 이미지에 결합하여 가상 피팅 이미지를 생성할 수 있다. 이때, 가상 피팅 이미지에는 상품의 이미지 또한 결합되어 있을 수 있다. 서버(100)는 가상 피팅 이력을 사용자 계정에 가상 피팅 데이터로 저장할 수 있다.Subsequently, the server 100 may generate a virtual fitting image by combining the appearance image corresponding to the appearance item selected by the user with the user image. At this time, the virtual fitting image may also include an image of the product. The server 100 may store the virtual fitting history as virtual fitting data in the user account.

무인매장에서 키오스크를 통해 가상 피팅 이미지 생성을 진행하는 경우, 서버(100)는 상품에 대한 사용자의 요청을 기초로 실제 피팅을 더 제공할 수 있다.When creating a virtual fitting image through a kiosk in an unmanned store, the server 100 may further provide actual fitting based on the user's request for the product.

구체적으로, 서버(100)는 피팅요청을 수신한 상품의 보관함을 잠금해제함으로써, 사용자에게 상품을 직접 제공할 수 있다. 사용자는 실제 상품을 직접 착용해볼 수 있다.Specifically, the server 100 can directly provide the product to the user by unlocking the storage box of the product for which the fitting request has been received. Users can actually try on the product.

이때, 서버(100)는 무인매장에 설치된 카메라를 통해 사용자의 실제 피팅과정이 촬영된 영상 데이터를 수신할 수 있다. 서버(100)는 수신한 영상 데이터를 분석하여 피팅내역, 피팅시간 또는 피팅순서를 포함하는 실제 피팅 데이터를 추출할 수 있다. 서버(100)는 추출한 실제 피팅 데이터를 사용자 계정에 저장할 수 있다.At this time, the server 100 may receive video data of the user's actual fitting process through a camera installed in the unmanned store. The server 100 may analyze the received image data and extract actual fitting data including fitting details, fitting time, or fitting order. The server 100 may store the extracted actual fitting data in the user account.

이어서, 서버(100)는 상품 리스트에 포함된 상품에 대한 구매요청을 수신할 수 있다. 서버(100)는 상품을 사용자 데이터에 포함된 사용자의 배송주소로 배송할 수 있으나, 본 발명이 이에 제한되는 것은 아니다.Subsequently, the server 100 may receive a purchase request for a product included in the product list. The server 100 may deliver the product to the user's delivery address included in the user data, but the present invention is not limited thereto.

이어서, 서버(100)는 가맹점 관리 서버(300)로부터 사용자가 구매한 상품에 대한 연계상품을 판매하는 가맹점의 가맹점 데이터를 수신할 수 있다. 서버(100)는 가맹점 데이터에 포함된 가맹점의 위치와 사용자의 위치를 이용하여 사용자와 가맹점 간의 거리를 산출할 수 있다. 서버(100)는 산출된 거리를 기초로 가맹점 리스트를 생성하여 사용자에게 제공할 수 있다.Subsequently, the server 100 may receive affiliated store data of an affiliated store that sells a linked product for the product purchased by the user from the affiliated store management server 300. The server 100 can calculate the distance between the user and the affiliated store using the location of the affiliated store and the user's location included in the affiliated store data. The server 100 may generate a list of affiliated stores based on the calculated distance and provide it to the user.

이때, 서버(100)와 사용자 단말기(200)는 서버-클라이언트 시스템으로 구현될 수 있다. 서버(100)는 유무선 네트워크를 통해 사용자 단말기(200)와 데이터를 송수신할 수 있다.At this time, the server 100 and the user terminal 200 may be implemented as a server-client system. The server 100 can transmit and receive data with the user terminal 200 through a wired or wireless network.

여기에서, 단말 어플리케이션은 상품 리스트 및 가상 피팅 이미지를 제공하기 위한 전용 어플리케이션이거나, 상품 리스트 및 가상 피팅 이미지를 웹 페이지를 통해 제공하기 위한 웹 브라우징 어플리케이션일 수 있다. 여기에서, 상품 리스트 및 가상 피팅 이미지를 제공하기 위한 전용 어플리케이션은 사용자 단말기(200)에 내장된 어플리케이션이거나, 어플리케이션 배포 서버로부터 다운로드 되어 사용자 단말기(200)에 설치된 어플리케이션일 수 있다.Here, the terminal application may be a dedicated application for providing a product list and a virtual fitting image, or a web browsing application for providing a product list and a virtual fitting image through a web page. Here, the dedicated application for providing product lists and virtual fitting images may be an application built into the user terminal 200 or an application downloaded from an application distribution server and installed on the user terminal 200.

즉, 사용자 단말기(200)는 서버(100)로부터 제공받은 상품 리스트 및 가상 피팅 이미지를 사용자 단말기(200)에 설치된 단말 어플리케이션을 통해 사용자에게 제공할 수 있다. That is, the user terminal 200 may provide the product list and virtual fitting image provided from the server 100 to the user through a terminal application installed on the user terminal 200.

이하에서는, 설명의 편의를 위하여 사용자 단말기(200)가 미리 설치된 단말 어플리케이션(이하, 어플리케이션)을 이용하여 서버(100)로부터 제공받은 인터페이스, 상품 리스트 및 가상 피팅 이미지를 화면에 표시하는 것을 전제로 설명하도록 한다.Hereinafter, for convenience of explanation, it is assumed that the user terminal 200 displays the interface, product list, and virtual fitting image provided from the server 100 on the screen using a pre-installed terminal application (hereinafter referred to as application). Let's do it.

이때, 사용자 단말기(200)는 유무선 통신 환경에서 단말 어플리케이션을 동작 시킬 수 있는 통신 단말기를 의미한다. 사용자 단말기(200)는 사용자의 휴대용 단말기일 수 있다. 도 1에서 사용자 단말기(200)는 휴대용 단말기의 일종인 스마트폰(smart phone)으로 도시되었지만, 본 발명이 이에 제한되지 아니하며, 상술한 바와 같이 단말 어플리케이션을 탑재할 수 있는 장치에 제한없이 적용될 수 있다. 예를 들어, 사용자 단말기(200)는 퍼스널 컴퓨터(PC), 노트북, 태블릿, 휴대폰, 스마트폰, 웨어러블 디바이스(예를 들어, 워치형 단말기) 및 키오스크 등의 다양한 형태의 전자 장치를 포함할 수 있다.At this time, the user terminal 200 refers to a communication terminal capable of operating a terminal application in a wired or wireless communication environment. The user terminal 200 may be a user's portable terminal. In FIG. 1, the user terminal 200 is shown as a smart phone, a type of portable terminal, but the present invention is not limited thereto, and can be applied without limitation to any device capable of mounting a terminal application as described above. . For example, the user terminal 200 may include various types of electronic devices such as a personal computer (PC), laptop, tablet, mobile phone, smartphone, wearable device (e.g., watch-type terminal), and kiosk. .

또한, 도면 상에는 하나의 사용자 단말기(200)만을 도시하였으나, 본 발명이 이에 한정되는 것은 아니며, 서버(100)는 복수의 사용자 단말기(200)와 연동하여 동작할 수 있다.In addition, although only one user terminal 200 is shown in the drawing, the present invention is not limited thereto, and the server 100 may operate in conjunction with a plurality of user terminals 200.

부가적으로, 사용자 단말기(200)는 사용자의 입력을 수신하는 입력부, 비주얼 정보를 디스플레이 하는 디스플레이부, 외부와 신호를 송수신하는 통신부 및 데이터를 프로세싱하고 사용자 단말기(200) 내부의 각 유닛들을 제어하며 유닛들 간의 데이터 송/수신을 제어하는 제어부를 포함할 수 있다. 이하, 사용자의 명령에 따라 제어부가 사용자 단말기(200) 내부에서 수행하는 명령은 사용자 단말기(200)가 수행하는 것으로 통칭한다.Additionally, the user terminal 200 includes an input unit that receives user input, a display unit that displays visual information, a communication unit that transmits and receives signals to and from the outside, processes data, and controls each unit inside the user terminal 200. It may include a control unit that controls data transmission/reception between units. Hereinafter, the commands that the control unit executes within the user terminal 200 according to the user's commands are collectively referred to as those performed by the user terminal 200.

한편, 통신망(500)은 서버(100), 사용자 단말기(200) 및 가맹점 관리 서버(300)를 연결하는 역할을 수행한다. 즉, 통신망(500)은 사용자 단말기(200)들이 서버(100) 및 가맹점 관리 서버(300)에 접속한 후 데이터를 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미한다. 통신망(500)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Meanwhile, the communication network 500 serves to connect the server 100, the user terminal 200, and the affiliated store management server 300. In other words, the communication network 500 refers to a communication network that provides a connection path so that user terminals 200 can connect to the server 100 and the affiliated store management server 300 and then transmit and receive data. The communication network 500 is, for example, a wired network such as LANs (Local Area Networks), WANs (Wide Area Networks), MANs (Metropolitan Area Networks), and ISDNs (Integrated Service Digital Networks), wireless LANs, CDMA, Bluetooth, satellite communication, etc. may cover wireless networks, but the scope of the present invention is not limited thereto.

보다 구체적으로, 본 발명의 실시예에서 서버(100)는 사용자 데이터를 기초로 딥러닝을 이용하여 예상선호도를 산출하고, 예상선호도를 기초로 상품 리스트를 생성하여 사용자 단말기(200)에 제공할 수 있다. More specifically, in an embodiment of the present invention, the server 100 can calculate expected preference using deep learning based on user data, generate a product list based on the expected preference, and provide it to the user terminal 200. there is.

이 과정에서 서버(100)는 사용자 데이터, 가상 피팅 데이터 및 실제 피팅 데이터를 기초로 인공신경망(Neural Networks)을 이용하여 상품 리스트를 제공할 수 있다. 인공신경망을 이용한 딥러닝 모듈에 대한 구체적인 설명은 도 9를 참조하여 자세히 후술하도록 한다.In this process, the server 100 may provide a product list using artificial neural networks based on user data, virtual fitting data, and actual fitting data. A detailed description of the deep learning module using an artificial neural network will be described in detail later with reference to FIG. 9.

이하에서는, 안경점 시스템의 구체적인 구성에 대해 자세히 설명하도록 한다.Below, the specific configuration of the optician's system will be described in detail.

도 2는 도 1의 안경점 시스템의 각 구성요소를 설명하기 위한 블럭도이다.Figure 2 is a block diagram for explaining each component of the optical store system of Figure 1.

도 2를 참조하면, 서버(100)는 데이터 관리부(110), 상품 관리부(120), 피팅부(130), 딥러닝부(140) 및 제어부(150)를 포함할 수 있다.Referring to FIG. 2, the server 100 may include a data management unit 110, a product management unit 120, a fitting unit 130, a deep learning unit 140, and a control unit 150.

구체적으로, 데이터 관리부(110)는 사용자 데이터 및 피팅 데이터를 저장 및 관리할 수 있다.Specifically, the data management unit 110 may store and manage user data and fitting data.

여기에서, 사용자 데이터는 사용자의 나이, 성별, 지역, 선호색상 및 선호 디자인 등에 관한 사용자의 인적사항을 포함할 수 있다.Here, the user data may include the user's personal information such as the user's age, gender, region, preferred color, and preferred design.

피팅 데이터는 가상 피팅 데이터 및/또는 실제 피팅 데이터를 포함할 수 있다. 여기에서, 가상 피팅 데이터는 어플리케이션 및 키오스크를 통한 사용자의 가상 피팅이력을 포함할 수 있다.Fitting data may include virtual fitting data and/or actual fitting data. Here, virtual fitting data may include the user's virtual fitting history through applications and kiosks.

또한, 실제 피팅 데이터는 키오스크를 통해 실제 피팅을 신청한 상품에 대한 사용자의 실제 피팅이력을 포함할 수 있다. 실제 피팅 데이터는 사용자의 피팅내역, 피팅시간 또는 피팅순서 중 적어도 하나를 포함할 수 있다. 이때, 실제 피팅 데이터는 키오스크를 구비한 매장에 설치된 카메라를 통해 수신될 수 있다.Additionally, actual fitting data may include the user's actual fitting history for products for which actual fitting has been requested through the kiosk. Actual fitting data may include at least one of the user's fitting history, fitting time, or fitting order. At this time, actual fitting data can be received through a camera installed in a store equipped with a kiosk.

상품 관리부(120)는 안경점 및 가맹점 관리 서버(300)로부터 제공받은 상품 데이터를 저장 및 관리할 수 있다. 여기에서, 상품 데이터는 판매상품 데이터와 연계상품 데이터를 포함할 수 있다.The product management unit 120 may store and manage product data provided from the optical store and affiliated store management server 300. Here, product data may include sales product data and linked product data.

판매 상품 데이터는 안경점에서 판매하는 안경테 및 렌즈에 관한 데이터일 수 있다. 판매 상품 데이터는 상품의 품명, 가격, 색상, 디자인 및 상품의 이미지를 포함할 수 있다.Sales product data may be data about glasses frames and lenses sold at an optical store. Sales product data may include product name, price, color, design, and product image.

연계상품 데이터는 가맹점 관리 서버(300)에 미리 등록된 안경렌즈에 관한 데이터일 수 있다. 연계상품 데이터는 안경렌즈의 종류, 가격 및 판매 가맹점 정보를 포함할 수 있다.Linked product data may be data about spectacle lenses pre-registered in the affiliated store management server 300. Linked product data may include the type, price, and sales franchise information of eyeglass lenses.

피팅부(130)는 사용자에게 상품을 피팅할 수 있다.The fitting unit 130 can fit a product to a user.

구체적으로, 사용자로부터 상품에 대한 선택을 수신한 경우, 피팅부(130)는 상품 관리부(120)로부터 선택된 상품에 대한 상품 데이터를 수신할 수 있다. 이어서, 피팅부(130)는 사용자의 이미지를 수신할 수 있다. 피팅부(130)는 사용자의 이미지에 상품 데이터의 상품 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다.Specifically, when a product selection is received from the user, the fitting unit 130 may receive product data for the selected product from the product management unit 120. Next, the fitting unit 130 may receive the user's image. The fitting unit 130 may generate a virtual fitting image by combining the user's image with the product image of the product data.

또한, 피팅부(130)는 사용자의 이미지에 표시된 사용자의 외형을 변형하여 더 표시할 수 있다. 이때, 변형가능한 외형은 헤어스타일, 메이크업, 의류, 악세사리 및 마스크를 포함할 수 있다. 사용자로부터 외형에 대한 피팅요청을 수신한 경우, 피팅부(130)는 사용자의 이미지에 사용자로부터 선택을 수신한 외형 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다.Additionally, the fitting unit 130 may further modify the user's appearance displayed in the user's image. At this time, the deformable appearance may include hairstyle, makeup, clothing, accessories, and mask. When a fitting request for an appearance is received from a user, the fitting unit 130 may generate a virtual fitting image by combining the user's image with the appearance image selected by the user.

또 다른 예로, 오프라인 무인 매장의 키오스크를 통해 상품에 대한 실제 피팅요청을 수신한 경우, 피팅부(130)는 상품 관리부(120)로부터 선택된 상품에 대한 상품 데이터를 수신할 수 있다. 이어서, 피팅부(130)는 상품 데이터의 상품 품번을 기초로 보관함을 잠금해제하여 사용자에게 직접 피팅가능한 실제 상품을 제공할 수 있다.As another example, when an actual fitting request for a product is received through a kiosk in an offline unmanned store, the fitting unit 130 may receive product data for the selected product from the product management unit 120. Next, the fitting unit 130 can unlock the storage box based on the product number of the product data and provide the actual product that can be directly fitted to the user.

여기에서, 피팅부(130)는 무인 매장에 설치된 카메라를 통해 사용자의 피팅과정이 촬영된 영상 데이터를 수신할 수 있다. 피팅부(130)는 수신한 영상 데이터를 딥러닝부(140)로 전송할 수 있다.Here, the fitting unit 130 may receive video data of the user's fitting process through a camera installed in the unmanned store. The fitting unit 130 may transmit the received image data to the deep learning unit 140.

딥러닝부(140)는 딥러닝을 이용하여 상품에 대한 사용자의 선호도를 분석할 수 있다. 구체적으로, 사용자 데이터, 피팅 데이터 및 상품 데이터를 기초로 인공신경망(Neural Networks)을 포함하는 딥러닝 모듈을 이용하여 상품에 대한 예상선호도 산출할 수 있다.The deep learning unit 140 can analyze user preferences for products using deep learning. Specifically, expected preferences for products can be calculated using a deep learning module including artificial neural networks based on user data, fitting data, and product data.

또한, 딥러닝부(140)는 피팅부(130)에서 수신한 영상 데이터에 대해 이미지를 분석하여 실제 피팅 데이터를 추출할 수 있다. 이에 대한 자세한 내용은 도 6 및 도 7에서 자세히 설명하도록 한다.Additionally, the deep learning unit 140 may extract actual fitting data by analyzing the image data received from the fitting unit 130. Details about this will be explained in detail in FIGS. 6 and 7.

제어부(150)는 딥러닝 모듈을 통해 산출된 예상선호도를 기초로 상품 리스트를 도출하여 사용자 단말기(200)에 제공할 수 있다. 또한, 상품 리스트로부터 사용자의 선택을 수신한 상품을 기초로 연계상품을 판매하는 가맹점 리스트를 도출할 수 있다.The control unit 150 may derive a product list based on the expected preference calculated through a deep learning module and provide it to the user terminal 200. Additionally, a list of affiliated stores that sell linked products can be derived from the product list based on the product selected by the user.

이하에서는, 본 발명의 실시예에 따른 무인 상품 서비스 제공 방법에 대해 설명하도록 한다.Below, a method for providing unmanned product services according to an embodiment of the present invention will be described.

도 3은 본 발명의 몇몇 실시예에 따른 무인 상품 서비스 제공 방법을 설명하기 위한 순서도이다. 도 4는 도 1의 S130 단계에서 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다. 도 5는 도 1의 S130 단계에서 사용자의 외형을 변형하여 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다. 도 6은 도 1의 S130 단계에서 키오스크를 통해 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다. 도 7은 도 6의 카메라를 통해 실제 피팅 데이터를 도출하는 방법을 설명하기 위한 순서도이다. 도 8은 도 1의 S150 단계에서 제공되는 가맹점 리스트를 설명하기 위한 예시도이다.Figure 3 is a flowchart for explaining a method of providing unmanned product services according to some embodiments of the present invention. FIG. 4 is an example diagram for explaining a method of generating a virtual fitting image in step S130 of FIG. 1. FIG. 5 is an example diagram illustrating a method of generating a virtual fitting image by modifying the user's appearance in step S130 of FIG. 1. FIG. 6 is an example diagram illustrating a method of generating a virtual fitting image through a kiosk in step S130 of FIG. 1. FIG. 7 is a flowchart explaining a method of deriving actual fitting data through the camera of FIG. 6. FIG. 8 is an example diagram illustrating the affiliated store list provided in step S150 of FIG. 1.

여기에서, 도 4의 <a1>은 사용자에게 제공되는 상품 리스트를 나타내고, <a2>는 상품을 가상으로 피팅한 가상 피팅 이미지를 나타낸다. 또한, 도 5의 <b1>은 사용자의 외형을 변형할 수 있는 가상 피팅 인터페이스를 나타내고, <b2>는 사용자의 외형이 변형 완료된 가상 피팅 이미지를 나타낸다.Here, <a1> in FIG. 4 represents a product list provided to the user, and <a2> represents a virtual fitting image in which the product is virtually fitted. Additionally, <b1> in FIG. 5 represents a virtual fitting interface that can change the user's appearance, and <b2> represents a virtual fitting image in which the user's appearance has been completely modified.

이하에서는, 상품이 안경테라고 가정하고 설명하도록 한다.Hereinafter, the description will be made assuming that the product is a glasses frame.

도 1 내지 도 8을 참조하면, 서버(100)는 사용자 데이터를 수신한다(S110). 여기에서, 서버(100)는 사용자의 로그인 정보를 기초로 사용자 데이터를 수신할 수 있다. 서버(100)는 사용자 데이터를 기초로 사용자에 대한 피팅 데이터를 수신할 수 있다. 이어서, 서버(100)는 사용자 데이터, 피팅 데이터 및 상품 데이터를 이용하여 상품 리스트(ML)를 생성할 수 있다.Referring to Figures 1 to 8, the server 100 receives user data (S110). Here, the server 100 may receive user data based on the user's login information. The server 100 may receive fitting data for the user based on user data. Subsequently, the server 100 may generate a product list (ML) using user data, fitting data, and product data.

예를 들어, 어플리케이션에 대한 사용자의 로그인을 수신한 경우, 서버(100)는 사용자에 대한 사용자 데이터, 가상 피팅 데이터 및 상품 데이터를 수신할 수 있다. 사용자 데이터, 가상 피팅 데이터 및 상품 데이터를 기초로, 서버(100)는 딥러닝 모듈(DL)을 이용하여 상품에 대한 사용자의 선호도를 분석할 수 있다. 서버(100)는 상품 데이터에 포함된 상품별 사용자의 예상 선호도를 산출할 수 있다. 예상 선호도를 기초로, 서버(100)는 사용자에게 추천하고자 하는 상품을 상품 리스트(ML)에 표시할 수 있다.For example, when receiving a user's login to an application, the server 100 may receive user data, virtual fitting data, and product data for the user. Based on user data, virtual fitting data, and product data, the server 100 can analyze the user's preference for products using a deep learning module (DL). The server 100 may calculate the user's expected preference for each product included in the product data. Based on the expected preference, the server 100 may display products to be recommended to the user in the product list (ML).

또 다른 예로, 키오스크에 대한 사용자의 로그인을 수신한 경우, 서버(100)는 사용자 데이터, 가상 피팅 데이터, 실제 피팅 데이터 및 상품 데이터를 수신할 수 있다. 서버(100)는 딥러닝 모듈(DL)을 통해 상품별 예상 선호도를 산출하여 상품 리스트(ML)를 생성할 수 있다.As another example, when receiving a user's login to a kiosk, the server 100 may receive user data, virtual fitting data, actual fitting data, and product data. The server 100 can generate a product list (ML) by calculating the expected preference for each product through a deep learning module (DL).

이어서, 서버(100)는 상품에 대한 사용자의 선택을 수신한다(S120).Next, the server 100 receives the user's selection of the product (S120).

구체적으로, 도 1, 도 3 및 도 4의 <a1>을 참조하면, 서버(100)는 생성된 상품 리스트(ML)를 표시할 수 있다. 서버(100)는 예상 선호도를 기초로 예상 선호도가 높은 순으로 상품을 나열하여 표시할 수 있다. 서버(100)는 A 안경테(MO1), B 안경테(MO2), C 안경테(MO3) 및 D 안경테(MO4)의 순서로 상품 리스트(ML)를 표시할 수 있다.Specifically, referring to <a1> in FIGS. 1, 3, and 4, the server 100 may display the generated product list (ML). The server 100 may list and display products in order of highest expected preference based on expected preference. The server 100 may display the product list (ML) in the following order: A glasses frame (MO1), B glasses frame (MO2), C glasses frame (MO3), and D glasses frame (MO4).

이때, 서버(100)는 상품 리스트(ML)에 상품 이미지를 더 표시할 수 있다. 서버(100)는 상품 리스트(ML)에 A 안경테(MO1), B 안경테(MO2), C 안경테(MO3) 및 D 안경테(MO4)에 각각 대응되는 A 이미지(MI1), B 이미지(MI2), C 이미지(MI3) 및 D 이미지(MI4)를 표시할 수 있다.At this time, the server 100 may display additional product images in the product list (ML). The server 100 includes an A image (MI1), a B image (MI2) corresponding to A glasses frame (MO1), B glasses frame (MO2), C glasses frame (MO3), and D glasses frame (MO4) in the product list (ML). C images (MI3) and D images (MI4) can be displayed.

서버(100)는 상품 리스트(ML)에 표시된 A 안경테(MO1), B 안경테(MO2), C 안경테(MO3) 및 D 안경테(MO4) 중 A 안경테(MO1)에 대한 사용자의 선택을 수신할 수 있다.The server 100 may receive the user's selection of the A eyeglasses frame (MO1) among the A eyeglasses frame (MO1), B eyeglasses frame (MO2), C eyeglasses frame (MO3), and D eyeglasses frame (MO4) displayed in the product list (ML). there is.

이어서, 상품을 가상 피팅하여 가상 피팅 이미지를 생성한다(S130).Next, the product is virtually fitted to create a virtual fitting image (S130).

예를 들어, 도 1, 도 3 및 도 4의 <a2>을 참조하면, 서버(100)는 어플리케이션 또는 키오스크를 통해 사용자 이미지(UI)를 수신할 수 있다. 서버(100)는 사용자 이미지(UI)에서 얼굴을 인식할 수 있다. 서버(100)는 사용자 이미지(UI)의 사용자 얼굴에 A 안경테(MO1)의 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다. 서버(100)는 생성된 가상 피팅 이미지를 표시할 수 있다.For example, referring to <a2> in FIGS. 1, 3, and 4, the server 100 may receive a user image (UI) through an application or kiosk. The server 100 can recognize a face in a user image (UI). The server 100 may generate a virtual fitting image by combining the A image (MI1) of the A eyeglasses frame (MO1) with the user's face in the user image (UI). The server 100 may display the generated virtual fitting image.

다만, 본 발명이 이에 제한되는 것은 아니고, 서버(100)는 사용자 이미지(UI)의 사용자 눈, 사용자 귀 또는 사용자 코 등을 다양하게 인식하여 A 이미지(MI1)를 결합할 수 있다.However, the present invention is not limited to this, and the server 100 may recognize the user's eyes, ears, or nose of the user image (UI) in various ways and combine the A image (MI1).

또한, 도 1, 도 3 및 도 5를 참조하면, 서버(100)는 사용자 이미지(UI)의 외형을 인식할 수 있다. 서버(100)는 인식된 외형 중 변형가능한 외형에 대한 가상 외형 카테고리(OC)를 표시할 수 있다. 즉, 가상 외형 카테고리(OC)는 사용자 이미지(UI)에 포함된 사용자의 외형 중에서 가상 피팅하여 변형할 수 있는 항목을 포함할 수 있다.Additionally, referring to FIGS. 1, 3, and 5, the server 100 can recognize the appearance of the user image (UI). The server 100 may display a virtual appearance category (OC) for a changeable appearance among the recognized appearances. That is, the virtual appearance category (OC) may include items that can be modified by virtual fitting among the user's appearance included in the user image (UI).

구체적으로, 서버(100)는 사용자 이미지(UI)에서 헤어, 메이크업, 의류 및 악세사리를 변형가능한 외형으로 인식할 수 있다. 서버(100)는 헤어 카테고리(HC), 메이크업 카테고리(MC), 의류 카테고리(CC) 및 악세사리 카테고리(AC)를 가상 외형 카테고리(OC)로 표시할 수 있다. 이어서, 서버(100)는 사용자로부터 변형하고자 하는 가상 외형 카테고리(OC)에 대한 선택을 수신할 수 있다.Specifically, the server 100 may recognize hair, makeup, clothing, and accessories as deformable appearances in the user image (UI). The server 100 may display the hair category (HC), makeup category (MC), clothing category (CC), and accessory category (AC) as a virtual appearance category (OC). Subsequently, the server 100 may receive a selection of a virtual appearance category (OC) to be modified from the user.

예를 들어, 서버(100)는 헤어 카테고리(HC)에 대한 사용자의 선택을 수신할 수 있다. 헤어 카테고리(HC)에 대한 선택을 수신한 경우, 서버(100)는 헤어 카테고리(HC)로 표시할 헤어스타일을 헤어 항목으로 도출할 수 있다.For example, the server 100 may receive the user's selection for a hair category (HC). When receiving a selection for a hair category (HC), the server 100 may derive a hairstyle to be displayed as a hair category (HC) as a hair item.

서버(100)는 외부 서버로부터 헤어스타일을 크롤링(Crawling)을 통해 수집할 수 있다. 여기에서, 외부 정보는 포탈 사이트 검색정보(예를 들어, 구글 등), SNS(예를 들어, 페이스북 등), 커뮤니티(예를 들어, 네이버 카페), 개인 블로그를 통해 접근 가능한 정보를 포함한다.The server 100 may collect hairstyles from an external server through crawling. Here, external information includes information accessible through portal site search information (e.g., Google, etc.), SNS (e.g., Facebook, etc.), communities (e.g., Naver Cafe), and personal blogs. .

이어서, 크롤링을 통해 수집된 헤어스타일 데이터와 사용자 데이터를 기초로, 서버(100)는 딥러닝을 이용하여 사용자의 헤어스타일 선호도를 산출할 수 있다. 이때, 서버(100)는 사용자 데이터에 포함된 사용자의 성별, 나이 및 선호 색 등을 기초로 사용자 데이터와 유사한 데이터를 포함하는 타사용자의 선호도를 반영하여 헤어스타일 선호도를 산출할 수 있다. 서버(100)는 헤어스타일 선호도를 기초로 헤어스타일별 순위를 산출할 수 있다.Next, based on the hairstyle data and user data collected through crawling, the server 100 can calculate the user's hairstyle preference using deep learning. At this time, the server 100 may calculate hairstyle preferences by reflecting the preferences of other users whose data is similar to the user data based on the user's gender, age, and preferred color included in the user data. The server 100 may calculate a ranking for each hairstyle based on hairstyle preference.

또는, 서버(100)는 미리 설정된 기간동안 외부 정보에 업로드 된 헤어스타일을 크롤링할 수 있다. 서버(100)는 크롤링을 통해 수집된 헤어스타일 데이터의 수집량 순으로 헤어스타일별 순위를 산출할 수 있다.Alternatively, the server 100 may crawl hairstyles uploaded to external information for a preset period. The server 100 may calculate a ranking for each hairstyle in order of the amount of hairstyle data collected through crawling.

또는, 서버(100)는 크롤링을 통해 순위가 매겨진 헤어스타일 데이터(예를 들어, 유행하는 남성 헤어스타일 1-5위 정보 등)을 수신할 수 있다.Alternatively, the server 100 may receive ranked hairstyle data (for example, information on the 1st to 5th most popular men's hairstyles, etc.) through crawling.

여기에서, 서버(100)는 위에 나열된 3가지의 방법 중 적어도 하나를 이용하여 헤어스타일별 순위를 산출할 수 있으나, 본 발명이 이에 제한되는 것은 아니다.Here, the server 100 may calculate the ranking for each hairstyle using at least one of the three methods listed above, but the present invention is not limited thereto.

이어서, 서버(100)는 산출된 헤어스타일별 순위를 기초로 헤어 카테고리(HC)에 포함되는 헤어스타일 항목인 제1 헤어 내지 제4 헤어(HO1~HO4)를 표시할 수 있다. 이때, 헤어스타일 항목은 산출된 헤어스타일별 순위를 기초로 나열될 수 있다. 본 발명이 이에 제한되는 것은 아니며, 헤어스타일 항목은 이름순으로 나열되는 등 다양한 방법으로 나열되어 표시될 수 있다.Subsequently, the server 100 may display first to fourth hairs (HO1 to HO4), which are hairstyle items included in the hair category (HC), based on the calculated rankings for each hairstyle. At this time, hairstyle items may be listed based on the calculated ranking of each hairstyle. The present invention is not limited to this, and hairstyle items may be listed and displayed in various ways, such as listed in name order.

이어서, 서버(100)는 사용자로부터 제1 헤어(HO1)에 대한 선택을 수신할 수 있다. 서버(100)는 사용자 이미지(UI)에 표시된 사용자의 헤어스타일을 제1 헤어(HO1)의 이미지(예를 들어, 갈색 염색 헤어스타일)로 변경하여 표시할 수 있다.Subsequently, the server 100 may receive a selection for the first hair (HO1) from the user. The server 100 may change the user's hairstyle displayed in the user image (UI) into an image of the first hair (HO1) (for example, a brown dyed hairstyle) and display it.

이어서, 서버(100)는 제1 헤어(HO1)가 표시된 사용자 이미지(UI)의 사용자 얼굴에 미리 선택을 수신한 A 안경테(MO1)의 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다.Subsequently, the server 100 may generate a virtual fitting image by combining the A image (MI1) of the A glasses frame (MO1) that has received a pre-selection with the user's face of the user image (UI) in which the first hair (HO1) is displayed. there is.

다만, 본 발명이 이에 제한되는 것은 아니며, 서버(100)는 상품 이미지를 사용자 이미지(UI)에 결합한 상태로 사용자 이미지(UI)의 외형을 변형할 수 있다.However, the present invention is not limited to this, and the server 100 may change the appearance of the user image (UI) while combining the product image with the user image (UI).

이를 통해, 무인 상품 서비스 제공 방법은 사용자의 이미지에 포함된 헤어스타일을 사용자가 원하는 헤어스타일로 변형하고, 변형된 헤어스타일 이미지가 표시된 사용자 이미지에 상품 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 이에 따라, 사용자의 헤어스타일 변화에 따른 사용자의 이미지 변화를 확인할 수 있어, 사용자의 이미지에 어울리는 상품을 선택하게 함으로써 사용자의 만족도를 높일 수 있다.Through this, the unmanned product service provision method can transform the hairstyle included in the user's image into the hairstyle desired by the user and create a virtual fitting image by combining the product image with the user image displaying the modified hairstyle image. . Accordingly, changes in the user's image according to changes in the user's hairstyle can be confirmed, and user satisfaction can be increased by allowing the user to select a product that matches the user's image.

이하에서는, 중복되는 내용을 제외하고 차이점에 대해서만 서술하도록 한다.Below, only the differences will be described, excluding overlapping content.

또 다른 예로, 서버(100)는 메이크업 카테고리(MC)에 대한 사용자의 선택을 수신할 수 있다. 메이크업 카테고리(MC)에 대한 선택을 수신한 경우, 서버(100)는 메이크업 카테고리(MC)로 표시할 메이크업 스타일을 메이크업 항목으로 도출할 수 있다. 여기에서, 메이크업 스타일이란, 피부톤 및 입술색 등을 포함할 수 있다. 이하에서는, 피부톤을 메이크업 스타일이라고 가정하도록 한다.As another example, the server 100 may receive the user's selection for a makeup category (MC). When receiving a selection for a makeup category (MC), the server 100 may derive a makeup style to be displayed as a makeup category (MC) as a makeup item. Here, the makeup style may include skin tone and lip color. Hereinafter, skin tone is assumed to be a makeup style.

서버(100)는 외부 서버로부터 피부톤 데이터에 대해 크롤링을 통해 수집할 수 있다.The server 100 may collect skin tone data from an external server through crawling.

이어서, 크롤링을 통해 수집된 피부톤 데이터와 사용자 데이터를 기초로, 서버(100)는 딥러닝을 이용하여 사용자의 피부톤 선호도를 산출할 수 있다. 이때, 서버(100)는 사용자 데이터와 유사한 타사용자의 선호도를 반영하여 헤어스타일 선호도를 산출하여, 피부톤별 순위를 산출할 수 있다.Next, based on the skin tone data and user data collected through crawling, the server 100 can calculate the user's skin tone preference using deep learning. At this time, the server 100 may calculate hairstyle preferences by reflecting the preferences of other users similar to the user data, and calculate rankings by skin tone.

또는, 서버(100)는 미리 설정된 기간동안 외부 정보에 업로드 된 피부톤을 크롤링하여, 피부톤 데이터의 수집량 순으로 헤어스타일별 순위를 산출할 수 있다. 서버(100)는 크롤링을 통해 순위가 매겨진 헤어스타일 데이터(예를 들어, 인기 남성 피부톤 1-5위 정보 등)을 수신할 수 있다.Alternatively, the server 100 may crawl skin tones uploaded to external information for a preset period and calculate a ranking for each hairstyle in order of the amount of skin tone data collected. The server 100 may receive ranked hairstyle data (for example, information on the 1st to 5th most popular male skin tones, etc.) through crawling.

이어서, 서버(100)는 산출된 헤어스타일별 순위를 기초로 메이크업 카테고리(MC)에 포함되는 피부톤 항목(예를 들어, 21호 및 23호 등)을 표시할 수 있다.Subsequently, the server 100 may display skin tone items (for example, No. 21 and No. 23, etc.) included in the makeup category (MC) based on the calculated rankings for each hairstyle.

이어서, 피부톤 항목에 대한 사용자의 선택을 기초로, 서버(100)는 사용자 이미지(UI)의 얼굴에 대한 피부톤을 변경하여 표시할 수 있다. 서버(100)는 피부톤이 변경된 사용자 이미지(UI)에 미리 선택을 수신한 A 안경테(MO1)의 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다.Subsequently, based on the user's selection of the skin tone item, the server 100 may change and display the skin tone for the face of the user image (UI). The server 100 may generate a virtual fitting image by combining the user image (UI) with the changed skin tone with the A image (MI1) of the A glasses frame (MO1) that has received a pre-selection.

이를 통해, 무인 상품 서비스 제공 방법은 사용자의 이미지에 변형된 피부톤 및 상품 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 안경테라는 상품의 특성상 피부톤과 컬러 매칭에 따라 사용자의 인상이 크게 좌우될 수 있다. 이에 따라, 사용자의 피부톤 또는 사용자가 선호하는 피부톤에 어울리는 컬러의 상품을 사용자가 용이하게 선택할 수 있어 사용자가 선호하는 상품의 구매를 이끌어 낼 수 있다.Through this, the unmanned product service provision method can create a virtual fitting image by combining the user's image with the modified skin tone and product image. Due to the nature of the product called Glasses Terra, the user's impression can be greatly influenced by skin tone and color matching. Accordingly, the user can easily select a product whose color matches the user's skin tone or the user's preferred skin tone, thereby leading to the purchase of the user's preferred product.

또 다른 예로, 서버(100)는 의류 카테고리(CC)에 대한 사용자의 선택을 수신할 수 있다. 의류 카테고리(CC)에 대한 선택을 수신한 경우, 서버(100)는 의류 카테고리(CC)로 표시할 의류 정보를 의류 항목으로 도출할 수 있다. 이때, 의류 카테고리(CC)는 사용자 이미지(UI)에 표시된 사용자의 겉옷 또는 상의 등을 의류 항목으로 포함할 수 있다.As another example, the server 100 may receive the user's selection for a clothing category (CC). When receiving a selection for a clothing category (CC), the server 100 may derive clothing information to be displayed as a clothing category (CC) as a clothing item. At this time, the clothing category (CC) may include the user's outerwear or top displayed in the user image (UI) as clothing items.

구체적으로, 서버(100)는 의류 데이터에 대해 크롤링을 통해 수집할 수 있다.Specifically, the server 100 may collect clothing data through crawling.

이어서, 크롤링을 통해 수집된 의류 데이터와 사용자 데이터를 기초로, 서버(100)는 딥러닝을 이용하여 사용자의 의류 선호도를 산출할 수 있다. 이때, 서버(100)는 선호도를 기초로 의류별 순위를 산출할 수 있다. 또는, 서버(100)는 미리 설정된 기간동안 업로드 된 의류를 크롤링하여, 의류 데이터의 수집량 순으로 헤어스타일별 순위를 산출하거나, 순위가 포함된 의류 데이터를 수신할 수 있다.Next, based on the clothing data and user data collected through crawling, the server 100 can calculate the user's clothing preference using deep learning. At this time, the server 100 may calculate a ranking for each clothing based on preference. Alternatively, the server 100 may crawl uploaded clothing for a preset period, calculate a ranking for each hairstyle in order of the amount of clothing data collected, or receive clothing data including the ranking.

이어서, 서버(100)는 산출된 의류별 순위를 기초로 의류 카테고리(CC)에 포함되는 의류 항목(예를 들어, 상의인 경우, 와이셔츠, 반팔셔츠 및 긴팔셔츠 등)을 표시할 수 있다.Next, the server 100 may display clothing items included in the clothing category (CC) (for example, in the case of tops, dress shirts, short-sleeved shirts, long-sleeved shirts, etc.) based on the calculated clothing rankings.

이어서, 의류 항목에 대한 사용자의 선택을 기초로, 서버(100)는 사용자 이미지(UI)에 포함된 사용자의 의류 이미지를 변경하여 표시할 수 있다. 서버(100)는 의류가 변경된 사용자 이미지(UI)에 A 안경테(MO1)의 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다.Subsequently, based on the user's selection of the clothing item, the server 100 may change and display the user's clothing image included in the user image (UI). The server 100 may generate a virtual fitting image by combining the A image (MI1) of the A glasses frame (MO1) with the user image (UI) with changed clothing.

이를 통해, 무인 상품 서비스 제공 방법은 의류가 변형되어 표시된 사용자의 이미지에 상품 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 이에 따라, 사용자는 착용하는 의류에 따라 어울리는 상품을 확인하기 쉬워 상품선택에 대한 사용자의 편의성을 향상시킬 수 있다.Through this, the unmanned product service provision method can create a virtual fitting image by combining the product image with the user's image displayed with transformed clothing. Accordingly, users can easily check products that match the clothes they wear, thereby improving user convenience in product selection.

또 다른 예로, 서버(100)는 악세사리 카테고리(AC)에 대한 사용자의 선택을 수신할 수 있다. 악세사리 카테고리(AC)에 대한 선택을 수신한 경우, 서버(100)는 악세사리 항목을 도출할 수 있다. 이때, 악세사리 항목은 목걸이, 모자 및 마스크 등을 포함할 수 있다. 악세사리 항목은 사용자 이미지(UI) 내 악세사리 유무와 관계없이 사용자 이미지(UI)에 결합되어 표시될 수 있다.As another example, the server 100 may receive the user's selection for the accessory category (AC). When receiving a selection for an accessory category (AC), the server 100 may derive an accessory item. At this time, accessory items may include necklaces, hats, and masks. Accessory items may be displayed combined with the user image (UI) regardless of whether or not there are accessories in the user image (UI).

서버(100)는 악세사리 데이터에 대해 크롤링을 통해 수집할 수 있다. 크롤링을 통해 수집된 악세사리 데이터와 사용자 데이터를 기초로, 서버(100)는 딥러닝을 이용하여 사용자의 악세사리별 선호도를 산출할 수 있다. 또는, 미리 설정된 기간동안 업로드 된 악세사리를 크롤링하여, 악세사리별 악세사리 데이터의 수집량을 산출할 수 있다. 또한, 순위가 포함된 악세사리 데이터를 수신할 수 있다.The server 100 may collect accessory data through crawling. Based on accessory data and user data collected through crawling, the server 100 can calculate the user's preference for each accessory using deep learning. Alternatively, the amount of accessory data collected for each accessory can be calculated by crawling the uploaded accessories for a preset period. Additionally, accessory data including rankings can be received.

이어서, 서버(100)는 악세사리별 순위를 산출하고, 악세사리 카테고리(AC)에 포함되는 악세사리 항목을 표시할 수 있다.Next, the server 100 may calculate a ranking for each accessory and display accessory items included in the accessory category (AC).

악세사리 항목에 대한 사용자의 선택을 기초로, 서버(100)는 사용자 이미지(UI)에 포함된 악세사리 이미지를 변경하거나, 악세사리 이미지를 결합할 수 있다. 서버(100)는 악세사리 이미지가 결합된 사용자 이미지(UI)에 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다.Based on the user's selection of an accessory item, the server 100 may change the accessory image included in the user image (UI) or combine the accessory images. The server 100 may generate a virtual fitting image by combining the A image (MI1) with the user image (UI) combined with the accessory image.

이를 통해, 무인 상품 서비스 제공 방법은 사용자 이미지에 악세사리 이미지 및 상품 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 이에 따라, 사용자는 착용하고자 하는 악세사리에 어울리는 상품을 구매하여 착용함으로써, 악세사리와 상품의 일체감을 형성할 수 있다.Through this, the unmanned product service provision method can create a virtual fitting image by combining the user image with the accessory image and product image. Accordingly, the user can create a sense of unity between the accessory and the product by purchasing and wearing a product that matches the accessory they want to wear.

추가적으로, 가상 외형 카테고리(OC)는 마스크 카테고리를 더 포함할 수 있다. 서버(100)는 마스크 카테고리에 대한 사용자의 선택을 수신하고, 마스크 항목을 도출할 수 있다. 여기에서, 마스크 항목은 3D 입체형 마스크, 새부리형 2D 마스크 및 평면형 마스크(예를 들어, 덴탈 마스크 및 일회용 마스크) 등을 포함할 수 있다. 이때, 마스크 항목은 흰색 및 검정색 등 다양한 색의 마스크를 표시할 수 있으나 본 발명이 이에 제한되는 것은 아니다.Additionally, the virtual appearance category (OC) may further include a mask category. The server 100 may receive the user's selection of a mask category and derive a mask item. Here, mask items may include 3D three-dimensional masks, bird-beak 2D masks, and flat masks (eg, dental masks and disposable masks). At this time, the mask item may display masks of various colors such as white and black, but the present invention is not limited thereto.

마스크 항목은 사용자 이미지(UI) 내 마스크 착용유무와 관계없이 사용자 이미지(UI)에 결합되어 표시될 수 있다.The mask item can be displayed combined with the user image (UI) regardless of whether the user is wearing a mask in the image (UI).

서버(100)는 마스크 데이터에 대해 크롤링을 통해 수집할 수 있다. 크롤링을 통해 수집된 마스크 데이터와 사용자 데이터를 기초로, 서버(100)는 딥러닝을 이용하여 사용자의 마스크 종류별 선호도를 산출할 수 있다. 이어서, 서버(100)는 마스크 종류별 순위를 산출하고, 마스크 카테고리에 포함되는 마스크 항목을 표시할 수 있다. 그러나, 본 발명이 이에 제한되는 것은 아니며 다양하게 변형되어 실시될 수 있다.The server 100 may collect mask data through crawling. Based on mask data and user data collected through crawling, the server 100 can calculate the user's preference for each type of mask using deep learning. Next, the server 100 may calculate the ranking for each mask type and display mask items included in the mask category. However, the present invention is not limited thereto and may be implemented in various modifications.

마스크 항목에 대한 사용자의 선택을 기초로, 서버(100)는 사용자 이미지(UI)에 포함된 마스크 이미지를 선택된 마스크 이미지로 변경할 수 있다. 또한, 사용자 이미지(UI)에 마스크가 포함되지 않은 경우, 선택된 마스크 이미지를 결합할 수 있다. 서버(100)는 마스크 이미지가 결합된 사용자 이미지(UI)에 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다.Based on the user's selection of the mask item, the server 100 may change the mask image included in the user image (UI) to the selected mask image. Additionally, if the user image (UI) does not include a mask, the selected mask image can be combined. The server 100 may generate a virtual fitting image by combining the A image (MI1) with the user image (UI) combined with the mask image.

또한, 도 1, 도 6 및 도 7을 참조하면, 사용자가 무인매장에 간 경우, 서버(100)는 키오스크(KO)를 통해 사용자의 가상 피팅 이미지를 생성하고, 가상 피팅에 사용된 상품의 이미지에 대한 실제 상품 착용을 제공할 수 있다.In addition, referring to FIGS. 1, 6, and 7, when a user goes to an unmanned store, the server 100 generates a virtual fitting image of the user through the kiosk (KO) and an image of the product used for virtual fitting. We can provide actual product wear for .

구체적으로, 서버(100)는 키오스크(KO)를 통해 사용자 계정의 로그인 및 사용자 이미지(UI)를 수신할 수 있다. 여기에서, 사용자 계정의 로그인과 동시에, 서버(100)는 무인매장에 설치된 카메라(CM)를 이용하여 사용자를 촬영할 수 있다. 다만, 본 발명이 이에 제한되는 것은 아니며, 서버(100)는 사용자로부터 실제 상품에 대한 피팅요청을 수신하는 경우, 카메라(CM)를 통해 촬영을 시작할 수 있다.Specifically, the server 100 may receive user account login and user image (UI) through the kiosk (KO). Here, upon logging in to the user account, the server 100 can take pictures of the user using a camera (CM) installed in the unmanned store. However, the present invention is not limited to this, and when the server 100 receives a fitting request for an actual product from a user, it can start taking pictures through the camera (CM).

이어서, 서버(100)는 수신한 사용자 이미지(UI)를 키오스크(KO)의 화면에 표시할 수 있다. 서버(100)는 키오스크(KO)에 표시된 가상 외형 카테고리(OC)를 통해 변경요청을 수신한 외형을 변형할 수 있다. 또한, 외형이 변형되어 표시된 사용자 이미지(UI)에 사용자에 의해 선택된 상품에 대한 상품 이미지(예를 들어, A 이미지(MI1))를 결합하여 가상 피팅 이미지를 생성할 수 있다.Subsequently, the server 100 may display the received user image (UI) on the screen of the kiosk (KO). The server 100 may change the appearance for which a change request has been received through the virtual appearance category (OC) displayed on the kiosk (KO). Additionally, a virtual fitting image may be generated by combining a product image (eg, A image (MI1)) for a product selected by the user with a user image (UI) displayed with a modified appearance.

이어서, 서버(100)는 키오스크(KO)를 통해 사용자로부터 상품에 대한 실제 피팅요청을 수신할 수 있다. 서버(100)는 실제 피팅요청을 수신한 상품에 대한 상품 데이터를 기초로 실제 상품이 보관된 보관함(OL)의 위치를 추출할 수 있다.Subsequently, the server 100 may receive an actual fitting request for a product from the user through the kiosk (KO). The server 100 can extract the location of the storage box (OL) where the actual product is stored based on product data for the product for which the fitting request was actually received.

서버(100)는 추출된 위치에 해당하는 보관함(OL)을 잠금해제하여 사용자에게 실제 상품을 제공할 수 있다. 사용자는 실제 상품을 착용함으로써, 상품을 실제로 피팅해볼 수 있다. 서버(100)는 무인매장에 설치된 카메라(CM)를 통해 촬영된 사용자의 피팅과정을 영상 데이터로 수신할 수 있다.The server 100 can unlock the storage box (OL) corresponding to the extracted location and provide the actual product to the user. Users can actually try fitting the product by wearing the actual product. The server 100 can receive video data of the user's fitting process captured through a camera (CM) installed in an unmanned store.

서버(100)는 수신한 영상 데이터를 이용하여 실제 피팅 데이터를 추출할 수 있다.The server 100 may extract actual fitting data using the received image data.

구체적으로, 서버(100)는 카메라(CM)를 통해 실제 피팅과정이 촬영된 영상 데이터를 수신한다(S231). 서버(100)는 키오스크(KO)를 통해 사용자의 로그인을 수신한 시각으로부터 사용자의 로그아웃을 수신한 시각까지의 영상 데이터를 수신할 수 있다.Specifically, the server 100 receives video data of the actual fitting process through the camera (CM) (S231). The server 100 may receive video data from the time of receiving the user's login to the time of receiving the user's logout through the kiosk (KO).

이어서, 영상 데이터를 분석하여 피팅내역, 피팅시간 또는 피팅순서 중 적어도 하나를 도출한다(S233).Next, the image data is analyzed to derive at least one of fitting details, fitting time, or fitting order (S233).

구체적으로, 서버(100)는 영상 데이터에 포함된 실제 상품이 보관된 보관함(OL)의 이미지 또는 사용자가 착용한 실제 상품의 이미지에 대해 딥러닝을 이용하여 이미지 분석을 실행할 수 있다.Specifically, the server 100 may perform image analysis using deep learning on the image of the storage box (OL) where the actual product contained in the video data is stored or the image of the actual product worn by the user.

예를 들어, 서버(100)는 영상 데이터로부터 사용자가 실제 상품을 꺼내며 열린 보관함(OL)의 이미지 또는 실제 상품이 꺼내진 후 열려있는 보관함(OL)의 이미지를 추출할 수 있다. 이어서, 서버(100)는 이미지에 포함된 열린 상태의 보관함(OL)의 위치를 추출할 수 있다. 서버(100)는 2번째줄 중간 위치의 보관함(OL)을 도출할 수 있다. 서버(100)는 상품 데이터에 포함된 실제 상품 보관 위치와 도출된 보관함(OL)의 위치를 비교하여 상품을 도출할 수 있다.For example, the server 100 may extract an image of the storage box (OL) opened while the user takes out the actual product or an image of the storage box (OL) opened after the actual product is taken out from the video data. Subsequently, the server 100 may extract the location of the open storage box (OL) included in the image. The server 100 may derive the storage box (OL) located in the middle of the second row. The server 100 may derive the product by comparing the actual product storage location included in the product data with the location of the derived storage box (OL).

또 다른 예로, 서버(100)는 영상 데이터를 통해 사용자가 착용한 실제 상품의 이미지를 추출할 수 있다. 이어서, 서버(100)는 실제 상품의 이미지와 상품 데이터에 포함된 상품 이미지를 비교하여 상품을 도출할 수 있다.As another example, the server 100 may extract an image of the actual product worn by the user through video data. Next, the server 100 may compare the image of the actual product with the product image included in the product data to derive the product.

이어서, 서버(100)는 사용자의 영상 데이터에서 도출한 모든 상품을 사용자의 피팅내역으로 추출할 수 있다. 또한, 영상 데이터에서 추출된 상품의 도출순서를 피팅순서로 추출할 수 있다.Subsequently, the server 100 can extract all products derived from the user's image data as the user's fitting details. Additionally, the derivation order of products extracted from video data can be extracted as a fitting order.

또한, 서버(100)는 상품에 대한 사용자의 착용시점과 탈착시점을 이용하여 피팅시간을 산출할 수 있다. 서버(100)는 영상 데이터에 포함된 사용자의 얼굴을 인식할 수 있다. 서버(100)는 사용자의 얼굴에 실제 상품이 착용되는 제1 시각을 도출할 수 있다. 즉, 서버(100)는 사용자의 얼굴 이미지에 실제 상품의 이미지가 결합되는 영상 데이터의 이미지를 추출할 수 있다. 서버(100)는 추출된 영상 데이터의 이미지가 촬영된 제1 시각을 도출할 수 있다.Additionally, the server 100 can calculate the fitting time using the user's wearing and detaching times for the product. The server 100 may recognize the user's face included in the image data. The server 100 may derive the first time when the actual product is worn on the user's face. That is, the server 100 can extract an image of video data in which the user's face image is combined with the image of the actual product. The server 100 may derive the first time when the image of the extracted video data was captured.

이어서, 서버(100)는 사용자가 사용자의 얼굴에서 실제 상품을 탈착하는 제2 시각을 도출할 수 있다. 서버(100)는 제1 시각 및 제2 시각을 이용하여 상품별 피팅시간을 산출할 수 있다.Subsequently, the server 100 may derive a second view of the user detaching and detaching the actual product from the user's face. The server 100 can calculate the fitting time for each product using the first time and the second time.

도출된 피팅내역, 피팅시간 및 피팅순서를 사용자의 실제 피팅 데이터로 저장한다(S235). 서버(100)는 상품별 실제 피팅 데이터를 사용자의 계정에 저장할 수 있다.The derived fitting details, fitting time, and fitting order are saved as the user's actual fitting data (S235). The server 100 may store actual fitting data for each product in the user's account.

상품별 가상 피팅 데이터 및 실제 피팅 데이터는 추후에 사용자에게 신제품을 제안하거나 정기적으로 추가 구매 광고를 제안할 때 사용될 수 있다. 즉, 가상 피팅 데이터 및 실제 피팅 데이터를 이용한 예상선호도에 따라서 신제품의 예상선호도가 높을 경우 사용자에게 서버가 구매 제안을 전송할 수 있다. 이와 같이 예상선호도를 이용하여 구매 제안을 전송하는 경우, 그렇지 않은 경우보다 더 높은 구매율을 가질 수 있다.Virtual fitting data and actual fitting data for each product can be used later to suggest new products to users or to regularly suggest additional purchase advertisements. In other words, if the predicted preference for a new product is high according to the predicted preference using virtual fitting data and actual fitting data, the server can send a purchase proposal to the user. In this way, when a purchase proposal is transmitted using predicted preference, the purchase rate can be higher than when it is not sent.

이어서, 서버(100)는 상품에 대한 구매요청을 수신한다(S140).Next, the server 100 receives a purchase request for a product (S140).

여기에서, 서버(100)는 어플리케이션 또는 키오스크를 통해 상품에 대한 구매요청을 수신할 수 있다. 서버(100)는 사용자 데이터에 포함된 사용자의 주소로 상품을 배송요청 할 수 있다.Here, the server 100 may receive a purchase request for a product through an application or kiosk. The server 100 can request delivery of a product to the user's address included in the user data.

다만, 본 발명이 이에 제한되는 것은 아니며, 키오스크를 통해 구매요청을 수신한 경우, 서버(100)는 키오스크가 설치된 무인 매장에 상품의 재고가 남아있는지 확인할 수 있다. 재고가 남아있는 경우, 서버(100)는 사용자에게 상품을 즉시 제공할 수 있다.However, the present invention is not limited to this, and when a purchase request is received through a kiosk, the server 100 can check whether the product remains in stock at the unmanned store where the kiosk is installed. If inventory remains, the server 100 can immediately provide the product to the user.

상품의 연계상품을 판매하는 가맹점 리스트를 제공한다(S150).Provides a list of affiliated stores selling product-linked products (S150).

구체적으로, 도 1, 도 3 및 도 8을 참조하면, 서버(100)는 사용자로부터 구매요청을 수신한 상품에 연계된 연계상품을 도출할 수 있다. 예를 들어, 안경테에 대한 구매요청을 수신한 경우, 서버(100)는 안경테에 결합가능한 안경렌즈를 연계상품으로 도출할 수 있다.Specifically, referring to FIGS. 1, 3, and 8, the server 100 can derive a linked product linked to a product for which a purchase request has been received from the user. For example, when receiving a purchase request for a glasses frame, the server 100 may derive glasses lenses that can be combined with the glasses frame as a linked product.

이어서, 서버(100)는 가맹점 관리 서버(300)를 통해 수신한 연계상품 데이터를 기초로, 안경렌즈를 판매하는 가맹점을 도출할 수 있다. 서버(100)는 안경렌즈를 판매하는 A 가맹점(FO1), B 가맹점(FO2) 및 C 가맹점(FO3)을 도출할 수 있다. 이때, 서버(100)는 연계상품 데이터에 포함된 안경렌즈의 재고개수가 하나 이상인 가맹점을 도출할 수 있다.Next, the server 100 may derive an affiliated store that sells spectacle lenses based on linked product data received through the affiliated store management server 300. The server 100 can derive A franchise store (FO1), B franchise store (FO2), and C franchise store (FO3) that sell spectacle lenses. At this time, the server 100 can derive an affiliated store that has one or more spectacle lenses in stock included in the linked product data.

이어서, 서버(100)는 A 가맹점(FO1), B 가맹점(FO2) 및 C 가맹점(FO3)에 대한 가맹점 데이터를 수신할 수 있다. 서버(100)는 가맹점 데이터에 포함된 가맹점 위치정보와 사용자 데이터에 포함된 사용자 위치정보를 이용하여 각 가맹점과 사용자 간의 거리(이하, 사이거리)를 산출할 수 있다.Subsequently, the server 100 may receive affiliated store data for affiliated store A (FO1), affiliated store B (FO2), and affiliated store C (FO3). The server 100 can calculate the distance between each affiliated store and the user (hereinafter referred to as distance between them) using the affiliated store location information included in the affiliated store data and the user location information included in the user data.

서버(100)는 산출된 사이거리를 이용하여 A 가맹점(FO1), B 가맹점(FO2) 및 C 가맹점(FO3)을 가맹점 리스트(FL)에 표시할 수 있다. 예를 들어, 서버(100)는 사이거리가 짧은 순으로 가맹점을 나열하여 표시할 수 있다. 사이거리가 0m로 산출된 A 가맹점(FO1)을 가맹점 리스트(FL)의 맨 상단에 표시할 수 있다. 이어서, 서버(100)는 사이거리가 50m인 B 가맹점(FO2) 및 사이거리가 100m인 C 가맹점(FO3)을 표시할 수 있다.The server 100 can display the A affiliated store (FO1), B affiliated store (FO2), and C affiliated store (FO3) on the affiliated store list (FL) using the calculated distance. For example, the server 100 may list and display affiliated stores in order of short distance between them. A franchise (FO1) whose distance is calculated to be 0m can be displayed at the top of the franchise list (FL). Subsequently, the server 100 may display the B affiliated store (FO2) whose distance is 50 m and the C affiliated store (FO3) whose distance is 100 m.

추가적으로, 서버(100)는 가맹점 리스트(FL)에 연계상품 데이터에 포함된 가맹점별 안경렌즈 가격을 더 표시할 수 있다. 서버(100)는 사용자의 설정에 따라 가맹점 리스트(FL)의 가맹점 표시 순서를 사이거리 또는 가격순으로 설정할 수 있다. 다만, 본 발명이 이에 제한되는 것은 아니다.Additionally, the server 100 may further display the prices of eyeglass lenses for each affiliated store included in the linked product data in the affiliated store list (FL). The server 100 may set the display order of affiliated stores in the affiliated store list (FL) in order of distance or price according to the user's settings. However, the present invention is not limited thereto.

도 9는 본 발명의 몇몇 실시예에서 이용되는 딥러닝 모듈의 구성을 도시한 도면이다.Figure 9 is a diagram showing the configuration of a deep learning module used in some embodiments of the present invention.

도 9를 참조하면, 딥러닝 모듈(DL)은 빅데이터를 기초로 학습된 인공신경망을 이용하여 무인 상품 서비스 제공 방법에 필요한 예상선호도 및 실제 피팅 데이터를 도출할 수 있다.Referring to FIG. 9, the deep learning module (DL) can use an artificial neural network learned based on big data to derive predicted preferences and actual fitting data required for an unmanned product service provision method.

보다 자세히 설명하자면, 머신 러닝(Machine Learning)의 일종인 딥러닝(Deep Learning) 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 것이다. 즉, 딥러닝(Deep learning)은, 단계를 높여가면서 복수의 데이터들로부터 핵심적인 데이터를 추출하는 머신 러닝(Machine Learning) 알고리즘의 집합을 나타낸다.To explain in more detail, Deep Learning technology, a type of Machine Learning, learns at a deep level in multiple stages based on data. In other words, deep learning represents a set of machine learning algorithms that extract key data from a plurality of data at increasing levels.

딥러닝 모듈(DL)은 공지된 다양한 딥러닝 구조를 이용할 수 있다. 예를 들어, 딥러닝 모듈(DL)은 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network), GNN(Graph Neural Network) 등의 구조를 이용할 수 있다.The deep learning module (DL) can use various known deep learning structures. For example, a deep learning module (DL) may use structures such as Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), Deep Belief Network (DBN), and Graph Neural Network (GNN).

한편, 딥러닝 모듈(DL)의 인공신경망 학습은 주어진 입력에 대하여 원하는 출력이 나오도록 노드간 연결선의 웨이트(weight)를 조정(필요한 경우 바이어스(bias) 값도 조정)함으로써 이루어질 수 있다. 또한, 인공신경망은 학습에 의해 웨이트(weight) 값을 지속적으로 업데이트시킬 수 있다. 또한, 인공신경망의 학습에는 역전파(Back Propagation) 등의 방법이 사용될 수 있다.Meanwhile, artificial neural network learning of the deep learning module (DL) can be accomplished by adjusting the weight of the connection line between nodes (adjusting the bias value if necessary) so that the desired output is produced for a given input. Additionally, artificial neural networks can continuously update weight values through learning. Additionally, methods such as back propagation can be used to learn artificial neural networks.

한편, 서버(100)의 메모리에는 머신 러닝으로 미리 학습된 인공신경망(Artificial Neural Network)이 탑재될 수 있다.Meanwhile, an artificial neural network previously trained through machine learning may be installed in the memory of the server 100.

즉, 딥러닝 모듈(DL)은 머신 러닝(machine learning)을 기반으로, 사용자 데이터, 피팅 데이터 및 상품 데이터를 입력 데이터로 하여, 예상선호도 출력하는 동작을 수행할 수 있다. 또한, 딥러닝 모듈(DL)은 머신 러닝(machine learning)을 기반으로, 영상 데이터를 입력 데이터로 하여, 실제 피팅 데이터를 출력하는 동작을 수행할 수 있다.In other words, the deep learning module (DL) can perform the operation of outputting predicted preferences based on machine learning, using user data, fitting data, and product data as input data. Additionally, the deep learning module (DL) can perform an operation to output actual fitting data using image data as input data based on machine learning.

이때, 인공신경망의 머신 러닝 방법으로는 준지도학습(semi-supervised learning)과 지도학습(supervised learning)이 모두 사용될 수 있다. 또한, 딥러닝 모듈(DL)은 설정에 따라 학습 후 예상선호도 및 실제 피팅 데이터를 출력하기 위한 인공신경망 구조를 자동 업데이트하도록 제어될 수 있다.At this time, both semi-supervised learning and supervised learning can be used as machine learning methods for artificial neural networks. Additionally, the deep learning module (DL) can be controlled to automatically update the artificial neural network structure for outputting predicted preference and actual fitting data after learning according to settings.

추가적으로, 도면에 명확하게 도시하지는 않았으나, 본 발명의 다른 실시예에서, 딥러닝 모듈(DL)의 동작은 서버(100) 또는 별도의 클라우드 서버(미도시)에서 실시될 수 있다.Additionally, although not clearly shown in the drawing, in another embodiment of the present invention, the operation of the deep learning module (DL) may be performed in the server 100 or a separate cloud server (not shown).

여기에서, 딥러닝 모듈(DL)은 사용자 데이터, 피팅 데이터 및/또는 상품 데이터를 입력노드로 하는 입력 레이어(input)와, 사용자의 예상선호도를 출력노드로 하는 출력 레이어(Output)와, 입력 레이어와 출력 레이어 사이에 배치되는 M 개의 히든 레이어를 포함한다.Here, the deep learning module (DL) includes an input layer (input) with user data, fitting data, and/or product data as input nodes, an output layer (output) with the user's expected preference as an output node, and an input layer. It includes M hidden layers placed between the and output layers.

여기서, 각 레이어들의 노드를 연결하는 에지(edge)에는 가중치가 설정될 수 있다. 이러한 가중치 혹은 에지의 유무는 학습 과정에서 추가, 제거, 또는 업데이트 될 수 있다. 따라서, 학습 과정을 통하여, k개의 입력노드와 i개의 출력노드 사이에 배치되는 노드들 및 에지들의 가중치는 업데이트될 수 있다.Here, weights may be set on the edges connecting the nodes of each layer. The presence or absence of these weights or edges can be added, removed, or updated during the learning process. Therefore, through the learning process, the weights of nodes and edges arranged between k input nodes and i output nodes can be updated.

딥러닝 모듈(DL)이 학습을 수행하기 전에는 모든 노드와 에지는 초기값으로 설정될 수 있다. 그러나, 누적하여 정보가 입력될 경우, 노드 및 에지들의 가중치는 변경되고, 이 과정에서 학습인자로 입력되는 파라미터들(즉, 사용자 데이터, 피팅 데이터, 상품 데이터 및/또는 영상 데이터)과 출력노드로 할당되는 값(예상선호도 및/또는 실제 피팅 데이터) 사이의 매칭이 이루어질 수 있다. Before the deep learning module (DL) performs learning, all nodes and edges can be set to initial values. However, when information is input cumulatively, the weights of nodes and edges change, and in this process, the parameters input as learning factors (i.e., user data, fitting data, product data, and/or image data) and output nodes are changed. Matching between assigned values (expected preference and/or actual fitting data) can be achieved.

추가적으로, 클라우드 서버를 이용하는 경우, 딥러닝 모듈(DL)은 많은 수의 파라미터들을 수신하여 처리할 수 있다. 따라서, 딥러닝 모듈(DL)은 방대한 데이터에 기반하여 학습을 수행할 수 있다.Additionally, when using a cloud server, the deep learning module (DL) can receive and process a large number of parameters. Therefore, the deep learning module (DL) can perform learning based on massive data.

또한, 딥러닝 모듈(DL)을 구성하는 입력노드와 출력노드 사이의 노드 및 에지의 가중치는 딥러닝 모듈(DL)의 학습 과정에 의해 업데이트될 수 있다. 또한, 딥러닝 모듈(DL)에서 출력되는 파라미터는 예상선호도 외에도 다양한 데이터로 추가 확장될 수 있음은 물론이다.In addition, the weights of nodes and edges between the input nodes and output nodes constituting the deep learning module (DL) may be updated by the learning process of the deep learning module (DL). In addition, of course, the parameters output from the deep learning module (DL) can be further expanded to various data in addition to expected preferences.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present embodiment, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but rather to explain it, and the scope of the technical idea of the present embodiment is not limited by these examples. The scope of protection of this embodiment should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this embodiment.

Claims (10)

딥러닝 모듈을 포함하는 서버가 수행하는 무인 상품 서비스 제공 방법에 있어서,
사용자의 인적사항이 기록된 사용자 데이터를 수신하는 단계;상기 사용자 데이터를 기초로 상기 딥러닝 모듈을 이용하여 예상선호도를 산출하는 단계;
상기 예상선호도를 기초로 상품리스트를 생성하는 단계;
상기 상품리스트를 상기 사용자에게 사용자 단말기를 통해 제공하는 단계;
상기 사용자로부터 상품에 대한 선택을 수신하는 단계;
상기 선택한 상품에 대한 상기 사용자의 피팅 데이터를 생성하는 단계;
상기 상품에 대한 구매요청을 수신하는 단계; 및
상기 상품에 대한 연계상품을 판매하는 가맹점의 위치와 상기 사용자의 위치를 이용하여 가맹점 리스트를 제공하는 단계를 포함하되,
상기 선택한 상품에 대한 상기 사용자의 피팅 데이터를 생성하는 것은,
가상 피팅 데이터를 생성하는 것과 실제 피팅 데이터를 생성하는 것을 포함하고,
상기 가상 피팅 데이터를 생성하는 것은,
키오스크를 통해 상기 사용자의 이미지를 수신하고,
상기 사용자의 이미지에 변형을 가하여 변형 모습을 생성하고,
상기 변형 모습에 상기 선택한 상품의 이미지를 결합하여 상기 사용자의 가상 피팅 데이터를 생성하는 것을 포함하고,
상기 실제 피팅 데이터를 생성하는 것은,
상기 사용자로부터 상기 키오스크를 통해 상기 선택한 상품의 실제 피팅 요청을 수신하고,
상기 선택한 상품이 보관된 보관함의 위치를 서버에서 추출하고,
상기 서버가 상기 보관함을 잠금해제하여 상기 사용자가 상기 선택한 상품을 실제로 획득하게 하고,
카메라를 통해 상기 키오스크와 다른 위치에서 상기 사용자의 상기 선택한 상품의 실제 피팅과정을 촬영하고,
상기 실제 피팅과정을 영상 데이터로 수신하여 실제 피팅 데이터를 생성하는 것을 포함하고,
상기 실제 피팅 데이터와 상기 가상 피팅 데이터가 함께 이용되어 상기 딥러닝 모듈을 통해 상기 사용자의 예상선호도를 산출하는 것을 포함하고,
상기 실제 피팅 데이터는 상기 영상 데이터에서 추출된 상기 사용자의 피팅시간을 포함하고,
상기 피팅시간은 상기 사용자가 상기 상품을 착용한 제1 시각에서부터 상기 사용자가 상기 상품을 탈착하는 제2 시각을 이용하여 산출되는,
무인 상품 서비스 제공 방법.
In a method of providing unmanned product services performed by a server including a deep learning module,
Receiving user data in which the user's personal information is recorded; Calculating expected preference using the deep learning module based on the user data;
Generating a product list based on the expected preference;
providing the product list to the user through a user terminal;
Receiving a selection of a product from the user;
generating fitting data of the user for the selected product;
Receiving a purchase request for the product; and
Including providing a list of affiliated stores using the location of the affiliated store selling a linked product for the product and the location of the user,
Generating the user's fitting data for the selected product,
Including generating virtual fitting data and generating actual fitting data,
Generating the virtual fitting data includes:
Receive the user's image through a kiosk,
Applying transformations to the user's image to create a transformed appearance,
Generating virtual fitting data for the user by combining the image of the selected product with the modified appearance,
Generating the actual fitting data is,
Receiving a request for actual fitting of the selected product from the user through the kiosk,
Extract from the server the location of the storage box where the selected product is stored,
the server unlocks the locker so that the user actually obtains the selected product;
Photographing the actual fitting process of the user's selected product at a location different from the kiosk through a camera,
Including receiving the actual fitting process as image data and generating actual fitting data,
Including using the actual fitting data and the virtual fitting data together to calculate the user's expected preference through the deep learning module,
The actual fitting data includes the user's fitting time extracted from the image data,
The fitting time is calculated using the first time when the user puts on the product to the second time when the user detaches the product,
How to provide unmanned product services.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 데이터를 생성하는 것은,
상기 사용자의 이미지에 외형 이미지를 결합하는 것을 포함하되, 상기 외형 이미지는 헤어스타일, 메이크업, 의류, 악세사리 또는 마스크에 대한 이미지 중 적어도 하나를 포함하는
무인 상품 서비스 제공 방법.
According to claim 1,
Generating virtual fitting data by combining the deformed appearance and the image of the product,
Combining an appearance image with the user's image, wherein the appearance image includes at least one of an image for a hairstyle, makeup, clothing, accessories, or a mask.
How to provide unmanned product services.
제8 항에 있어서,
상기 사용자의 이미지에 외형 이미지를 결합하는 것은,
상기 외형 이미지에 대한 카테고리를 표시하고,
상기 카테고리에 대해 크롤링을 이용하여 상기 외형 이미지의 항목을 수집하는 것을 포함하는
무인 상품 서비스 제공 방법.
According to clause 8,
Combining the external image with the user's image,
Displays a category for the external image,
Including collecting items of the appearance image using crawling for the category.
How to provide unmanned product services.
제1 항에 있어서,
상기 가맹점 리스트를 제공하는 단계는,
상기 사용자의 위치와 상기 가맹점 간의 거리를 산출하고,
상기 산출된 거리가 짧은 순으로 상기 가맹점을 나열하여 상기 가맹점 리스트를 생성하는 것을 포함하는
무인 상품 서비스 제공 방법.
According to claim 1,
The step of providing the affiliated store list is,
Calculate the distance between the user's location and the affiliated store,
Including generating the affiliated store list by listing the affiliated stores in descending order of the calculated distance.
How to provide unmanned product services.
KR1020210116591A 2021-09-01 2021-09-01 Method for providing unmanned goods service KR102646540B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210116591A KR102646540B1 (en) 2021-09-01 2021-09-01 Method for providing unmanned goods service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210116591A KR102646540B1 (en) 2021-09-01 2021-09-01 Method for providing unmanned goods service

Publications (2)

Publication Number Publication Date
KR20230033531A KR20230033531A (en) 2023-03-08
KR102646540B1 true KR102646540B1 (en) 2024-03-12

Family

ID=85508009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210116591A KR102646540B1 (en) 2021-09-01 2021-09-01 Method for providing unmanned goods service

Country Status (1)

Country Link
KR (1) KR102646540B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116229643B (en) * 2023-05-09 2023-07-04 北京惠朗时代科技有限公司 Safe deposit cabinet discernment management system based on thing networking

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101922713B1 (en) * 2018-08-31 2019-02-20 이준호 User terminal, intermediation server, system and method for intermediating optical shop
KR102271063B1 (en) * 2020-08-18 2021-06-29 정윤호 Method for performing virtual fitting, apparatus and system thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170060740A (en) * 2015-11-25 2017-06-02 박진수 Offline Fashion-sales Active System

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101922713B1 (en) * 2018-08-31 2019-02-20 이준호 User terminal, intermediation server, system and method for intermediating optical shop
KR102271063B1 (en) * 2020-08-18 2021-06-29 정윤호 Method for performing virtual fitting, apparatus and system thereof

Also Published As

Publication number Publication date
KR20230033531A (en) 2023-03-08

Similar Documents

Publication Publication Date Title
Luce Artificial intelligence for fashion: How AI is revolutionizing the fashion industry
Guan et al. Apparel recommendation system evolution: an empirical review
CN105637512B (en) For creating the method and system of customed product
US20180218433A1 (en) System and Method for Fashion Recommendations
CN109840825A (en) The recommender system of physical features based on user
US20190188784A1 (en) System, platform, device and method for personalized shopping
WO2018012136A1 (en) Makeup assistance device and makeup assistance method
CN109154983A (en) It is configured as the wear-type display system of exchange biometric information
KR102185638B1 (en) System of total coordination proposal with most famous full fashion style by using AI and operating method thereof
US11157988B2 (en) System and method for fashion recommendations
GB2458388A (en) A collaborative online shopping environment, virtual mall, store, etc. in which payments may be shared, products recommended and users modelled.
KR102223444B1 (en) Service system for providing integrated personal clothing coordination
CN108037823A (en) Information recommendation method, Intelligent mirror and computer-readable recording medium
KR20130027801A (en) User terminal for style matching, style matching system using the user terminal and method thereof
US20180247356A1 (en) Computer implemented platform for the creation of a virtual product
KR20190097815A (en) System for recommending total beauty style
CN105374057A (en) Virtual try-on apparatus and virtual try-on method
CN108109049A (en) Clothing matching Forecasting Methodology, device, computer equipment and storage medium
US11544768B2 (en) System and method for fashion recommendations
KR102271063B1 (en) Method for performing virtual fitting, apparatus and system thereof
KR20200066970A (en) Method and system for automatic, customized outfit coordination, product recommendation and information management based on user&#39;s fashion item possession and preference
KR102646540B1 (en) Method for providing unmanned goods service
KR20220021122A (en) Apparatus and method for recommending of fashion coordination
KR20190097615A (en) apparatus and method for determining manufacture quantitybased on data related to design
US11526925B2 (en) System and method for fashion recommendations

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant