KR102646540B1 - Method for providing unmanned goods service - Google Patents
Method for providing unmanned goods service Download PDFInfo
- Publication number
- KR102646540B1 KR102646540B1 KR1020210116591A KR20210116591A KR102646540B1 KR 102646540 B1 KR102646540 B1 KR 102646540B1 KR 1020210116591 A KR1020210116591 A KR 1020210116591A KR 20210116591 A KR20210116591 A KR 20210116591A KR 102646540 B1 KR102646540 B1 KR 102646540B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- product
- image
- data
- server
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000013135 deep learning Methods 0.000 claims description 44
- 230000009193 crawling Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 2
- 238000000844 transformation Methods 0.000 claims 1
- 239000011521 glass Substances 0.000 description 21
- 238000007726 management method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 12
- 210000004209 hair Anatomy 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013523 data management Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012508 change request Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000007790 scraping Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G06T3/10—
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F17/00—Coin-freed apparatus for hiring articles; Coin-freed facilities or services
- G07F17/40—Coin-freed apparatus for hiring articles; Coin-freed facilities or services for devices for accepting orders, advertisements, or the like
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2024—Style variation
Abstract
본 발명은 무인 상품 서비스 제공 방법을 개시한다. 상기 무인 상품 서비스 제공 방법은, 사용자의 인적사항이 기록된 사용자 데이터를 수신하는 단계, 상기 사용자로부터 상품에 대한 선택을 수신하는 단계, 상기 상품을 상기 사용자에게 가상 피팅하되, 상기 가상 피팅은 상기 사용자의 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 것을 포함하는 단계, 상기 상품에 대한 구매요청을 수신하는 단계 및 상기 상품에 대한 연계상품을 판매하는 가맹점의 위치와 상기 사용자의 위치를 이용하여 가맹점 리스트를 제공하는 단계를 포함한다.The present invention discloses a method for providing unmanned product services. The unmanned product service providing method includes receiving user data in which the user's personal information is recorded, receiving a selection of a product from the user, and virtually fitting the product to the user, wherein the virtual fitting is performed by the user. A step including generating a virtual fitting image by combining the deformed appearance of and the image of the product, receiving a purchase request for the product, and the location of an affiliated store selling a linked product for the product and the location of the user. It includes the step of providing a list of affiliated stores using .
Description
본 발명은 딥러닝 모듈을 이용한 무인 상품 서비스 제공 방법에 관한 것이다. 구체적으로, 본 발명은 사용자의 이미지에 사용자가 선택한 상품의 이미지 및 변형 모습을 결합하여 가상 피팅 이미지를 생성할 수 있는 무인 상품 서비스 제공 방법에 관한 것이다.The present invention relates to a method of providing unmanned product services using a deep learning module. Specifically, the present invention relates to an unmanned product service providing method that can generate a virtual fitting image by combining the user's image with the image and modified appearance of the product selected by the user.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section simply provides background information for this embodiment and does not constitute prior art.
최근 들어, 인터넷이 발달함에 따라, 온라인으로 상품을 판매 및 구매하는 사람이 증가하여 온라인 매장이 더욱 커지고 있다. 이에 따라, 판매자들은 다양한 종류의 상품을 온라인 매장에 등록하고, 구매자들은 오프라인보다 온라인에서 상품을 구매하는 빈도가 높아졌다.Recently, as the Internet has developed, the number of people selling and purchasing products online has increased, and online stores are growing larger. Accordingly, sellers are registering various types of products in online stores, and buyers are purchasing products online more frequently than offline.
종래에는, 구매자들이 오프라인에서 안경테를 직접 피팅해본 후, 본인과 가장 어울리는 안경테를 구매하고, 시력을 측정하여 안경렌즈를 구매하였다.In the past, buyers would try on glasses frames offline, purchase the frames that best fit them, measure their visual acuity, and then purchase glasses lenses.
그러나, 온라인 매장이 확대됨에 따라, 구매자들의 안경테에 대한 선택폭이 넓어졌으나, 안경테를 직접 착용해볼 수 없어 상품에 대한 만족율이 낮았다. 이에, 구매자의 이미지에 안경테를 합성하여 구매자에게 가상으로 피팅함으로써, 상품에 대한 구매자의 만족율을 높일 수 있는 니즈가 요구되었다.However, as online stores expanded, buyers had a wider choice of glasses frames, but the satisfaction rate with the products was low because they could not try on the frames themselves. Accordingly, there was a need to increase the buyer's satisfaction rate with the product by combining the glasses frame with the buyer's image and virtually fitting it to the buyer.
또한, 안경테를 구매한 경우, 안경테에 결합가능한 안경렌즈를 구매할 수 있는 오프라인 매장을 찾아다녀야 하는 불편함이 있었다. 이에 따라, 구매자의 안경테 정보를 이용하여 안경테에 대한 안경렌즈를 판매하는 오프라인 매장을 제공할 수 있는 시스템이 요구되었다.Additionally, when purchasing a spectacle frame, there was the inconvenience of having to go to an offline store where one could purchase spectacle lenses that can be combined with the spectacle frame. Accordingly, there is a need for a system that can provide an offline store that sells eyeglass lenses for eyeglass frames using the buyer's eyeglass frame information.
본 발명의 목적은, 사용자에 의해 온라인 매장에서 선택된 상품을 사용자 이미지에 가상으로 피팅하여 가상 피팅 이미지를 생성하고, 가상 피팅한 상품에 대해 무인매장에서 직접 피팅 가능하게 할 수 있는 무인 상품 서비스 제공 방법을 제공하는 것이다.The object of the present invention is a method of providing an unmanned product service that creates a virtual fitting image by virtually fitting a product selected by a user in an online store to the user's image, and allows direct fitting of the virtually fitted product at an unmanned store. is to provide.
또한, 본 발명의 목적은, 사용자 이미지에 포함된 변형가능한 사용자의 외형을 변형하고, 외형이 변형된 사용자 이미지에 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 무인상품 서비스 제공 방법을 제공하는 것이다.In addition, the purpose of the present invention is to provide a method of providing an unmanned product service that generates a virtual fitting image by modifying the deformable appearance of the user included in the user image and combining the image of the product with the user image with the modified appearance. .
또한, 본 발명의 목적은, 사용자 데이터 및 피팅 데이터를 기초로 딥러닝을 이용하여 사용자가 선호할 가능성이 높은 상품 및 변형가능한 외형 항목을 추천하는 무인 상품 서비스 제공 방법을 제공하는 것이다.Additionally, the purpose of the present invention is to provide an unmanned product service providing method that recommends products that are likely to be preferred by the user and items with a changeable appearance using deep learning based on user data and fitting data.
또한, 본 발명의 목적은, 사용자가 구매한 안경테에 결합가능한 안경렌즈를 구매할 수 있는 오프라인 가맹점을 추천할 수 있는 무인 상품 서비스 제공 방법을 제공하는 것이다.Additionally, the purpose of the present invention is to provide an unmanned product service providing method that can recommend an offline affiliated store where a user can purchase eyeglass lenses that can be combined with the eyeglasses frame purchased.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the examples of the present invention. Additionally, it will be readily apparent that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the patent claims.
본 발명의 실시예에 따른 무인 상품 서비스 제공 방법은, 사용자의 인적사항이 기록된 사용자 데이터를 수신하는 단계, 상기 사용자로부터 상품에 대한 선택을 수신하는 단계, 상기 상품을 상기 사용자에게 가상 피팅하되, 상기 가상 피팅은 상기 사용자의 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 것을 포함하는 단계, 상기 상품에 대한 구매요청을 수신하는 단계; 및 상기 상품에 대한 연계상품을 판매하는 가맹점의 위치와 상기 사용자의 위치를 이용하여 가맹점 리스트를 제공하는 단계를 포함한다.An unmanned product service providing method according to an embodiment of the present invention includes receiving user data in which the user's personal information is recorded, receiving a selection of a product from the user, and virtually fitting the product to the user, The virtual fitting includes generating a virtual fitting image by combining the user's deformed appearance and an image of the product, receiving a purchase request for the product; and providing a list of affiliated stores using the location of the affiliated store selling a product linked to the product and the location of the user.
또한, 상기 사용자의 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 것을 포함하는 단계는, 상기 사용자의 사용자 단말기에 설치된 어플리케이션을 통해 상기 사용자의 이미지를 수신하고, 상기 사용자의 이미지에 변형을 가하여 상기 변형 모습을 생성하고, 상기 변형 모습에 수신한 상기 상품의 이미지를 결합하는 것을 포함할 수 있다.In addition, the step of generating a virtual fitting image by combining the user's deformed appearance and the image of the product includes receiving the user's image through an application installed on the user's user terminal, and applying the user's image to the user's image. It may include creating the modified appearance by applying a transformation and combining the received image of the product with the modified appearance.
또한, 상기 상품은, 상기 사용자 데이터와 상기 사용자의 가상 피팅이력이 포함된 가상 피팅 데이터를 이용하여 상기 상품 각각의 예상선호도를 산출하고, 산출된 상기 예상선호도를 기초로 상기 사용자에게 추천된 상품인 것을 포함할 수 있다.In addition, the product calculates the expected preference of each product using virtual fitting data including the user data and the user's virtual fitting history, and is a product recommended to the user based on the calculated expected preference. may include
또한, 상기 사용자의 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 것을 포함하는 단계는, 키오스크를 통해 상기 사용자의 이미지를 수신하고, 상기 사용자의 이미지에 변형을 가하여 상기 변형 모습을 생성하고, 상기 변형 모습에 상기 상품의 이미지를 결합하는 것을 포함할 수 있다.In addition, the step of generating a virtual fitting image by combining the user's deformed appearance and the image of the product includes receiving the user's image through a kiosk and applying a deformation to the user's image to create the deformed appearance. It may include generating and combining an image of the product with the modified appearance.
또한, 카메라를 통해 촬영된 상기 사용자의 실제 피팅과정이 포함되고, 실제 피팅 데이터와 연관된 영상 데이터를 수신하고, 상기 실제 피팅 데이터는 상기 사용자의 가상 피팅이력이 포함된 가상 피팅 데이터와 함께 이용되어 상기 사용자의 예상선호도를 산출하는 것을 더 포함할 수 있다.In addition, the user's actual fitting process captured through a camera is included, image data associated with the actual fitting data is received, and the actual fitting data is used together with virtual fitting data containing the user's virtual fitting history to It may further include calculating the user's expected preference.
또한, 상기 상품은, 상기 예상선호도를 기초로 상기 사용자에게 추천된 상품인 것을 포함할 수 있다.Additionally, the product may include a product recommended to the user based on the predicted preference.
또한, 상기 실제 피팅 데이터는, 상기 영상 데이터에서 추출된 상기 사용자의 피팅내역, 피팅시간 또는 피팅순서 중 적어도 하나를 포함할 수 있다.Additionally, the actual fitting data may include at least one of the user's fitting history, fitting time, or fitting order extracted from the image data.
또한, 상기 사용자의 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 이미지를 생성하는 단계는, 상기 사용자의 이미지에 외형 이미지를 결합하되, 상기 외형 이미지는 헤어스타일, 메이크업, 의류, 악세사리 또는 마스크에 대한 이미지 중 적어도 하나를 포함할 수 있다.In addition, the step of generating a virtual fitting image by combining the user's deformed appearance and the image of the product includes combining an external image with the user's image, wherein the external image is applied to hairstyle, makeup, clothing, accessories, or a mask. It may include at least one of the images for
또한, 상기 사용자의 외형 이미지를 결합하는 단계는, 상기 외형 이미지에 대한 카테고리를 표시하고, 상기 카테고리에 대해 크롤링을 이용하여 상기 외형 이미지의 항목을 수집하는 것을 포함할 수 있다.Additionally, the step of combining the user's external image may include displaying a category for the external image and collecting items of the external image using crawling for the category.
또한, 상기 가맹점 리스트를 제공하는 단계는, 상기 사용자의 위치와 상기 가맹점 간의 거리를 산출하고, 상기 산출된 거리가 짧은 순으로 상기 가맹점을 나열하여 상기 가맹점 리스트를 생성하는 것을 포함할 수 있다.Additionally, the step of providing the affiliated store list may include calculating the distance between the user's location and the affiliated store, and generating the affiliated store list by listing the affiliated stores in descending order of the calculated distance.
본 발명의 무인 상품 서비스 제공 방법은, 어플리케이션을 통해 사용자의 이미지를 수신하고, 사용자의 이미지에 사용자가 선택한 상품의 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 이를 통해, 상품을 가상으로 피팅해봄으로써, 상품 선택 및 구매에 대한 사용자의 만족도를 높일 수 있다. 또한, 매장 운영에 필요한 인력 및 비용을 절감함으로써, 매장의 수익률 향상을 기대할 수 있다.The unmanned product service providing method of the present invention can receive a user's image through an application and create a virtual fitting image by combining the user's image with the image of the product selected by the user. Through this, the user's satisfaction with product selection and purchase can be increased by virtually fitting the product. Additionally, by reducing the manpower and costs required to operate a store, an increase in the store's profitability can be expected.
또한, 본 발명의 무인 상품 서비스 제공 방법은, 사용자 이미지 내 변형가능한 외형에 대한 가상 외형 카테고리를 표시하고, 가상 외형 카테고리의 항목에 대한 선택수신을 기초로 사용자 이미지에 외형 이미지를 결합할 수 있다. 이어서, 외형이 변형된 사용자 이미지에 상품의 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 이에 따라, 헤어스타일, 메이크업, 의류 및 악세사리에 따라 어울리는 상품을 확인 후 구매하도록 함으로써, 패션에 대한 완성도 및 사용자의 만족감을 향상시킬 수 있다.In addition, the unmanned product service providing method of the present invention can display a virtual appearance category for a changeable appearance in a user image and combine the appearance image with the user image based on selection and reception of items in the virtual appearance category. Next, a virtual fitting image can be created by combining the product image with the user image whose appearance has been modified. Accordingly, fashion completion and user satisfaction can be improved by checking and purchasing products that match the hairstyle, makeup, clothing, and accessories.
또한, 본 발명의 무인 상품 서비스 제공 방법은, 사용자 데이터 및 피팅 데이터를 기초로 딥러닝 모듈을 이용하여 사용자별 예상선호도를 도출하고, 도출된 예상선호도를 기초로 상품 리스트 및 외형 항목을 생성할 수 있다. 이를 통해, 사용자의 기호를 반영한 상품을 추천하여 상품 구매에 대한 사용자의 시간을 절약하고, 사용자의 편의성 및 만족도를 향상시킬 수 있다.In addition, the unmanned product service provision method of the present invention can derive expected preferences for each user using a deep learning module based on user data and fitting data, and generate product lists and appearance items based on the derived expected preferences. there is. Through this, products that reflect the user's preferences can be recommended to save the user's time in purchasing products and improve user convenience and satisfaction.
또한, 본 발명의 무인 상품 서비스 제공 방법은, 사용자의 안경테 정보를 기초로 안경테에 결합가능한 안경렌즈를 판매하는 가맹점을 사용자와 인접한 거리순으로 나열하여 가맹점 리스트를 제공할 수 있다. 이를 통해, 온라인 및 오프라인 매장을 자동으로 연결하여 안경렌즈 구매에 대한 사용자의 편리성을 향상시키고, 온라인 매장에 대한 사용자의 서비스 이용률을 증가시키는 효과를 기대할 수 있다.In addition, the unmanned product service providing method of the present invention can provide a list of affiliated stores that sell spectacle lenses that can be combined with the spectacle frame based on the user's spectacle frame information by listing them in order of distance adjacent to the user. Through this, the effect of automatically connecting online and offline stores can be expected to improve the user's convenience in purchasing eyeglass lenses and increase the user's service utilization rate for online stores.
상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described content, specific effects of the present invention are described below while explaining specific details for carrying out the invention.
도 1은 본 발명의 실시예에 따른 무인 상품 서비스 제공 방법을 수행하는 안경점 시스템을 설명하기 위한 개념도이다.
도 2는 도 1의 안경점 시스템의 각 구성요소를 설명하기 위한 블럭도이다.
도 3은 본 발명의 몇몇 실시예에 따른 무인 상품 서비스 제공 방법을 설명하기 위한 순서도이다.
도 4는 도 1의 S130 단계에서 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다.
도 5는 도 1의 S130 단계에서 사용자의 외형을 변형하여 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다.
도 6은 도 1의 S130 단계에서 키오스크를 통해 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다.
도 7은 도 6의 카메라를 통해 실제 피팅 데이터를 도출하는 방법을 설명하기 위한 순서도이다.
도 8은 도 1의 S150 단계에서 제공되는 가맹점 리스트를 설명하기 위한 예시도이다.
도 9는 도 1의 S110 단계에서 사용자에게 추천할 상품을 도출하는 과정에서 이용되는 딥러닝 모듈의 구성을 도시한 도면이다.1 is a conceptual diagram illustrating an optical store system that performs an unmanned product service providing method according to an embodiment of the present invention.
Figure 2 is a block diagram for explaining each component of the optical store system of Figure 1.
Figure 3 is a flowchart for explaining a method of providing unmanned product services according to some embodiments of the present invention.
FIG. 4 is an example diagram for explaining a method of generating a virtual fitting image in step S130 of FIG. 1.
FIG. 5 is an example diagram illustrating a method of generating a virtual fitting image by modifying the user's appearance in step S130 of FIG. 1.
FIG. 6 is an example diagram illustrating a method of generating a virtual fitting image through a kiosk in step S130 of FIG. 1.
FIG. 7 is a flowchart explaining a method of deriving actual fitting data through the camera of FIG. 6.
FIG. 8 is an example diagram illustrating the affiliated store list provided in step S150 of FIG. 1.
Figure 9 is a diagram showing the configuration of a deep learning module used in the process of deriving a product to recommend to the user in step S110 of Figure 1.
본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and patent claims should not be construed as limited to their general or dictionary meaning. According to the principle that the inventor can define terms or word concepts in order to explain his or her invention in the best way, it should be interpreted with a meaning and concept consistent with the technical idea of the present invention. In addition, the embodiments described in this specification and the configurations shown in the drawings are only one embodiment of the present invention and do not completely represent the technical idea of the present invention, so they cannot be replaced at the time of filing the present application. It should be understood that there may be various equivalents, variations, and applicable examples.
본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B used in the present specification and claims may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term 'and/or' includes any of a plurality of related stated items or a combination of a plurality of related stated items.
본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the specification and claims are merely used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "include" or "have" should be understood as not precluding the existence or addition possibility of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.
또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다. Additionally, each configuration, process, process, or method included in each embodiment of the present invention may be shared within the scope of not being technically contradictory to each other.
이하에서는, 도 1 내지 도 9을 참조하여, 사용자 데이터 및 피팅 데이터를 기초로 사용자에게 무인 상품 서비스 제공 방법에 대하여 구체적으로 살펴보도록 한다.Hereinafter, with reference to FIGS. 1 to 9, we will look in detail at a method of providing unmanned product services to users based on user data and fitting data.
도 1은 본 발명의 실시예에 따른 무인 상품 서비스 제공 방법을 수행하는 안경점 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an optical store system that performs an unmanned product service providing method according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 안경점 시스템은 안경점 서버(100), 사용자 단말기(200), 가맹점 관리 서버(300) 및 가맹점 단말기(400)를 포함할 수 있다.Referring to FIG. 1, an optical store system according to some embodiments of the present invention may include an
본 발명에 따른 안경점 서버(100; 이하, 서버)는 사용자의 인적사항이 기록된 사용자 데이터, 상품 데이터 및 피팅 데이터를 수신할 수 있다. 이때, 사용자 데이터는 사용자의 나이, 성별, 지역 및 선호색상을 등을 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The optical store server 100 (hereinafter referred to as server) according to the present invention can receive user data, product data, and fitting data in which the user's personal information is recorded. At this time, the user data may include the user's age, gender, region, and preferred color. However, this embodiment is not limited to this.
상품 데이터는 판매 상품 데이터 및 연계상품 데이터를 포함할 수 있다. 판매상품 데이터는 서버(100)에서 판매하는 상품(예를 들어, 안경테)에 대한 데이터이고, 연계상품 데이터는 가맹점에서 판매하는 상품의 연계상품(예를 들어, 안경렌즈)에 대한 데이터일 수 있다.Product data may include sales product data and linked product data. The sales product data may be data on products sold by the server 100 (e.g., eyeglass frames), and the linked product data may be data on linked products (e.g., eyeglass lenses) of products sold at an affiliated store. .
구체적으로, 서버(100)는 연계상품을 판매하는 가맹점을 관리하는 가맹점 관리 서버(300)를 통해 연계상품 데이터를 수신할 수 있다. 가맹점 관리 서버(300)는 가맹점 단말기(400)에서 수신한 연계상품 데이터를 서버(100)에 전달할 수 있다. 여기에서, 복수의 가맹점은 가맹점별 판매가능한 연계상품을 가맹점 단말기(400)에 미리 등록할 수 있다. 가맹점 관리 서버(300)는 가맹점 단말기(400)에 의해 등록된 연계상품 데이터를 서버(100)에 실시간으로 제공할 수 있다. 가맹점 관리 서버(300)는 사용자 단말기(200)를 통해 수신한 사용자의 구매상품 데이터를 가맹점 단말기(400)에 전달할 수 있다. Specifically, the
또한, 피팅 데이터는 가상 피팅 데이터 및/또는 실제 피팅 데이터를 포함할 수 있다. 여기에서, 가상 피팅 데이터는 어플리케이션 및/또는 키오스크를 통한 사용자의 가상 피팅이력을 포함할 수 있고, 실제 피팅 데이터는 무인매장에서 사용자가 상품을 직접 피팅한 실제 피팅이력일 수 있다.Additionally, the fitting data may include virtual fitting data and/or actual fitting data. Here, the virtual fitting data may include the user's virtual fitting history through an application and/or kiosk, and the actual fitting data may be the actual fitting history of the user directly fitting a product in an unmanned store.
서버(100)는 사용자 데이터, 상품 데이터 및 피팅 데이터를 이용하여 상품 리스트를 도출할 수 있다. 이때, 서버(100)는 딥러닝을 이용하여 상품별 사용자의 예상선호도를 산출하고, 산출된 예상선호도를 기초로 상품을 나열하여 표시할 수 있다. 서버(100)는 상품 리스트에 표시된 상품에 대한 사용자의 선택을 수신할 수 있다.The
이어서, 서버(100)는 어플리케이션 또는 키오스크를 통해 사용자 이미지를 수신할 수 있다. 서버(100)는 사용자 이미지에 사용자의 선택을 수신한 상품의 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다.Next, the
또한, 서버(100)는 사용자 이미지에 대해 변형가능한 외형을 인식하고, 가상 외형 카테고리를 표시할 수 있다. 가상 외형 카테고리란, 서버(100)가 사용자 이미지에 포함된 사용자의 외형 중에서 가상 피팅하여 변형할 수 있는 외형 항목에 대한 카테고리일 수 있다. 여기에서, 가상 외형 카테고리에는 헤어스타일, 메이크업, 의류, 악세사리 및 마스크 카테고리가 포함될 수 있다.Additionally, the
이때, 서버(100)는 외부 서버로부터 가상 외형 카테고리별로 표시될 외형 항목에 대한 데이터를 크롤링(Crawling)을 통해 수집할 수 있다. 여기에서, 크롤링(Crawling)이란, 수많은 웹 페이지에 분산되어 있는 데이터를 추출하여 정보를 수집하는 기술이며, 스크레이핑이라고도 불린다. 외부 정보는 포탈 사이트 검색정보(예를 들어, 구글 등), SNS(예를 들어, 페이스북 등), 커뮤니티(예를 들어, 네이버 카페), 개인 블로그를 통해 접근 가능한 정보를 포함한다.At this time, the
서버(100)는 크롤링을 통해 수집된 외형 데이터에 대해 사용자의 선호도를 산출하여 선호도 순으로 외형 항목을 나열하여 가상 외형 카테고리에 표시할 수 있다.The
이어서, 서버(100)는 사용자의 선택을 수신한 외형 항목에 해당하는 외형 이미지를 사용자 이미지에 결합하여 가상 피팅 이미지를 생성할 수 있다. 이때, 가상 피팅 이미지에는 상품의 이미지 또한 결합되어 있을 수 있다. 서버(100)는 가상 피팅 이력을 사용자 계정에 가상 피팅 데이터로 저장할 수 있다.Subsequently, the
무인매장에서 키오스크를 통해 가상 피팅 이미지 생성을 진행하는 경우, 서버(100)는 상품에 대한 사용자의 요청을 기초로 실제 피팅을 더 제공할 수 있다.When creating a virtual fitting image through a kiosk in an unmanned store, the
구체적으로, 서버(100)는 피팅요청을 수신한 상품의 보관함을 잠금해제함으로써, 사용자에게 상품을 직접 제공할 수 있다. 사용자는 실제 상품을 직접 착용해볼 수 있다.Specifically, the
이때, 서버(100)는 무인매장에 설치된 카메라를 통해 사용자의 실제 피팅과정이 촬영된 영상 데이터를 수신할 수 있다. 서버(100)는 수신한 영상 데이터를 분석하여 피팅내역, 피팅시간 또는 피팅순서를 포함하는 실제 피팅 데이터를 추출할 수 있다. 서버(100)는 추출한 실제 피팅 데이터를 사용자 계정에 저장할 수 있다.At this time, the
이어서, 서버(100)는 상품 리스트에 포함된 상품에 대한 구매요청을 수신할 수 있다. 서버(100)는 상품을 사용자 데이터에 포함된 사용자의 배송주소로 배송할 수 있으나, 본 발명이 이에 제한되는 것은 아니다.Subsequently, the
이어서, 서버(100)는 가맹점 관리 서버(300)로부터 사용자가 구매한 상품에 대한 연계상품을 판매하는 가맹점의 가맹점 데이터를 수신할 수 있다. 서버(100)는 가맹점 데이터에 포함된 가맹점의 위치와 사용자의 위치를 이용하여 사용자와 가맹점 간의 거리를 산출할 수 있다. 서버(100)는 산출된 거리를 기초로 가맹점 리스트를 생성하여 사용자에게 제공할 수 있다.Subsequently, the
이때, 서버(100)와 사용자 단말기(200)는 서버-클라이언트 시스템으로 구현될 수 있다. 서버(100)는 유무선 네트워크를 통해 사용자 단말기(200)와 데이터를 송수신할 수 있다.At this time, the
여기에서, 단말 어플리케이션은 상품 리스트 및 가상 피팅 이미지를 제공하기 위한 전용 어플리케이션이거나, 상품 리스트 및 가상 피팅 이미지를 웹 페이지를 통해 제공하기 위한 웹 브라우징 어플리케이션일 수 있다. 여기에서, 상품 리스트 및 가상 피팅 이미지를 제공하기 위한 전용 어플리케이션은 사용자 단말기(200)에 내장된 어플리케이션이거나, 어플리케이션 배포 서버로부터 다운로드 되어 사용자 단말기(200)에 설치된 어플리케이션일 수 있다.Here, the terminal application may be a dedicated application for providing a product list and a virtual fitting image, or a web browsing application for providing a product list and a virtual fitting image through a web page. Here, the dedicated application for providing product lists and virtual fitting images may be an application built into the
즉, 사용자 단말기(200)는 서버(100)로부터 제공받은 상품 리스트 및 가상 피팅 이미지를 사용자 단말기(200)에 설치된 단말 어플리케이션을 통해 사용자에게 제공할 수 있다. That is, the
이하에서는, 설명의 편의를 위하여 사용자 단말기(200)가 미리 설치된 단말 어플리케이션(이하, 어플리케이션)을 이용하여 서버(100)로부터 제공받은 인터페이스, 상품 리스트 및 가상 피팅 이미지를 화면에 표시하는 것을 전제로 설명하도록 한다.Hereinafter, for convenience of explanation, it is assumed that the
이때, 사용자 단말기(200)는 유무선 통신 환경에서 단말 어플리케이션을 동작 시킬 수 있는 통신 단말기를 의미한다. 사용자 단말기(200)는 사용자의 휴대용 단말기일 수 있다. 도 1에서 사용자 단말기(200)는 휴대용 단말기의 일종인 스마트폰(smart phone)으로 도시되었지만, 본 발명이 이에 제한되지 아니하며, 상술한 바와 같이 단말 어플리케이션을 탑재할 수 있는 장치에 제한없이 적용될 수 있다. 예를 들어, 사용자 단말기(200)는 퍼스널 컴퓨터(PC), 노트북, 태블릿, 휴대폰, 스마트폰, 웨어러블 디바이스(예를 들어, 워치형 단말기) 및 키오스크 등의 다양한 형태의 전자 장치를 포함할 수 있다.At this time, the
또한, 도면 상에는 하나의 사용자 단말기(200)만을 도시하였으나, 본 발명이 이에 한정되는 것은 아니며, 서버(100)는 복수의 사용자 단말기(200)와 연동하여 동작할 수 있다.In addition, although only one
부가적으로, 사용자 단말기(200)는 사용자의 입력을 수신하는 입력부, 비주얼 정보를 디스플레이 하는 디스플레이부, 외부와 신호를 송수신하는 통신부 및 데이터를 프로세싱하고 사용자 단말기(200) 내부의 각 유닛들을 제어하며 유닛들 간의 데이터 송/수신을 제어하는 제어부를 포함할 수 있다. 이하, 사용자의 명령에 따라 제어부가 사용자 단말기(200) 내부에서 수행하는 명령은 사용자 단말기(200)가 수행하는 것으로 통칭한다.Additionally, the
한편, 통신망(500)은 서버(100), 사용자 단말기(200) 및 가맹점 관리 서버(300)를 연결하는 역할을 수행한다. 즉, 통신망(500)은 사용자 단말기(200)들이 서버(100) 및 가맹점 관리 서버(300)에 접속한 후 데이터를 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미한다. 통신망(500)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Meanwhile, the
보다 구체적으로, 본 발명의 실시예에서 서버(100)는 사용자 데이터를 기초로 딥러닝을 이용하여 예상선호도를 산출하고, 예상선호도를 기초로 상품 리스트를 생성하여 사용자 단말기(200)에 제공할 수 있다. More specifically, in an embodiment of the present invention, the
이 과정에서 서버(100)는 사용자 데이터, 가상 피팅 데이터 및 실제 피팅 데이터를 기초로 인공신경망(Neural Networks)을 이용하여 상품 리스트를 제공할 수 있다. 인공신경망을 이용한 딥러닝 모듈에 대한 구체적인 설명은 도 9를 참조하여 자세히 후술하도록 한다.In this process, the
이하에서는, 안경점 시스템의 구체적인 구성에 대해 자세히 설명하도록 한다.Below, the specific configuration of the optician's system will be described in detail.
도 2는 도 1의 안경점 시스템의 각 구성요소를 설명하기 위한 블럭도이다.Figure 2 is a block diagram for explaining each component of the optical store system of Figure 1.
도 2를 참조하면, 서버(100)는 데이터 관리부(110), 상품 관리부(120), 피팅부(130), 딥러닝부(140) 및 제어부(150)를 포함할 수 있다.Referring to FIG. 2, the
구체적으로, 데이터 관리부(110)는 사용자 데이터 및 피팅 데이터를 저장 및 관리할 수 있다.Specifically, the
여기에서, 사용자 데이터는 사용자의 나이, 성별, 지역, 선호색상 및 선호 디자인 등에 관한 사용자의 인적사항을 포함할 수 있다.Here, the user data may include the user's personal information such as the user's age, gender, region, preferred color, and preferred design.
피팅 데이터는 가상 피팅 데이터 및/또는 실제 피팅 데이터를 포함할 수 있다. 여기에서, 가상 피팅 데이터는 어플리케이션 및 키오스크를 통한 사용자의 가상 피팅이력을 포함할 수 있다.Fitting data may include virtual fitting data and/or actual fitting data. Here, virtual fitting data may include the user's virtual fitting history through applications and kiosks.
또한, 실제 피팅 데이터는 키오스크를 통해 실제 피팅을 신청한 상품에 대한 사용자의 실제 피팅이력을 포함할 수 있다. 실제 피팅 데이터는 사용자의 피팅내역, 피팅시간 또는 피팅순서 중 적어도 하나를 포함할 수 있다. 이때, 실제 피팅 데이터는 키오스크를 구비한 매장에 설치된 카메라를 통해 수신될 수 있다.Additionally, actual fitting data may include the user's actual fitting history for products for which actual fitting has been requested through the kiosk. Actual fitting data may include at least one of the user's fitting history, fitting time, or fitting order. At this time, actual fitting data can be received through a camera installed in a store equipped with a kiosk.
상품 관리부(120)는 안경점 및 가맹점 관리 서버(300)로부터 제공받은 상품 데이터를 저장 및 관리할 수 있다. 여기에서, 상품 데이터는 판매상품 데이터와 연계상품 데이터를 포함할 수 있다.The
판매 상품 데이터는 안경점에서 판매하는 안경테 및 렌즈에 관한 데이터일 수 있다. 판매 상품 데이터는 상품의 품명, 가격, 색상, 디자인 및 상품의 이미지를 포함할 수 있다.Sales product data may be data about glasses frames and lenses sold at an optical store. Sales product data may include product name, price, color, design, and product image.
연계상품 데이터는 가맹점 관리 서버(300)에 미리 등록된 안경렌즈에 관한 데이터일 수 있다. 연계상품 데이터는 안경렌즈의 종류, 가격 및 판매 가맹점 정보를 포함할 수 있다.Linked product data may be data about spectacle lenses pre-registered in the affiliated
피팅부(130)는 사용자에게 상품을 피팅할 수 있다.The
구체적으로, 사용자로부터 상품에 대한 선택을 수신한 경우, 피팅부(130)는 상품 관리부(120)로부터 선택된 상품에 대한 상품 데이터를 수신할 수 있다. 이어서, 피팅부(130)는 사용자의 이미지를 수신할 수 있다. 피팅부(130)는 사용자의 이미지에 상품 데이터의 상품 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다.Specifically, when a product selection is received from the user, the
또한, 피팅부(130)는 사용자의 이미지에 표시된 사용자의 외형을 변형하여 더 표시할 수 있다. 이때, 변형가능한 외형은 헤어스타일, 메이크업, 의류, 악세사리 및 마스크를 포함할 수 있다. 사용자로부터 외형에 대한 피팅요청을 수신한 경우, 피팅부(130)는 사용자의 이미지에 사용자로부터 선택을 수신한 외형 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다.Additionally, the
또 다른 예로, 오프라인 무인 매장의 키오스크를 통해 상품에 대한 실제 피팅요청을 수신한 경우, 피팅부(130)는 상품 관리부(120)로부터 선택된 상품에 대한 상품 데이터를 수신할 수 있다. 이어서, 피팅부(130)는 상품 데이터의 상품 품번을 기초로 보관함을 잠금해제하여 사용자에게 직접 피팅가능한 실제 상품을 제공할 수 있다.As another example, when an actual fitting request for a product is received through a kiosk in an offline unmanned store, the
여기에서, 피팅부(130)는 무인 매장에 설치된 카메라를 통해 사용자의 피팅과정이 촬영된 영상 데이터를 수신할 수 있다. 피팅부(130)는 수신한 영상 데이터를 딥러닝부(140)로 전송할 수 있다.Here, the
딥러닝부(140)는 딥러닝을 이용하여 상품에 대한 사용자의 선호도를 분석할 수 있다. 구체적으로, 사용자 데이터, 피팅 데이터 및 상품 데이터를 기초로 인공신경망(Neural Networks)을 포함하는 딥러닝 모듈을 이용하여 상품에 대한 예상선호도 산출할 수 있다.The
또한, 딥러닝부(140)는 피팅부(130)에서 수신한 영상 데이터에 대해 이미지를 분석하여 실제 피팅 데이터를 추출할 수 있다. 이에 대한 자세한 내용은 도 6 및 도 7에서 자세히 설명하도록 한다.Additionally, the
제어부(150)는 딥러닝 모듈을 통해 산출된 예상선호도를 기초로 상품 리스트를 도출하여 사용자 단말기(200)에 제공할 수 있다. 또한, 상품 리스트로부터 사용자의 선택을 수신한 상품을 기초로 연계상품을 판매하는 가맹점 리스트를 도출할 수 있다.The
이하에서는, 본 발명의 실시예에 따른 무인 상품 서비스 제공 방법에 대해 설명하도록 한다.Below, a method for providing unmanned product services according to an embodiment of the present invention will be described.
도 3은 본 발명의 몇몇 실시예에 따른 무인 상품 서비스 제공 방법을 설명하기 위한 순서도이다. 도 4는 도 1의 S130 단계에서 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다. 도 5는 도 1의 S130 단계에서 사용자의 외형을 변형하여 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다. 도 6은 도 1의 S130 단계에서 키오스크를 통해 가상 피팅 이미지를 생성하는 방법을 설명하기 위한 예시도이다. 도 7은 도 6의 카메라를 통해 실제 피팅 데이터를 도출하는 방법을 설명하기 위한 순서도이다. 도 8은 도 1의 S150 단계에서 제공되는 가맹점 리스트를 설명하기 위한 예시도이다.Figure 3 is a flowchart for explaining a method of providing unmanned product services according to some embodiments of the present invention. FIG. 4 is an example diagram for explaining a method of generating a virtual fitting image in step S130 of FIG. 1. FIG. 5 is an example diagram illustrating a method of generating a virtual fitting image by modifying the user's appearance in step S130 of FIG. 1. FIG. 6 is an example diagram illustrating a method of generating a virtual fitting image through a kiosk in step S130 of FIG. 1. FIG. 7 is a flowchart explaining a method of deriving actual fitting data through the camera of FIG. 6. FIG. 8 is an example diagram illustrating the affiliated store list provided in step S150 of FIG. 1.
여기에서, 도 4의 <a1>은 사용자에게 제공되는 상품 리스트를 나타내고, <a2>는 상품을 가상으로 피팅한 가상 피팅 이미지를 나타낸다. 또한, 도 5의 <b1>은 사용자의 외형을 변형할 수 있는 가상 피팅 인터페이스를 나타내고, <b2>는 사용자의 외형이 변형 완료된 가상 피팅 이미지를 나타낸다.Here, <a1> in FIG. 4 represents a product list provided to the user, and <a2> represents a virtual fitting image in which the product is virtually fitted. Additionally, <b1> in FIG. 5 represents a virtual fitting interface that can change the user's appearance, and <b2> represents a virtual fitting image in which the user's appearance has been completely modified.
이하에서는, 상품이 안경테라고 가정하고 설명하도록 한다.Hereinafter, the description will be made assuming that the product is a glasses frame.
도 1 내지 도 8을 참조하면, 서버(100)는 사용자 데이터를 수신한다(S110). 여기에서, 서버(100)는 사용자의 로그인 정보를 기초로 사용자 데이터를 수신할 수 있다. 서버(100)는 사용자 데이터를 기초로 사용자에 대한 피팅 데이터를 수신할 수 있다. 이어서, 서버(100)는 사용자 데이터, 피팅 데이터 및 상품 데이터를 이용하여 상품 리스트(ML)를 생성할 수 있다.Referring to Figures 1 to 8, the
예를 들어, 어플리케이션에 대한 사용자의 로그인을 수신한 경우, 서버(100)는 사용자에 대한 사용자 데이터, 가상 피팅 데이터 및 상품 데이터를 수신할 수 있다. 사용자 데이터, 가상 피팅 데이터 및 상품 데이터를 기초로, 서버(100)는 딥러닝 모듈(DL)을 이용하여 상품에 대한 사용자의 선호도를 분석할 수 있다. 서버(100)는 상품 데이터에 포함된 상품별 사용자의 예상 선호도를 산출할 수 있다. 예상 선호도를 기초로, 서버(100)는 사용자에게 추천하고자 하는 상품을 상품 리스트(ML)에 표시할 수 있다.For example, when receiving a user's login to an application, the
또 다른 예로, 키오스크에 대한 사용자의 로그인을 수신한 경우, 서버(100)는 사용자 데이터, 가상 피팅 데이터, 실제 피팅 데이터 및 상품 데이터를 수신할 수 있다. 서버(100)는 딥러닝 모듈(DL)을 통해 상품별 예상 선호도를 산출하여 상품 리스트(ML)를 생성할 수 있다.As another example, when receiving a user's login to a kiosk, the
이어서, 서버(100)는 상품에 대한 사용자의 선택을 수신한다(S120).Next, the
구체적으로, 도 1, 도 3 및 도 4의 <a1>을 참조하면, 서버(100)는 생성된 상품 리스트(ML)를 표시할 수 있다. 서버(100)는 예상 선호도를 기초로 예상 선호도가 높은 순으로 상품을 나열하여 표시할 수 있다. 서버(100)는 A 안경테(MO1), B 안경테(MO2), C 안경테(MO3) 및 D 안경테(MO4)의 순서로 상품 리스트(ML)를 표시할 수 있다.Specifically, referring to <a1> in FIGS. 1, 3, and 4, the
이때, 서버(100)는 상품 리스트(ML)에 상품 이미지를 더 표시할 수 있다. 서버(100)는 상품 리스트(ML)에 A 안경테(MO1), B 안경테(MO2), C 안경테(MO3) 및 D 안경테(MO4)에 각각 대응되는 A 이미지(MI1), B 이미지(MI2), C 이미지(MI3) 및 D 이미지(MI4)를 표시할 수 있다.At this time, the
서버(100)는 상품 리스트(ML)에 표시된 A 안경테(MO1), B 안경테(MO2), C 안경테(MO3) 및 D 안경테(MO4) 중 A 안경테(MO1)에 대한 사용자의 선택을 수신할 수 있다.The
이어서, 상품을 가상 피팅하여 가상 피팅 이미지를 생성한다(S130).Next, the product is virtually fitted to create a virtual fitting image (S130).
예를 들어, 도 1, 도 3 및 도 4의 <a2>을 참조하면, 서버(100)는 어플리케이션 또는 키오스크를 통해 사용자 이미지(UI)를 수신할 수 있다. 서버(100)는 사용자 이미지(UI)에서 얼굴을 인식할 수 있다. 서버(100)는 사용자 이미지(UI)의 사용자 얼굴에 A 안경테(MO1)의 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다. 서버(100)는 생성된 가상 피팅 이미지를 표시할 수 있다.For example, referring to <a2> in FIGS. 1, 3, and 4, the
다만, 본 발명이 이에 제한되는 것은 아니고, 서버(100)는 사용자 이미지(UI)의 사용자 눈, 사용자 귀 또는 사용자 코 등을 다양하게 인식하여 A 이미지(MI1)를 결합할 수 있다.However, the present invention is not limited to this, and the
또한, 도 1, 도 3 및 도 5를 참조하면, 서버(100)는 사용자 이미지(UI)의 외형을 인식할 수 있다. 서버(100)는 인식된 외형 중 변형가능한 외형에 대한 가상 외형 카테고리(OC)를 표시할 수 있다. 즉, 가상 외형 카테고리(OC)는 사용자 이미지(UI)에 포함된 사용자의 외형 중에서 가상 피팅하여 변형할 수 있는 항목을 포함할 수 있다.Additionally, referring to FIGS. 1, 3, and 5, the
구체적으로, 서버(100)는 사용자 이미지(UI)에서 헤어, 메이크업, 의류 및 악세사리를 변형가능한 외형으로 인식할 수 있다. 서버(100)는 헤어 카테고리(HC), 메이크업 카테고리(MC), 의류 카테고리(CC) 및 악세사리 카테고리(AC)를 가상 외형 카테고리(OC)로 표시할 수 있다. 이어서, 서버(100)는 사용자로부터 변형하고자 하는 가상 외형 카테고리(OC)에 대한 선택을 수신할 수 있다.Specifically, the
예를 들어, 서버(100)는 헤어 카테고리(HC)에 대한 사용자의 선택을 수신할 수 있다. 헤어 카테고리(HC)에 대한 선택을 수신한 경우, 서버(100)는 헤어 카테고리(HC)로 표시할 헤어스타일을 헤어 항목으로 도출할 수 있다.For example, the
서버(100)는 외부 서버로부터 헤어스타일을 크롤링(Crawling)을 통해 수집할 수 있다. 여기에서, 외부 정보는 포탈 사이트 검색정보(예를 들어, 구글 등), SNS(예를 들어, 페이스북 등), 커뮤니티(예를 들어, 네이버 카페), 개인 블로그를 통해 접근 가능한 정보를 포함한다.The
이어서, 크롤링을 통해 수집된 헤어스타일 데이터와 사용자 데이터를 기초로, 서버(100)는 딥러닝을 이용하여 사용자의 헤어스타일 선호도를 산출할 수 있다. 이때, 서버(100)는 사용자 데이터에 포함된 사용자의 성별, 나이 및 선호 색 등을 기초로 사용자 데이터와 유사한 데이터를 포함하는 타사용자의 선호도를 반영하여 헤어스타일 선호도를 산출할 수 있다. 서버(100)는 헤어스타일 선호도를 기초로 헤어스타일별 순위를 산출할 수 있다.Next, based on the hairstyle data and user data collected through crawling, the
또는, 서버(100)는 미리 설정된 기간동안 외부 정보에 업로드 된 헤어스타일을 크롤링할 수 있다. 서버(100)는 크롤링을 통해 수집된 헤어스타일 데이터의 수집량 순으로 헤어스타일별 순위를 산출할 수 있다.Alternatively, the
또는, 서버(100)는 크롤링을 통해 순위가 매겨진 헤어스타일 데이터(예를 들어, 유행하는 남성 헤어스타일 1-5위 정보 등)을 수신할 수 있다.Alternatively, the
여기에서, 서버(100)는 위에 나열된 3가지의 방법 중 적어도 하나를 이용하여 헤어스타일별 순위를 산출할 수 있으나, 본 발명이 이에 제한되는 것은 아니다.Here, the
이어서, 서버(100)는 산출된 헤어스타일별 순위를 기초로 헤어 카테고리(HC)에 포함되는 헤어스타일 항목인 제1 헤어 내지 제4 헤어(HO1~HO4)를 표시할 수 있다. 이때, 헤어스타일 항목은 산출된 헤어스타일별 순위를 기초로 나열될 수 있다. 본 발명이 이에 제한되는 것은 아니며, 헤어스타일 항목은 이름순으로 나열되는 등 다양한 방법으로 나열되어 표시될 수 있다.Subsequently, the
이어서, 서버(100)는 사용자로부터 제1 헤어(HO1)에 대한 선택을 수신할 수 있다. 서버(100)는 사용자 이미지(UI)에 표시된 사용자의 헤어스타일을 제1 헤어(HO1)의 이미지(예를 들어, 갈색 염색 헤어스타일)로 변경하여 표시할 수 있다.Subsequently, the
이어서, 서버(100)는 제1 헤어(HO1)가 표시된 사용자 이미지(UI)의 사용자 얼굴에 미리 선택을 수신한 A 안경테(MO1)의 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다.Subsequently, the
다만, 본 발명이 이에 제한되는 것은 아니며, 서버(100)는 상품 이미지를 사용자 이미지(UI)에 결합한 상태로 사용자 이미지(UI)의 외형을 변형할 수 있다.However, the present invention is not limited to this, and the
이를 통해, 무인 상품 서비스 제공 방법은 사용자의 이미지에 포함된 헤어스타일을 사용자가 원하는 헤어스타일로 변형하고, 변형된 헤어스타일 이미지가 표시된 사용자 이미지에 상품 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 이에 따라, 사용자의 헤어스타일 변화에 따른 사용자의 이미지 변화를 확인할 수 있어, 사용자의 이미지에 어울리는 상품을 선택하게 함으로써 사용자의 만족도를 높일 수 있다.Through this, the unmanned product service provision method can transform the hairstyle included in the user's image into the hairstyle desired by the user and create a virtual fitting image by combining the product image with the user image displaying the modified hairstyle image. . Accordingly, changes in the user's image according to changes in the user's hairstyle can be confirmed, and user satisfaction can be increased by allowing the user to select a product that matches the user's image.
이하에서는, 중복되는 내용을 제외하고 차이점에 대해서만 서술하도록 한다.Below, only the differences will be described, excluding overlapping content.
또 다른 예로, 서버(100)는 메이크업 카테고리(MC)에 대한 사용자의 선택을 수신할 수 있다. 메이크업 카테고리(MC)에 대한 선택을 수신한 경우, 서버(100)는 메이크업 카테고리(MC)로 표시할 메이크업 스타일을 메이크업 항목으로 도출할 수 있다. 여기에서, 메이크업 스타일이란, 피부톤 및 입술색 등을 포함할 수 있다. 이하에서는, 피부톤을 메이크업 스타일이라고 가정하도록 한다.As another example, the
서버(100)는 외부 서버로부터 피부톤 데이터에 대해 크롤링을 통해 수집할 수 있다.The
이어서, 크롤링을 통해 수집된 피부톤 데이터와 사용자 데이터를 기초로, 서버(100)는 딥러닝을 이용하여 사용자의 피부톤 선호도를 산출할 수 있다. 이때, 서버(100)는 사용자 데이터와 유사한 타사용자의 선호도를 반영하여 헤어스타일 선호도를 산출하여, 피부톤별 순위를 산출할 수 있다.Next, based on the skin tone data and user data collected through crawling, the
또는, 서버(100)는 미리 설정된 기간동안 외부 정보에 업로드 된 피부톤을 크롤링하여, 피부톤 데이터의 수집량 순으로 헤어스타일별 순위를 산출할 수 있다. 서버(100)는 크롤링을 통해 순위가 매겨진 헤어스타일 데이터(예를 들어, 인기 남성 피부톤 1-5위 정보 등)을 수신할 수 있다.Alternatively, the
이어서, 서버(100)는 산출된 헤어스타일별 순위를 기초로 메이크업 카테고리(MC)에 포함되는 피부톤 항목(예를 들어, 21호 및 23호 등)을 표시할 수 있다.Subsequently, the
이어서, 피부톤 항목에 대한 사용자의 선택을 기초로, 서버(100)는 사용자 이미지(UI)의 얼굴에 대한 피부톤을 변경하여 표시할 수 있다. 서버(100)는 피부톤이 변경된 사용자 이미지(UI)에 미리 선택을 수신한 A 안경테(MO1)의 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다.Subsequently, based on the user's selection of the skin tone item, the
이를 통해, 무인 상품 서비스 제공 방법은 사용자의 이미지에 변형된 피부톤 및 상품 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 안경테라는 상품의 특성상 피부톤과 컬러 매칭에 따라 사용자의 인상이 크게 좌우될 수 있다. 이에 따라, 사용자의 피부톤 또는 사용자가 선호하는 피부톤에 어울리는 컬러의 상품을 사용자가 용이하게 선택할 수 있어 사용자가 선호하는 상품의 구매를 이끌어 낼 수 있다.Through this, the unmanned product service provision method can create a virtual fitting image by combining the user's image with the modified skin tone and product image. Due to the nature of the product called Glasses Terra, the user's impression can be greatly influenced by skin tone and color matching. Accordingly, the user can easily select a product whose color matches the user's skin tone or the user's preferred skin tone, thereby leading to the purchase of the user's preferred product.
또 다른 예로, 서버(100)는 의류 카테고리(CC)에 대한 사용자의 선택을 수신할 수 있다. 의류 카테고리(CC)에 대한 선택을 수신한 경우, 서버(100)는 의류 카테고리(CC)로 표시할 의류 정보를 의류 항목으로 도출할 수 있다. 이때, 의류 카테고리(CC)는 사용자 이미지(UI)에 표시된 사용자의 겉옷 또는 상의 등을 의류 항목으로 포함할 수 있다.As another example, the
구체적으로, 서버(100)는 의류 데이터에 대해 크롤링을 통해 수집할 수 있다.Specifically, the
이어서, 크롤링을 통해 수집된 의류 데이터와 사용자 데이터를 기초로, 서버(100)는 딥러닝을 이용하여 사용자의 의류 선호도를 산출할 수 있다. 이때, 서버(100)는 선호도를 기초로 의류별 순위를 산출할 수 있다. 또는, 서버(100)는 미리 설정된 기간동안 업로드 된 의류를 크롤링하여, 의류 데이터의 수집량 순으로 헤어스타일별 순위를 산출하거나, 순위가 포함된 의류 데이터를 수신할 수 있다.Next, based on the clothing data and user data collected through crawling, the
이어서, 서버(100)는 산출된 의류별 순위를 기초로 의류 카테고리(CC)에 포함되는 의류 항목(예를 들어, 상의인 경우, 와이셔츠, 반팔셔츠 및 긴팔셔츠 등)을 표시할 수 있다.Next, the
이어서, 의류 항목에 대한 사용자의 선택을 기초로, 서버(100)는 사용자 이미지(UI)에 포함된 사용자의 의류 이미지를 변경하여 표시할 수 있다. 서버(100)는 의류가 변경된 사용자 이미지(UI)에 A 안경테(MO1)의 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다.Subsequently, based on the user's selection of the clothing item, the
이를 통해, 무인 상품 서비스 제공 방법은 의류가 변형되어 표시된 사용자의 이미지에 상품 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 이에 따라, 사용자는 착용하는 의류에 따라 어울리는 상품을 확인하기 쉬워 상품선택에 대한 사용자의 편의성을 향상시킬 수 있다.Through this, the unmanned product service provision method can create a virtual fitting image by combining the product image with the user's image displayed with transformed clothing. Accordingly, users can easily check products that match the clothes they wear, thereby improving user convenience in product selection.
또 다른 예로, 서버(100)는 악세사리 카테고리(AC)에 대한 사용자의 선택을 수신할 수 있다. 악세사리 카테고리(AC)에 대한 선택을 수신한 경우, 서버(100)는 악세사리 항목을 도출할 수 있다. 이때, 악세사리 항목은 목걸이, 모자 및 마스크 등을 포함할 수 있다. 악세사리 항목은 사용자 이미지(UI) 내 악세사리 유무와 관계없이 사용자 이미지(UI)에 결합되어 표시될 수 있다.As another example, the
서버(100)는 악세사리 데이터에 대해 크롤링을 통해 수집할 수 있다. 크롤링을 통해 수집된 악세사리 데이터와 사용자 데이터를 기초로, 서버(100)는 딥러닝을 이용하여 사용자의 악세사리별 선호도를 산출할 수 있다. 또는, 미리 설정된 기간동안 업로드 된 악세사리를 크롤링하여, 악세사리별 악세사리 데이터의 수집량을 산출할 수 있다. 또한, 순위가 포함된 악세사리 데이터를 수신할 수 있다.The
이어서, 서버(100)는 악세사리별 순위를 산출하고, 악세사리 카테고리(AC)에 포함되는 악세사리 항목을 표시할 수 있다.Next, the
악세사리 항목에 대한 사용자의 선택을 기초로, 서버(100)는 사용자 이미지(UI)에 포함된 악세사리 이미지를 변경하거나, 악세사리 이미지를 결합할 수 있다. 서버(100)는 악세사리 이미지가 결합된 사용자 이미지(UI)에 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다.Based on the user's selection of an accessory item, the
이를 통해, 무인 상품 서비스 제공 방법은 사용자 이미지에 악세사리 이미지 및 상품 이미지를 결합하여 가상 피팅 이미지를 생성할 수 있다. 이에 따라, 사용자는 착용하고자 하는 악세사리에 어울리는 상품을 구매하여 착용함으로써, 악세사리와 상품의 일체감을 형성할 수 있다.Through this, the unmanned product service provision method can create a virtual fitting image by combining the user image with the accessory image and product image. Accordingly, the user can create a sense of unity between the accessory and the product by purchasing and wearing a product that matches the accessory they want to wear.
추가적으로, 가상 외형 카테고리(OC)는 마스크 카테고리를 더 포함할 수 있다. 서버(100)는 마스크 카테고리에 대한 사용자의 선택을 수신하고, 마스크 항목을 도출할 수 있다. 여기에서, 마스크 항목은 3D 입체형 마스크, 새부리형 2D 마스크 및 평면형 마스크(예를 들어, 덴탈 마스크 및 일회용 마스크) 등을 포함할 수 있다. 이때, 마스크 항목은 흰색 및 검정색 등 다양한 색의 마스크를 표시할 수 있으나 본 발명이 이에 제한되는 것은 아니다.Additionally, the virtual appearance category (OC) may further include a mask category. The
마스크 항목은 사용자 이미지(UI) 내 마스크 착용유무와 관계없이 사용자 이미지(UI)에 결합되어 표시될 수 있다.The mask item can be displayed combined with the user image (UI) regardless of whether the user is wearing a mask in the image (UI).
서버(100)는 마스크 데이터에 대해 크롤링을 통해 수집할 수 있다. 크롤링을 통해 수집된 마스크 데이터와 사용자 데이터를 기초로, 서버(100)는 딥러닝을 이용하여 사용자의 마스크 종류별 선호도를 산출할 수 있다. 이어서, 서버(100)는 마스크 종류별 순위를 산출하고, 마스크 카테고리에 포함되는 마스크 항목을 표시할 수 있다. 그러나, 본 발명이 이에 제한되는 것은 아니며 다양하게 변형되어 실시될 수 있다.The
마스크 항목에 대한 사용자의 선택을 기초로, 서버(100)는 사용자 이미지(UI)에 포함된 마스크 이미지를 선택된 마스크 이미지로 변경할 수 있다. 또한, 사용자 이미지(UI)에 마스크가 포함되지 않은 경우, 선택된 마스크 이미지를 결합할 수 있다. 서버(100)는 마스크 이미지가 결합된 사용자 이미지(UI)에 A 이미지(MI1)를 결합하여 가상 피팅 이미지를 생성할 수 있다.Based on the user's selection of the mask item, the
또한, 도 1, 도 6 및 도 7을 참조하면, 사용자가 무인매장에 간 경우, 서버(100)는 키오스크(KO)를 통해 사용자의 가상 피팅 이미지를 생성하고, 가상 피팅에 사용된 상품의 이미지에 대한 실제 상품 착용을 제공할 수 있다.In addition, referring to FIGS. 1, 6, and 7, when a user goes to an unmanned store, the
구체적으로, 서버(100)는 키오스크(KO)를 통해 사용자 계정의 로그인 및 사용자 이미지(UI)를 수신할 수 있다. 여기에서, 사용자 계정의 로그인과 동시에, 서버(100)는 무인매장에 설치된 카메라(CM)를 이용하여 사용자를 촬영할 수 있다. 다만, 본 발명이 이에 제한되는 것은 아니며, 서버(100)는 사용자로부터 실제 상품에 대한 피팅요청을 수신하는 경우, 카메라(CM)를 통해 촬영을 시작할 수 있다.Specifically, the
이어서, 서버(100)는 수신한 사용자 이미지(UI)를 키오스크(KO)의 화면에 표시할 수 있다. 서버(100)는 키오스크(KO)에 표시된 가상 외형 카테고리(OC)를 통해 변경요청을 수신한 외형을 변형할 수 있다. 또한, 외형이 변형되어 표시된 사용자 이미지(UI)에 사용자에 의해 선택된 상품에 대한 상품 이미지(예를 들어, A 이미지(MI1))를 결합하여 가상 피팅 이미지를 생성할 수 있다.Subsequently, the
이어서, 서버(100)는 키오스크(KO)를 통해 사용자로부터 상품에 대한 실제 피팅요청을 수신할 수 있다. 서버(100)는 실제 피팅요청을 수신한 상품에 대한 상품 데이터를 기초로 실제 상품이 보관된 보관함(OL)의 위치를 추출할 수 있다.Subsequently, the
서버(100)는 추출된 위치에 해당하는 보관함(OL)을 잠금해제하여 사용자에게 실제 상품을 제공할 수 있다. 사용자는 실제 상품을 착용함으로써, 상품을 실제로 피팅해볼 수 있다. 서버(100)는 무인매장에 설치된 카메라(CM)를 통해 촬영된 사용자의 피팅과정을 영상 데이터로 수신할 수 있다.The
서버(100)는 수신한 영상 데이터를 이용하여 실제 피팅 데이터를 추출할 수 있다.The
구체적으로, 서버(100)는 카메라(CM)를 통해 실제 피팅과정이 촬영된 영상 데이터를 수신한다(S231). 서버(100)는 키오스크(KO)를 통해 사용자의 로그인을 수신한 시각으로부터 사용자의 로그아웃을 수신한 시각까지의 영상 데이터를 수신할 수 있다.Specifically, the
이어서, 영상 데이터를 분석하여 피팅내역, 피팅시간 또는 피팅순서 중 적어도 하나를 도출한다(S233).Next, the image data is analyzed to derive at least one of fitting details, fitting time, or fitting order (S233).
구체적으로, 서버(100)는 영상 데이터에 포함된 실제 상품이 보관된 보관함(OL)의 이미지 또는 사용자가 착용한 실제 상품의 이미지에 대해 딥러닝을 이용하여 이미지 분석을 실행할 수 있다.Specifically, the
예를 들어, 서버(100)는 영상 데이터로부터 사용자가 실제 상품을 꺼내며 열린 보관함(OL)의 이미지 또는 실제 상품이 꺼내진 후 열려있는 보관함(OL)의 이미지를 추출할 수 있다. 이어서, 서버(100)는 이미지에 포함된 열린 상태의 보관함(OL)의 위치를 추출할 수 있다. 서버(100)는 2번째줄 중간 위치의 보관함(OL)을 도출할 수 있다. 서버(100)는 상품 데이터에 포함된 실제 상품 보관 위치와 도출된 보관함(OL)의 위치를 비교하여 상품을 도출할 수 있다.For example, the
또 다른 예로, 서버(100)는 영상 데이터를 통해 사용자가 착용한 실제 상품의 이미지를 추출할 수 있다. 이어서, 서버(100)는 실제 상품의 이미지와 상품 데이터에 포함된 상품 이미지를 비교하여 상품을 도출할 수 있다.As another example, the
이어서, 서버(100)는 사용자의 영상 데이터에서 도출한 모든 상품을 사용자의 피팅내역으로 추출할 수 있다. 또한, 영상 데이터에서 추출된 상품의 도출순서를 피팅순서로 추출할 수 있다.Subsequently, the
또한, 서버(100)는 상품에 대한 사용자의 착용시점과 탈착시점을 이용하여 피팅시간을 산출할 수 있다. 서버(100)는 영상 데이터에 포함된 사용자의 얼굴을 인식할 수 있다. 서버(100)는 사용자의 얼굴에 실제 상품이 착용되는 제1 시각을 도출할 수 있다. 즉, 서버(100)는 사용자의 얼굴 이미지에 실제 상품의 이미지가 결합되는 영상 데이터의 이미지를 추출할 수 있다. 서버(100)는 추출된 영상 데이터의 이미지가 촬영된 제1 시각을 도출할 수 있다.Additionally, the
이어서, 서버(100)는 사용자가 사용자의 얼굴에서 실제 상품을 탈착하는 제2 시각을 도출할 수 있다. 서버(100)는 제1 시각 및 제2 시각을 이용하여 상품별 피팅시간을 산출할 수 있다.Subsequently, the
도출된 피팅내역, 피팅시간 및 피팅순서를 사용자의 실제 피팅 데이터로 저장한다(S235). 서버(100)는 상품별 실제 피팅 데이터를 사용자의 계정에 저장할 수 있다.The derived fitting details, fitting time, and fitting order are saved as the user's actual fitting data (S235). The
상품별 가상 피팅 데이터 및 실제 피팅 데이터는 추후에 사용자에게 신제품을 제안하거나 정기적으로 추가 구매 광고를 제안할 때 사용될 수 있다. 즉, 가상 피팅 데이터 및 실제 피팅 데이터를 이용한 예상선호도에 따라서 신제품의 예상선호도가 높을 경우 사용자에게 서버가 구매 제안을 전송할 수 있다. 이와 같이 예상선호도를 이용하여 구매 제안을 전송하는 경우, 그렇지 않은 경우보다 더 높은 구매율을 가질 수 있다.Virtual fitting data and actual fitting data for each product can be used later to suggest new products to users or to regularly suggest additional purchase advertisements. In other words, if the predicted preference for a new product is high according to the predicted preference using virtual fitting data and actual fitting data, the server can send a purchase proposal to the user. In this way, when a purchase proposal is transmitted using predicted preference, the purchase rate can be higher than when it is not sent.
이어서, 서버(100)는 상품에 대한 구매요청을 수신한다(S140).Next, the
여기에서, 서버(100)는 어플리케이션 또는 키오스크를 통해 상품에 대한 구매요청을 수신할 수 있다. 서버(100)는 사용자 데이터에 포함된 사용자의 주소로 상품을 배송요청 할 수 있다.Here, the
다만, 본 발명이 이에 제한되는 것은 아니며, 키오스크를 통해 구매요청을 수신한 경우, 서버(100)는 키오스크가 설치된 무인 매장에 상품의 재고가 남아있는지 확인할 수 있다. 재고가 남아있는 경우, 서버(100)는 사용자에게 상품을 즉시 제공할 수 있다.However, the present invention is not limited to this, and when a purchase request is received through a kiosk, the
상품의 연계상품을 판매하는 가맹점 리스트를 제공한다(S150).Provides a list of affiliated stores selling product-linked products (S150).
구체적으로, 도 1, 도 3 및 도 8을 참조하면, 서버(100)는 사용자로부터 구매요청을 수신한 상품에 연계된 연계상품을 도출할 수 있다. 예를 들어, 안경테에 대한 구매요청을 수신한 경우, 서버(100)는 안경테에 결합가능한 안경렌즈를 연계상품으로 도출할 수 있다.Specifically, referring to FIGS. 1, 3, and 8, the
이어서, 서버(100)는 가맹점 관리 서버(300)를 통해 수신한 연계상품 데이터를 기초로, 안경렌즈를 판매하는 가맹점을 도출할 수 있다. 서버(100)는 안경렌즈를 판매하는 A 가맹점(FO1), B 가맹점(FO2) 및 C 가맹점(FO3)을 도출할 수 있다. 이때, 서버(100)는 연계상품 데이터에 포함된 안경렌즈의 재고개수가 하나 이상인 가맹점을 도출할 수 있다.Next, the
이어서, 서버(100)는 A 가맹점(FO1), B 가맹점(FO2) 및 C 가맹점(FO3)에 대한 가맹점 데이터를 수신할 수 있다. 서버(100)는 가맹점 데이터에 포함된 가맹점 위치정보와 사용자 데이터에 포함된 사용자 위치정보를 이용하여 각 가맹점과 사용자 간의 거리(이하, 사이거리)를 산출할 수 있다.Subsequently, the
서버(100)는 산출된 사이거리를 이용하여 A 가맹점(FO1), B 가맹점(FO2) 및 C 가맹점(FO3)을 가맹점 리스트(FL)에 표시할 수 있다. 예를 들어, 서버(100)는 사이거리가 짧은 순으로 가맹점을 나열하여 표시할 수 있다. 사이거리가 0m로 산출된 A 가맹점(FO1)을 가맹점 리스트(FL)의 맨 상단에 표시할 수 있다. 이어서, 서버(100)는 사이거리가 50m인 B 가맹점(FO2) 및 사이거리가 100m인 C 가맹점(FO3)을 표시할 수 있다.The
추가적으로, 서버(100)는 가맹점 리스트(FL)에 연계상품 데이터에 포함된 가맹점별 안경렌즈 가격을 더 표시할 수 있다. 서버(100)는 사용자의 설정에 따라 가맹점 리스트(FL)의 가맹점 표시 순서를 사이거리 또는 가격순으로 설정할 수 있다. 다만, 본 발명이 이에 제한되는 것은 아니다.Additionally, the
도 9는 본 발명의 몇몇 실시예에서 이용되는 딥러닝 모듈의 구성을 도시한 도면이다.Figure 9 is a diagram showing the configuration of a deep learning module used in some embodiments of the present invention.
도 9를 참조하면, 딥러닝 모듈(DL)은 빅데이터를 기초로 학습된 인공신경망을 이용하여 무인 상품 서비스 제공 방법에 필요한 예상선호도 및 실제 피팅 데이터를 도출할 수 있다.Referring to FIG. 9, the deep learning module (DL) can use an artificial neural network learned based on big data to derive predicted preferences and actual fitting data required for an unmanned product service provision method.
보다 자세히 설명하자면, 머신 러닝(Machine Learning)의 일종인 딥러닝(Deep Learning) 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 것이다. 즉, 딥러닝(Deep learning)은, 단계를 높여가면서 복수의 데이터들로부터 핵심적인 데이터를 추출하는 머신 러닝(Machine Learning) 알고리즘의 집합을 나타낸다.To explain in more detail, Deep Learning technology, a type of Machine Learning, learns at a deep level in multiple stages based on data. In other words, deep learning represents a set of machine learning algorithms that extract key data from a plurality of data at increasing levels.
딥러닝 모듈(DL)은 공지된 다양한 딥러닝 구조를 이용할 수 있다. 예를 들어, 딥러닝 모듈(DL)은 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network), GNN(Graph Neural Network) 등의 구조를 이용할 수 있다.The deep learning module (DL) can use various known deep learning structures. For example, a deep learning module (DL) may use structures such as Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), Deep Belief Network (DBN), and Graph Neural Network (GNN).
한편, 딥러닝 모듈(DL)의 인공신경망 학습은 주어진 입력에 대하여 원하는 출력이 나오도록 노드간 연결선의 웨이트(weight)를 조정(필요한 경우 바이어스(bias) 값도 조정)함으로써 이루어질 수 있다. 또한, 인공신경망은 학습에 의해 웨이트(weight) 값을 지속적으로 업데이트시킬 수 있다. 또한, 인공신경망의 학습에는 역전파(Back Propagation) 등의 방법이 사용될 수 있다.Meanwhile, artificial neural network learning of the deep learning module (DL) can be accomplished by adjusting the weight of the connection line between nodes (adjusting the bias value if necessary) so that the desired output is produced for a given input. Additionally, artificial neural networks can continuously update weight values through learning. Additionally, methods such as back propagation can be used to learn artificial neural networks.
한편, 서버(100)의 메모리에는 머신 러닝으로 미리 학습된 인공신경망(Artificial Neural Network)이 탑재될 수 있다.Meanwhile, an artificial neural network previously trained through machine learning may be installed in the memory of the
즉, 딥러닝 모듈(DL)은 머신 러닝(machine learning)을 기반으로, 사용자 데이터, 피팅 데이터 및 상품 데이터를 입력 데이터로 하여, 예상선호도 출력하는 동작을 수행할 수 있다. 또한, 딥러닝 모듈(DL)은 머신 러닝(machine learning)을 기반으로, 영상 데이터를 입력 데이터로 하여, 실제 피팅 데이터를 출력하는 동작을 수행할 수 있다.In other words, the deep learning module (DL) can perform the operation of outputting predicted preferences based on machine learning, using user data, fitting data, and product data as input data. Additionally, the deep learning module (DL) can perform an operation to output actual fitting data using image data as input data based on machine learning.
이때, 인공신경망의 머신 러닝 방법으로는 준지도학습(semi-supervised learning)과 지도학습(supervised learning)이 모두 사용될 수 있다. 또한, 딥러닝 모듈(DL)은 설정에 따라 학습 후 예상선호도 및 실제 피팅 데이터를 출력하기 위한 인공신경망 구조를 자동 업데이트하도록 제어될 수 있다.At this time, both semi-supervised learning and supervised learning can be used as machine learning methods for artificial neural networks. Additionally, the deep learning module (DL) can be controlled to automatically update the artificial neural network structure for outputting predicted preference and actual fitting data after learning according to settings.
추가적으로, 도면에 명확하게 도시하지는 않았으나, 본 발명의 다른 실시예에서, 딥러닝 모듈(DL)의 동작은 서버(100) 또는 별도의 클라우드 서버(미도시)에서 실시될 수 있다.Additionally, although not clearly shown in the drawing, in another embodiment of the present invention, the operation of the deep learning module (DL) may be performed in the
여기에서, 딥러닝 모듈(DL)은 사용자 데이터, 피팅 데이터 및/또는 상품 데이터를 입력노드로 하는 입력 레이어(input)와, 사용자의 예상선호도를 출력노드로 하는 출력 레이어(Output)와, 입력 레이어와 출력 레이어 사이에 배치되는 M 개의 히든 레이어를 포함한다.Here, the deep learning module (DL) includes an input layer (input) with user data, fitting data, and/or product data as input nodes, an output layer (output) with the user's expected preference as an output node, and an input layer. It includes M hidden layers placed between the and output layers.
여기서, 각 레이어들의 노드를 연결하는 에지(edge)에는 가중치가 설정될 수 있다. 이러한 가중치 혹은 에지의 유무는 학습 과정에서 추가, 제거, 또는 업데이트 될 수 있다. 따라서, 학습 과정을 통하여, k개의 입력노드와 i개의 출력노드 사이에 배치되는 노드들 및 에지들의 가중치는 업데이트될 수 있다.Here, weights may be set on the edges connecting the nodes of each layer. The presence or absence of these weights or edges can be added, removed, or updated during the learning process. Therefore, through the learning process, the weights of nodes and edges arranged between k input nodes and i output nodes can be updated.
딥러닝 모듈(DL)이 학습을 수행하기 전에는 모든 노드와 에지는 초기값으로 설정될 수 있다. 그러나, 누적하여 정보가 입력될 경우, 노드 및 에지들의 가중치는 변경되고, 이 과정에서 학습인자로 입력되는 파라미터들(즉, 사용자 데이터, 피팅 데이터, 상품 데이터 및/또는 영상 데이터)과 출력노드로 할당되는 값(예상선호도 및/또는 실제 피팅 데이터) 사이의 매칭이 이루어질 수 있다. Before the deep learning module (DL) performs learning, all nodes and edges can be set to initial values. However, when information is input cumulatively, the weights of nodes and edges change, and in this process, the parameters input as learning factors (i.e., user data, fitting data, product data, and/or image data) and output nodes are changed. Matching between assigned values (expected preference and/or actual fitting data) can be achieved.
추가적으로, 클라우드 서버를 이용하는 경우, 딥러닝 모듈(DL)은 많은 수의 파라미터들을 수신하여 처리할 수 있다. 따라서, 딥러닝 모듈(DL)은 방대한 데이터에 기반하여 학습을 수행할 수 있다.Additionally, when using a cloud server, the deep learning module (DL) can receive and process a large number of parameters. Therefore, the deep learning module (DL) can perform learning based on massive data.
또한, 딥러닝 모듈(DL)을 구성하는 입력노드와 출력노드 사이의 노드 및 에지의 가중치는 딥러닝 모듈(DL)의 학습 과정에 의해 업데이트될 수 있다. 또한, 딥러닝 모듈(DL)에서 출력되는 파라미터는 예상선호도 외에도 다양한 데이터로 추가 확장될 수 있음은 물론이다.In addition, the weights of nodes and edges between the input nodes and output nodes constituting the deep learning module (DL) may be updated by the learning process of the deep learning module (DL). In addition, of course, the parameters output from the deep learning module (DL) can be further expanded to various data in addition to expected preferences.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present embodiment, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but rather to explain it, and the scope of the technical idea of the present embodiment is not limited by these examples. The scope of protection of this embodiment should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this embodiment.
Claims (10)
사용자의 인적사항이 기록된 사용자 데이터를 수신하는 단계;상기 사용자 데이터를 기초로 상기 딥러닝 모듈을 이용하여 예상선호도를 산출하는 단계;
상기 예상선호도를 기초로 상품리스트를 생성하는 단계;
상기 상품리스트를 상기 사용자에게 사용자 단말기를 통해 제공하는 단계;
상기 사용자로부터 상품에 대한 선택을 수신하는 단계;
상기 선택한 상품에 대한 상기 사용자의 피팅 데이터를 생성하는 단계;
상기 상품에 대한 구매요청을 수신하는 단계; 및
상기 상품에 대한 연계상품을 판매하는 가맹점의 위치와 상기 사용자의 위치를 이용하여 가맹점 리스트를 제공하는 단계를 포함하되,
상기 선택한 상품에 대한 상기 사용자의 피팅 데이터를 생성하는 것은,
가상 피팅 데이터를 생성하는 것과 실제 피팅 데이터를 생성하는 것을 포함하고,
상기 가상 피팅 데이터를 생성하는 것은,
키오스크를 통해 상기 사용자의 이미지를 수신하고,
상기 사용자의 이미지에 변형을 가하여 변형 모습을 생성하고,
상기 변형 모습에 상기 선택한 상품의 이미지를 결합하여 상기 사용자의 가상 피팅 데이터를 생성하는 것을 포함하고,
상기 실제 피팅 데이터를 생성하는 것은,
상기 사용자로부터 상기 키오스크를 통해 상기 선택한 상품의 실제 피팅 요청을 수신하고,
상기 선택한 상품이 보관된 보관함의 위치를 서버에서 추출하고,
상기 서버가 상기 보관함을 잠금해제하여 상기 사용자가 상기 선택한 상품을 실제로 획득하게 하고,
카메라를 통해 상기 키오스크와 다른 위치에서 상기 사용자의 상기 선택한 상품의 실제 피팅과정을 촬영하고,
상기 실제 피팅과정을 영상 데이터로 수신하여 실제 피팅 데이터를 생성하는 것을 포함하고,
상기 실제 피팅 데이터와 상기 가상 피팅 데이터가 함께 이용되어 상기 딥러닝 모듈을 통해 상기 사용자의 예상선호도를 산출하는 것을 포함하고,
상기 실제 피팅 데이터는 상기 영상 데이터에서 추출된 상기 사용자의 피팅시간을 포함하고,
상기 피팅시간은 상기 사용자가 상기 상품을 착용한 제1 시각에서부터 상기 사용자가 상기 상품을 탈착하는 제2 시각을 이용하여 산출되는,
무인 상품 서비스 제공 방법.
In a method of providing unmanned product services performed by a server including a deep learning module,
Receiving user data in which the user's personal information is recorded; Calculating expected preference using the deep learning module based on the user data;
Generating a product list based on the expected preference;
providing the product list to the user through a user terminal;
Receiving a selection of a product from the user;
generating fitting data of the user for the selected product;
Receiving a purchase request for the product; and
Including providing a list of affiliated stores using the location of the affiliated store selling a linked product for the product and the location of the user,
Generating the user's fitting data for the selected product,
Including generating virtual fitting data and generating actual fitting data,
Generating the virtual fitting data includes:
Receive the user's image through a kiosk,
Applying transformations to the user's image to create a transformed appearance,
Generating virtual fitting data for the user by combining the image of the selected product with the modified appearance,
Generating the actual fitting data is,
Receiving a request for actual fitting of the selected product from the user through the kiosk,
Extract from the server the location of the storage box where the selected product is stored,
the server unlocks the locker so that the user actually obtains the selected product;
Photographing the actual fitting process of the user's selected product at a location different from the kiosk through a camera,
Including receiving the actual fitting process as image data and generating actual fitting data,
Including using the actual fitting data and the virtual fitting data together to calculate the user's expected preference through the deep learning module,
The actual fitting data includes the user's fitting time extracted from the image data,
The fitting time is calculated using the first time when the user puts on the product to the second time when the user detaches the product,
How to provide unmanned product services.
상기 변형 모습과 상기 상품의 이미지를 결합하여 가상 피팅 데이터를 생성하는 것은,
상기 사용자의 이미지에 외형 이미지를 결합하는 것을 포함하되, 상기 외형 이미지는 헤어스타일, 메이크업, 의류, 악세사리 또는 마스크에 대한 이미지 중 적어도 하나를 포함하는
무인 상품 서비스 제공 방법.
According to claim 1,
Generating virtual fitting data by combining the deformed appearance and the image of the product,
Combining an appearance image with the user's image, wherein the appearance image includes at least one of an image for a hairstyle, makeup, clothing, accessories, or a mask.
How to provide unmanned product services.
상기 사용자의 이미지에 외형 이미지를 결합하는 것은,
상기 외형 이미지에 대한 카테고리를 표시하고,
상기 카테고리에 대해 크롤링을 이용하여 상기 외형 이미지의 항목을 수집하는 것을 포함하는
무인 상품 서비스 제공 방법.
According to clause 8,
Combining the external image with the user's image,
Displays a category for the external image,
Including collecting items of the appearance image using crawling for the category.
How to provide unmanned product services.
상기 가맹점 리스트를 제공하는 단계는,
상기 사용자의 위치와 상기 가맹점 간의 거리를 산출하고,
상기 산출된 거리가 짧은 순으로 상기 가맹점을 나열하여 상기 가맹점 리스트를 생성하는 것을 포함하는
무인 상품 서비스 제공 방법.
According to claim 1,
The step of providing the affiliated store list is,
Calculate the distance between the user's location and the affiliated store,
Including generating the affiliated store list by listing the affiliated stores in descending order of the calculated distance.
How to provide unmanned product services.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210116591A KR102646540B1 (en) | 2021-09-01 | 2021-09-01 | Method for providing unmanned goods service |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210116591A KR102646540B1 (en) | 2021-09-01 | 2021-09-01 | Method for providing unmanned goods service |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230033531A KR20230033531A (en) | 2023-03-08 |
KR102646540B1 true KR102646540B1 (en) | 2024-03-12 |
Family
ID=85508009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210116591A KR102646540B1 (en) | 2021-09-01 | 2021-09-01 | Method for providing unmanned goods service |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102646540B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116229643B (en) * | 2023-05-09 | 2023-07-04 | 北京惠朗时代科技有限公司 | Safe deposit cabinet discernment management system based on thing networking |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101922713B1 (en) * | 2018-08-31 | 2019-02-20 | 이준호 | User terminal, intermediation server, system and method for intermediating optical shop |
KR102271063B1 (en) * | 2020-08-18 | 2021-06-29 | 정윤호 | Method for performing virtual fitting, apparatus and system thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170060740A (en) * | 2015-11-25 | 2017-06-02 | 박진수 | Offline Fashion-sales Active System |
-
2021
- 2021-09-01 KR KR1020210116591A patent/KR102646540B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101922713B1 (en) * | 2018-08-31 | 2019-02-20 | 이준호 | User terminal, intermediation server, system and method for intermediating optical shop |
KR102271063B1 (en) * | 2020-08-18 | 2021-06-29 | 정윤호 | Method for performing virtual fitting, apparatus and system thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20230033531A (en) | 2023-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Luce | Artificial intelligence for fashion: How AI is revolutionizing the fashion industry | |
Guan et al. | Apparel recommendation system evolution: an empirical review | |
CN105637512B (en) | For creating the method and system of customed product | |
US20180218433A1 (en) | System and Method for Fashion Recommendations | |
CN109840825A (en) | The recommender system of physical features based on user | |
US20190188784A1 (en) | System, platform, device and method for personalized shopping | |
WO2018012136A1 (en) | Makeup assistance device and makeup assistance method | |
CN109154983A (en) | It is configured as the wear-type display system of exchange biometric information | |
KR102185638B1 (en) | System of total coordination proposal with most famous full fashion style by using AI and operating method thereof | |
US11157988B2 (en) | System and method for fashion recommendations | |
GB2458388A (en) | A collaborative online shopping environment, virtual mall, store, etc. in which payments may be shared, products recommended and users modelled. | |
KR102223444B1 (en) | Service system for providing integrated personal clothing coordination | |
CN108037823A (en) | Information recommendation method, Intelligent mirror and computer-readable recording medium | |
KR20130027801A (en) | User terminal for style matching, style matching system using the user terminal and method thereof | |
US20180247356A1 (en) | Computer implemented platform for the creation of a virtual product | |
KR20190097815A (en) | System for recommending total beauty style | |
CN105374057A (en) | Virtual try-on apparatus and virtual try-on method | |
CN108109049A (en) | Clothing matching Forecasting Methodology, device, computer equipment and storage medium | |
US11544768B2 (en) | System and method for fashion recommendations | |
KR102271063B1 (en) | Method for performing virtual fitting, apparatus and system thereof | |
KR20200066970A (en) | Method and system for automatic, customized outfit coordination, product recommendation and information management based on user's fashion item possession and preference | |
KR102646540B1 (en) | Method for providing unmanned goods service | |
KR20220021122A (en) | Apparatus and method for recommending of fashion coordination | |
KR20190097615A (en) | apparatus and method for determining manufacture quantitybased on data related to design | |
US11526925B2 (en) | System and method for fashion recommendations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |