WO2021107642A2 - 패션 정보 제공 방법, 장치 및 시스템 - Google Patents

패션 정보 제공 방법, 장치 및 시스템 Download PDF

Info

Publication number
WO2021107642A2
WO2021107642A2 PCT/KR2020/016970 KR2020016970W WO2021107642A2 WO 2021107642 A2 WO2021107642 A2 WO 2021107642A2 KR 2020016970 W KR2020016970 W KR 2020016970W WO 2021107642 A2 WO2021107642 A2 WO 2021107642A2
Authority
WO
WIPO (PCT)
Prior art keywords
sample data
data
information
fashion
user
Prior art date
Application number
PCT/KR2020/016970
Other languages
English (en)
French (fr)
Other versions
WO2021107642A3 (ko
Inventor
유애리
Original Assignee
오드컨셉 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오드컨셉 주식회사 filed Critical 오드컨셉 주식회사
Priority to JP2022529514A priority Critical patent/JP2023503575A/ja
Priority to US17/780,790 priority patent/US20220414755A1/en
Publication of WO2021107642A2 publication Critical patent/WO2021107642A2/ko
Publication of WO2021107642A3 publication Critical patent/WO2021107642A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • G06Q30/0625Directed, with specific intent or strategy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Definitions

  • the present invention relates to a method of providing an expected fit when wearing a fashion item.
  • a method, apparatus, and apparatus for providing predicted fit data in which models having various heights, weights, and body features wear specific fashion items or generate sample data through 3D scanning and provide an expected fit based on user body information, and It is about computer programs.
  • the user determines whether or not it will suit him based on the wearing shot of the model wearing the product in the online shopping mall. For example, compare the model's height, weight, skin color, proportion, whether the arms are long, whether the waist is large compared to the thighs, or the thighs are thin with the body characteristics of the model, and whether the product is suitable for you will judge
  • each human body has different height, weight, and body characteristics, and in particular, not only the factors that can be quantified numerically such as height and weight, but also the “fit” of the human feeling when wearing a specific product is quantified numerically. This is because the body of the same height and weight can show different fit.
  • the present invention is to solve the above problem, and although a specific fashion item has the same size, the fit may be different for each user, and an object of the present invention is to provide expected fit data in order to reduce the error.
  • the present invention relates to a method, apparatus and system for providing fashion information.
  • the fashion information providing system includes a sample data generating unit that generates sample data in which the same fashion items of various sizes are matched according to human body information, and sample data for storing the sample data. and a predicted fit data provider configured to receive fashion item information and user body information from a storage unit and the user device, and generate predicted fit data by referring to the sample data stored in the sample data storage, wherein the predicted fit data includes: When a user selects the fashion item, it is data that can be referenced for size or fit.
  • the method for providing fashion information includes the steps of: generating sample data in which the same fashion items of various sizes are matched according to human body information; storing the sample data; and fashion from a user device. receiving item information and user body information, and generating predicted fit data by referring to the sample data stored in the sample data storage unit, wherein the predicted fit data is used when the user selects the fashion item. Or, it is data that can be referenced for fit.
  • the fit may be different for each user, and there is an effect of reducing an error.
  • FIG. 1 is a diagram for explaining a system for providing fashion information according to an embodiment of the present invention.
  • FIG. 2 is a diagram for explaining basic sample data according to an embodiment of the present invention.
  • FIG. 3 is a diagram for explaining model sample data according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a basic operation of a system for providing fashion information according to an embodiment of the present invention.
  • step S501 of FIG. 4 is a flowchart for describing in detail an embodiment of step S501 of FIG. 4 .
  • step S501 of FIG. 4 is a flowchart for describing in detail another embodiment of step S501 of FIG. 4 .
  • FIG. 7 is a flowchart for explaining an embodiment of the present invention implemented in an offline store.
  • first and/or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one element from another element, for example, without departing from the scope of the present invention, a first element may be called a second element, and similarly The second component may also be referred to as the first component.
  • FIG. 1 is a view for explaining a system for providing fashion information according to an embodiment of the present invention.
  • the fashion information providing system 50 may include a user device 100 and a service server 200 .
  • the user device 100 may include a mobile phone, a smart phone, an MP3 player, a laptop computer, a desktop computer, a game console, a TV, a tablet PC, or an in-vehicle infotainment system.
  • the user may select a favorite fashion item from the online shopping mall in the user device 100 and transmit it to the service server 200 .
  • the service server 200 may provide the user with predicted fit data in which the fashion item selected by the user is coordinated, and the user may refer to the predicted fit data when determining whether to purchase the corresponding fashion item.
  • the predicted fit data may be data that a user may refer to for size or fit when selecting a fashion item.
  • Existing online shopping malls do not reflect the various physical characteristics of human beings, but simply provide sizes that are expected to fit roughly according to height and weight.
  • the fit may be information expressing a human feeling when a specific product is worn.
  • the desired fit may vary depending on the style pursued by each user. Therefore, the existing method of simply recommending a size according to height and weight may not accurately reflect the needs of a user who wants to find a fashion item that suits them.
  • the service server 200 may receive the fashion item information and the user body information selected by the user from the user device 100 , generate predicted fit data by referring to the sample data, and provide it to the user device 100 . have.
  • the service server 200 may include a sample data generating unit 210 , a sample data storage unit 220 , and a predicted fit data providing unit 230 .
  • the sample data generator 210 may generate sample data in which the same fashion items of various sizes are matched according to human body information.
  • the sample data may be used to generate predicted fit data according to the user's body information including the user's height, weight, and detailed body information.
  • the sample data may be generated by models directly wearing all sizes of the same fashion item.
  • the sample data may be divided into basic sample data and model sample data.
  • the basic sample data may be sample data generated by directly wearing the same fashion items of all sizes by models having various heights and weights.
  • a representative sample model is selected for each predetermined difference (eg, 5 cm) in a distribution from 160 cm to 190 cm, and the representative sample models can directly wear the same fashion items of all sizes.
  • the image of the model wearing the fashion item may be photographed and stored in the sample data storage 220 as basic sample data.
  • the representative sample model may be selected from a weight distribution within a specific range.
  • a representative sample model is selected for each predetermined difference (eg, 5 kg) in a distribution from 50 kg to 90 kg, and each model can directly wear the same fashion items of all sizes.
  • basic sample data in which both height and weight are reflected may be generated.
  • a 160 cm model was subdivided into 50 kg to 90 kg and selected as a representative model
  • a 165 cm model was subdivided into 50 kg to 90 kg and selected as a representative model
  • a 170 cm model was subdivided into 50 kg to 90 kg.
  • Models having the same height, such as selected as a representative model, can be subdivided according to weight and selected as a representative model.
  • the model sample data may be data generated by directly wearing the same fashion items of all sizes by models having various body characteristics. Physical characteristics include long arms, thin thighs, large waist compared to thighs, long lower body compared to upper body, broad shoulders, thin ankles, etc. Individual differences are large, or it is difficult to express numerically. Or, information that depends on a person's subjective feeling may be included.
  • model A and model B have the same height and weight, but model A has a lower body compared to the upper body and model B has an upper body compared to the lower body.
  • model A may wear clothes of a relatively large size for the top and clothes of a relatively small size for the bottoms, rather than people having the same height and weight.
  • model B may wear clothes of a relatively small size for the top and clothes with a relatively large size for the bottom, than those of the same height and weight.
  • the model sample data may include wearing shots of models having various body features in order to provide more accurate predicted fit data to the user.
  • the more body features reflected in the model sample data the more accurate the predicted fit data can be confirmed by the user.
  • the service server 200 may update the model sample data at any point in time or periodically to provide predicted fit data reflecting various body features or the latest trends.
  • sample data may be generated through 3D scanning data. That is, the model may not directly wear the fashion item, but sample data may be obtained from the 3D scanning data of the body of models having various heights, weights, and body characteristics and the 3D scanning data of the fashion item.
  • 3D scanning data may be data obtained by photographing a 3D image of an object by calculating the depth value of each pixel of an image that cannot be done in conventional 2D such as a 3D stereo camera and a 3D depth camera. .
  • the sample data generating unit 210 may generate body 3D scanning data that is a 3D image of the body of models having various heights, weights, and body features. Also, fashion item 3D scanning data that is a 3D image of fashion items may be generated.
  • the sample data generating unit 210 may extract a feature vector value including information about an expected fit by calculating vector values included in the body 3D scanning data and the fashion item 3D scanning data.
  • Various techniques may be used to extract the feature vector value. For example, when the sample data generating unit 210 overlaps the body 3D scanning data and the fashion item 3D scanning data, the position of the shoulder line, the amount of waist space, how short or long the sleeve is, how much the top covers the bottom, Depending on the degree of exposure of the ankle, how many wrinkles are formed on the clothes after wearing, etc., it is possible to determine what kind of fit is derived.
  • the feature labels corresponding to the feature vector values may be generated as sample data together with the user's body information and fashion item information.
  • the feature label may be a text expression of fit, which is a feeling that a specific fashion item gives to humans.
  • the feature label may include an overfit label, a slim fit label, a formal fit label, a loose fit label, a just fit label, a basic fit label, and the like.
  • the fashion item 3D data and the body 3D data may include an image designed through an image editing program such as Photoshop, as well as an image actually photographed through a camera.
  • an image editing program such as Photoshop
  • the service server may define a feature label for a fit that a human can feel, and may generate sample data based on a directly captured wearing shot and/or 3D scanning data. It is possible to create a machine learning model in which the neural network model is trained on the process of generating sample data from the above feature labels, wearing shots, and 3D scanning data.
  • Machine learning is one of the fields of artificial intelligence and can be defined as a set of systems and algorithms for learning based on empirical data, making predictions, and improving their own performance.
  • the model used by the service server is among these machine learning models, Deep Neural Networks (DNN), Convolutional Deep Neural Networks (CNN), Reccurent Neural Network (RNN), and Deep Trust Neural Network ( Deep Belief Networks, DBN) may be used.
  • DNN Deep Neural Networks
  • CNN Convolutional Deep Neural Networks
  • RNN Reccurent Neural Network
  • DBN Deep Trust Neural Network
  • the service server learns the characteristics of the image corresponding to the sample data to form an initial neural network model, and applies images, wearing shots, or 3D scanning data of a large amount of fashion items to the neural network model. can be extended more precisely.
  • the service server may apply the feature labels to a neural network model formed in a hierarchical structure formed of a plurality of layers without separate learning of the sample data.
  • the fashion item images are clustered using the processed characteristic information, and the overfit feeling, the just-fit feeling, and the slim-fit feeling are post-processed in the clustered image group. It is possible to give feature label information that is interpreted as an enemy.
  • the sample data storage unit 220 may store the sample data generated by the sample data generation unit 210 .
  • the sample data stored in the sample data storage unit 220 may provide the sample data to the predicted fit data providing unit 230 when information on a fashion item selected by the user and body information of the user are received from the user device 100 .
  • the sample data stored in the sample data storage unit 220 may be updated periodically to reflect more diverse body information and to reflect information about the fit that is generated or lost over time.
  • the predicted fit data providing unit 230 may receive fashion item information and user body information from the user device 100 , and generate predicted fit data by referring to the sample data stored in the sample data storage unit 220 .
  • the user's body information may include information about the user's own height, weight, and/or body characteristics.
  • the predicted fit data providing unit 230 may search for sample data including user body information from the sample data storage 220 , and provide the searched sample data as predicted fit data to the user device 100 .
  • the user's body information may include information about the user's skin tone.
  • Skin tone may be an important factor in determining a fashion item. Even if the same fashion item is worn by a person with relatively white skin color and a person with dark skin color, the feeling may be different.
  • primary colors such as red, blue, and yellow may not suit people with dark skin tones. Wearing clothes that go well with your skin tone can have the effect of looking more lively and healthy.
  • the service server may receive the information about the user's skin tone as a body feature, match a color determined to be well suited to the received user's skin tone, and provide it to the user as predicted fit data.
  • the predicted fit data providing unit 230 may determine the sample data in which the height, weight, or skin tone is closest to the user's body information received from the user as the user's body information, and provide the corresponding sample data as predicted fit data to the user. . Also, it is possible to provide the user with sample data that commonly includes detailed body features of the user, such as a long arm, a thin thigh, and a large waist compared to the thigh, as predicted fit data.
  • the sample data having the most common body features may be provided to the user as representative predicted fit data, or the sample data may be provided to the user by arranging the sample data in descending order in the order of the most included body features, or at least one body All sample data including features may be provided to the user as predicted fit data.
  • FIG. 2 is a diagram for explaining basic sample data according to an embodiment of the present invention.
  • basic sample data may include fashion item information, basic body information, and feature label information.
  • the basic sample data may be sample data generated by directly wearing the same fashion items of all sizes by models having various heights and weights.
  • the service server may generate predicted fit data by referring to the sample data.
  • information about height and weight (basic body information) among user body information may refer to basic sample data.
  • the basic sample data may be stored by matching "basic body information about height and weight”, “fashion item information”, and “feature label information” in advance in order to meet the user's request.
  • the service server searches basic sample data including the received fashion item information and user body information, and expects feature label information included in the retrieved basic sample data It may be provided to the user device as fit data.
  • FIG. 3 is a diagram for explaining model sample data according to an embodiment of the present invention.
  • model sample data may include fashion item information, characteristic body information, and characteristic label information.
  • the model sample data may be data generated by directly wearing the same fashion items of all sizes by models having various body characteristics. Physical characteristics include long arms, thin thighs, large waist compared to thighs, long lower body compared to upper body, broad shoulders, thin ankles, etc. Individual differences are large, or it is difficult to express numerically. Or, information that depends on a person's subjective feeling may be included.
  • the service server may generate predicted fit data by referring to the sample data.
  • the above-described body characteristic information (body characteristic information) among the user body information may refer to model sample data.
  • the model sample data may be stored by matching “body characteristic information on body characteristics”, “fashion item information”, and “characteristic label information” in advance in order to meet the user's request.
  • the service server searches model sample data including the received fashion item information and user body information, and expects feature label information included in the retrieved model sample data It may be provided to the user device as fit data.
  • FIG. 4 is a flowchart illustrating a basic operation of a system for providing fashion information according to an embodiment of the present invention.
  • the service server may generate sample data in which the same fashion items of various sizes are matched according to human body characteristics and store the matched sample data in the sample data storage unit.
  • the sample data may be generated by models directly wearing all sizes of the same fashion item.
  • the sample data may be divided into basic sample data and model sample data. A process in which models directly wear fashion items to generate sample data will be described in detail with reference to FIG. 5 to be described later.
  • the sample data may be generated through 3D scanning data. That is, the model may not directly wear the fashion item, but sample data may be obtained from the 3D scanning data of the body of models having various heights, weights, and body characteristics and the 3D scanning data of the fashion item. A process of generating sample data through 3D scanning data will be described in detail with reference to FIG. 6 to be described later.
  • the service server may receive information about the fashion item selected by the user.
  • a user may select a favorite fashion item while searching for fashion items in an online shopping mall, Internet magazine, website, blog, or the like.
  • Information on the fashion item selected by the user may be transmitted to the service server.
  • the service server may transmit a request to input user body information to the user device in order to provide the user-customized predicted fit data.
  • the service server may receive the user's own basic body information and user body information including body characteristic information from the user.
  • Basic body information is body information about height and weight, and body characteristic information includes long arms, thin thighs, large waist compared to thighs, long lower body compared to upper body, and shoulders in addition to height and weight. It may be information that has a large individual difference, such as a wide side or a thin ankle, is difficult to express numerically, or depends on a subjective human feeling.
  • the user's body information may include information about the user's skin tone.
  • Skin tone may be an important factor in determining a fashion item. Even if the same fashion item is worn by a person with relatively white skin color and a person with dark skin color, the feeling may be different.
  • primary colors such as red, blue, and yellow may not suit people with dark skin tones. Wearing clothes that go well with your skin tone can have the effect of looking more lively and healthy.
  • the service server may receive the information about the user's skin tone as a body feature, match a color determined to be well suited to the received user's skin tone, and provide it to the user as predicted fit data.
  • the service server may generate expected fit data, which is data that the user can refer to for size or fit when selecting clothes, based on the sample data and user body information.
  • the sample data includes information about a fashion item that the user wants to know whether it will suit him or not, user body information including height, weight, and body characteristics, and feature label information about fit that can be derived when the user wears a fashion item. may be included.
  • the service server may receive the user's own body information and information about the fashion item selected by the user from the user device, and retrieve sample data including both.
  • the feature label information included in the retrieved sample data may be provided to the user as predicted fit data.
  • the service server may search for body information having the closest value to digitized body information such as height and weight.
  • Physical characteristics that cannot be quantified such as long arms, thin thighs, and large waist circumferences compared to thighs, can be retrieved from the service server if the corresponding body characteristics are predefined as feature label information, but otherwise If not, you can update the service server to add new feature label information.
  • the service server may provide the predicted fit data to the user.
  • the predicted fit data may be feature label information when a fashion item and user body information match in the sample data.
  • the predicted fit data according to an embodiment of the present invention may provide predicted fit data reflecting various body characteristics of a human as well as height and weight. Therefore, even though the fashion items are the same size, the fit may be different for each user, and there is an effect of reducing the error.
  • step S501 of FIG. 4 is a flowchart for describing in detail an embodiment of step S501 of FIG. 4 .
  • FIG. 5 is a flowchart illustrating an embodiment in which models directly wear a fashion item to generate sample data.
  • information on height and weight is divided into basic sample data, and information on other body features is described as model sample data, but both are included in the sample data and are not distinguished according to the embodiment. can be
  • the service server may generate basic sample data by directly wearing the same fashion items of all sizes by models having various heights and weights.
  • a representative sample model is selected for each predetermined difference (eg, 5 cm) in a distribution from 160 cm to 190 cm, and the representative sample models can directly wear the same fashion items of all sizes.
  • An image of a model wearing a fashion item may be photographed and stored in a service server as basic sample data.
  • the representative sample model may be selected from a weight distribution within a specific range.
  • a representative sample model is selected for each predetermined difference (eg, 5 kg) in a distribution from 50 kg to 90 kg, and each model can directly wear the same fashion items of all sizes.
  • basic sample data in which both height and weight are reflected may be generated.
  • a 160 cm model was subdivided into 50 kg to 90 kg and selected as a representative model
  • a 165 cm model was subdivided into 50 kg to 90 kg and selected as a representative model
  • a 170 cm model was subdivided into 50 kg to 90 kg.
  • Models having the same height, such as selected as a representative model, can be subdivided according to weight and selected as a representative model.
  • the service server may generate model sample data by directly wearing the same fashion items of all sizes by models having various body characteristics.
  • model A and model B may develop a lower body compared to the upper body and model B may develop an upper body compared to the lower body.
  • model A may wear clothes of a relatively large size for the top and clothes of a relatively small size for the bottoms, rather than people having the same height and weight.
  • model B may wear clothes of a relatively small size for the top and clothes of a relatively large size for the bottom, than those of the same height and weight.
  • the model sample data may include wearing shots of models having various body features in order to provide more accurate predicted fit data to the user.
  • the more body features reflected in the model sample data the more accurate the predicted fit data can be confirmed by the user.
  • the service server may periodically update the model sample data to provide predicted fit data reflecting various body characteristics or the latest trends.
  • the service server may store the generated basic sample data and model sample data as sample data in the service server.
  • step S501 of FIG. 4 is a flowchart for describing in detail another embodiment of step S501 of FIG. 4 .
  • sample data is generated through 3D scanning data. That is, the sample data may be obtained from the 3D scanning data of the body of models having various heights, weights, and body features and the 3D scanning data of the fashion item, rather than the data that the models directly wear the fashion item.
  • the service server may define feature labels related to fit, which is a feeling that a specific fashion item gives to humans in advance.
  • Specific labels may include an overfit label, a slim fit label, a formal fit label, a loose fit label, a just fit label, a basic fit label, and the like.
  • the service server may generate 3D scanning data of the fashion item.
  • 3D scanning data may be data obtained by photographing a 3D image of an object by calculating the depth value of each pixel of an image that cannot be done in conventional 2D such as a 3D stereo camera and a 3D depth camera. .
  • the service server shoots fashion items from various angles and three-dimensionally checks the size of fashion items such as length, shoulder width, chest section, sleeve length, waist circumference, thigh section, hem section, and rise. 3D scanning information can be generated.
  • the service server may generate body 3D scanning data that is a 3D image of the body of models having various heights, weights, and body features.
  • the body 3D scanning data of specific body information may be initially photographed only once.
  • the fashion item 3D data and the body 3D data may include images designed through an image editing program such as Photoshop, as well as images actually photographed through a camera.
  • the service server calculates vector values included in the fashion item 3D scanning data and the body 3D scanning data to extract a feature vector value including information about an expected fit.
  • Various techniques may be used to extract the feature vector value. For example, when the service server overlaps the body 3D scanning data and the fashion item 3D scanning data, the position of the shoulder line, the amount of space in the waist, how short or long the sleeves are, how much the top covers the bottoms, the degree of exposure of the ankles, Depending on how many wrinkles are formed on the clothes after wearing, it can be determined what kind of fit is derived.
  • the feature labels corresponding to the feature vector values may be generated as sample data together with the user's body information and fashion item information.
  • the feature label may be a text expression of fit, which is a feeling that a specific fashion item gives to humans.
  • the feature label may include an overfit label, a slim fit label, a formal fit label, a loose fit label, a just fit label, a basic fit label, and the like.
  • the service server may generate sample data by tagging the corresponding fashion item with a feature label corresponding to the generated feature vector value.
  • the sample data may include fashion item information, basic body information and body information including body characteristic information, and feature label information.
  • the service server may store the generated sample data in the service server.
  • the sample data stored in the service server may be used when a user requests predicted fit data or provides predicted fit data as needed.
  • the sample data may be updated at any time or periodically to reflect the latest fit trends and more diverse body features.
  • FIG. 7 is a flowchart for explaining an embodiment of the present invention implemented in an offline store.
  • the service server may store the user's body information collected through a camera installed on a mirror of an offline store.
  • a camera installed in the mirror may take a picture of the user wearing it.
  • the timing of taking a picture may be taken simultaneously with looking at the mirror, after a certain amount of time has elapsed from the point of looking at the mirror, or periodically while looking at the mirror.
  • the collected user body information may be transmitted to a service server.
  • the service server may generate predicted fit data based on the user's body information and sample data.
  • the predicted fit data may be generated according to a process of determining feature label information included in sample data in which the user body information and the fashion item information match as the predicted fit data.
  • the service server may provide the predicted fit data to the user, the offline store, and/or the brand company of the fashion item.
  • the predicted fit data transmitted to the user may be utilized as a virtual fitting when the user wears clothes of a similar size or style. Consumers can reduce the hassle of trying on a lot of clothes through virtual fitting and reduce the time it takes to shop.
  • offline stores and brand companies when transmitted to the offline store or the brand company of the fashion item, it may be managed as customer information of the offline store or the brand company.
  • offline stores and brand companies can provide customized services to customers, it is easy to understand changing trends, and it has the effect of more accurately reflecting the needs of users.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)

Abstract

본 발명은 패션 정보 제공 방법, 장치 및 시스템에 관한 것이다. 구체적으로, 본 발명의 패션 정보 제공 시스템은, 다양한 사이즈의 동일한 패션 아이템이, 인간의 신체 정보에 따라 매칭된 표본 데이터를 생성하는 표본 데이터 생성부, 상기 표본 데이터를 저장하는 표본 데이터 저장부 및 사용자 디바이스로부터 패션 아이템 정보와 사용자 신체 정보를 수신하고, 상기 표본 데이터 저장부에 저장된 상기 표본 데이터를 참고하여, 예상 핏 데이터를 생성하는 예상 핏 데이터 제공부를 포함하고, 상기 예상 핏 데이터는 사용자가 상기 패션 아이템을 고를 때, 사이즈 또는 핏에 대해 참고할 수 있는 데이터이다.

Description

패션 정보 제공 방법, 장치 및 시스템
본 발명은 패션 아이템을 착용하였을 때 예상되는 핏을 제공하는 방법에 관한 것이다. 구체적으로, 다양한 키, 몸무게 및 신체 특징을 가지는 모델들이 특정 패션 아이템을 착용하거나 3D 스캐닝을 통해 표본 데이터를 생성하고, 사용자 신체 정보를 기초로 예상되는 핏을 제공하는 예상 핏 데이터 제공 방법, 장치 및 컴퓨터 프로그램에 관한 것이다.
최근 증가된 유무선 인터넷 환경을 배경으로 온라인을 이용한 홍보, 매매 등의 상거래가 활성화되고 있다. 이와 관련하여 구매자들은 인터넷과 연결된 데스크탑이나 모바일 단말에서 잡지, 블로그 또는 YouTube의 동영상 등을 검색하다가 마음에 드는 상품을 발견하면, 상품명 등을 검색하여 구매로 이르게 된다.
이때 사용자는 온라인 쇼핑몰에 모델이 해당 상품을 착용하고 있는 착용샷을 기초로 자신에게 어울릴지 여부를 판단하게 된다. 예를 들어, 모델의 키, 몸무게, 피부색, 비율, 팔이 긴 편인지, 허벅지에 비해 허리 둘레가 큰 편인지, 허벅지가 얇은 편인지 등을 자신의 신체 특징과 비교하고, 해당 상품이 자신에게 어울릴지 여부를 판단하게 된다.
그러나, 오프라인 매장에서 상품을 직접 입어보는 것과 비교하여, 온라인 쇼핑몰에서 추상적으로 비교하는 것만으로는 사용자 본인에게 정말 어울리는 옷인지 정확히 판단하기 어려울 수 있다. 인간의 신체는 저마다 키, 몸무게, 신체 특징이 모두 상이하고, 특히 키, 몸무게처럼 수치로 정량화할 수 있는 요소뿐만 아니라, 특정 상품을 착용했을 때의 인간의 느낌에 대한 “핏”은 수치로 정량화할 수 없고, 같은 키와 몸무게를 가지는 신체라도 상이한 핏을 나타낼 수 있기 때문이다.
결과적으로 상품을 수령한 소비자는 자신이 생각한 핏과 다른 경우 해당 상품을 환불, 교환하거나, 옷장에 방치해둘 가능성이 높다. 의류 회사는 소비자로부터 부정적인 후기, 평가를 받아 결과적으로 해당 브랜드의 브랜드 이미지에 타격을 입거나 판매량 감소로 이어질 수 있다. 소비자 또한 오프라인 매장에서 직접 입어보고 상품을 구입하거나 단번에 마음에 드는 상품을 구입했을 때와 비교하여, 상품을 환불, 교환함에 따른 기회비용이 발생되는 문제가 발생될 수 있다.
이와 같이 소비자와 판매자 모두 온라인상의 상품 이미지에 대해 보다 직관적인 UI(User Interface) 환경에서 예상되는 핏에 대한 데이터를 제공받기를 원하는 니즈가 존재한다.
본 발명은 위와 같은 문제를 해결하기 위한 것으로, 특정 패션 아이템이 동일한 사이즈임에도 불구하고 사용자마다 핏이 다르게 나올 수 있는데, 이에 대한 오차를 줄이기 위해 예상 핏 데이터를 제공하는 것을 목적으로 한다.
나아가 오프라인 매장에 설치된 카메라를 통해 사용자 신체 정보를 수집하고, 이를 통해 사용자 맞춤형 데이터로서 예상 핏 데이터를 제공하는 것을 목적으로 한다.
본 발명은 패션 정보 제공 방법, 장치 및 시스템에 관한 것이다. 구체적으로, 본 발명의 실시 예에 따른 패션 정보 제공 시스템은, 다양한 사이즈의 동일한 패션 아이템이, 인간의 신체 정보에 따라 매칭된 표본 데이터를 생성하는 표본 데이터 생성부, 상기 표본 데이터를 저장하는 표본 데이터 저장부 및 사용자 디바이스로부터 패션 아이템 정보와 사용자 신체 정보를 수신하고, 상기 표본 데이터 저장부에 저장된 상기 표본 데이터를 참고하여, 예상 핏 데이터를 생성하는 예상 핏 데이터 제공부를 포함하고, 상기 예상 핏 데이터는 사용자가 상기 패션 아이템을 고를 때, 사이즈 또는 핏에 대해 참고할 수 있는 데이터이다.
또한, 본 발명의 실시 예에 따른 패션 정보 제공 방법은, 다양한 사이즈의 동일한 패션 아이템이, 인간의 신체 정보에 따라 매칭된 표본 데이터를 생성하는 단계, 상기 표본 데이터를 저장하는 단계 및 사용자 디바이스로부터 패션 아이템 정보와 사용자 신체 정보를 수신하고, 상기 표본 데이터 저장부에 저장된 상기 표본 데이터를 참고하여, 예상 핏 데이터를 생성하는 단계를 포함하고, 상기 예상 핏 데이터는 사용자가 상기 패션 아이템을 고를 때, 사이즈 또는 핏에 대해 참고할 수 있는 데이터이다.
본 발명에 따르면, 특정 패션 아이템이 동일한 사이즈임에도 불구하고 사용자마다 핏이 다르게 나올 수 있는데, 이에 대한 오차를 줄일 수 있는 효과가 있다.
나아가 오프라인 매장에 설치된 카메라를 통해 사용자 신체 정보를 수집하고, 이를 통해 사용자 맞춤형 데이터로서 예상 핏 데이터를 제공할 수 있는 효과가 있다.
도 1은 본 발명의 실시 예에 따른 패션 정보 제공 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 실시 예에 따른 기본 표본 데이터를 설명하기 위한 도면이다.
도 3은 본 발명의 실시 예에 따른 모델 표본 데이터를 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른 패션 정보 제공 시스템의 기본 동작을 설명하기 위한 순서도이다.
도 5는 도 4의 S501 단계의 일 실시 예를 상세하게 설명하기 위한 순서도이다.
도 6은 도 4의 S501 단계의 다른 실시 예를 상세하게 설명하기 위한 순서도이다.
도 7은 오프라인 매장에서 구현되는 본 발명의 실시 예를 설명하기 위한 순서도이다.
본 명세서 또는 출원에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 개념에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 별명의 개념에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 명세서 또는 출원에 설명된 실시 예들에 한정되는 것으로 해석되어서는 아니 된다.
본 발명의 개념에 따른 실시 예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시 예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 서술된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
실시 예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 실시 예에 따른 패션 정보 제공 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 패션 정보 제공 시스템(50)은 사용자 디바이스(100) 및 서비스 서버(200)를 포함할 수 있다. 사용자 디바이스(100)는 휴대폰, 스마트폰, MP3 플레이어, 랩탑 컴퓨터, 데스크탑 컴퓨터, 게임기, TV, 테블릿 PC 또는 차량용 인포테인먼트(in-vehicle infotainment) 시스템 등을 포함할 수 있다.
사용자는 사용자 디바이스(100)에서 온라인 쇼핑몰에서 마음에 드는 패션 아이템을 고르고 서비스 서버(200)에 전송할 수 있다. 서비스 서버(200)는 사용자가 고른 패션 아이템이 코디된 예상 핏 데이터를 사용자에게 제공하고, 사용자는 해당 패션 아이템의 구매 여부를 결정할 때 예상 핏 데이터를 참고할 수 있다.
예상 핏 데이터는 사용자가 패션 아이템을 고를 때 사이즈 또는 핏에 대해 참고할 수 있는 데이터일 수 있다. 기존 온라인 쇼핑몰들은 인간의 다양한 신체 특징이 반영되지 않고 단순히 키와 몸무게에 따라 대략적으로 맞는다고 예상되는 사이즈만을 제공하였다.
하지만, 같은 키와 몸무게를 가지는 사용자라도 세부적인 신체 특징에 따라 전혀 다른 핏을 나타낼 수 있다. 핏은 특정 상품을 착용했을 때의 인간의 느낌을 표현한 정보일 수 있다. 사용자 개개인 추구하는 스타일에 따라 원하는 핏이 다를 수 있다. 따라서, 단순히 키와 몸무게에 따라 사이즈를 추천하는 기존의 방법은 자신에게 어울리는 패션 아이템을 찾고자 하는 사용자의 니즈를 정확하게 반영하지 못할 수 있다.
이를 위해, 서비스 서버(200)는 사용자 디바이스(100)로부터 사용자가 선택한 패션 아이템 정보와 사용자 신체 정보를 수신하고, 표본 데이터를 참고하여 예상 핏 데이터를 생성하고, 사용자 디바이스(100)에게 제공할 수 있다.
도 1을 참조하면, 서비스 서버(200)는 표본 데이터 생성부(210), 표본 데이터 저장부(220) 및 예상 핏 데이터 제공부(230)을 포함할 수 있다.
표본 데이터 생성부(210)는 다양한 사이즈의 동일 패션 아이템이 인간의 신체 정보에 따라 매칭된 표본 데이터를 생성할 수 있다. 표본 데이터는 사용자의 키, 몸무게 및 세부적인 신체 정보를 포함하는 사용자 신체 정보에 따라 예상 핏 데이터를 생성하는데 사용될 수 있다.
일 실시 예에서, 표본 데이터는 모델들이 동일한 패션 아이템의 모든 사이즈를 직접 착용하여 생성될 수 있다. 이때, 표본 데이터는 기본 표본 데이터와 모델 표본 데이터로 구분될 수 있다.
설명의 편의를 위해 키와 몸무게에 관한 정보는 기본 표본 데이터로, 그 외 신체 특징에 관한 정보는 모델 표본 데이터로 구분하여 설명하였지만, 양자 모두 표본 데이터에 포함되는 것으로서, 실시 예에 따라 구별되지 않는 개념일 수 있다.
기본 표본 데이터는 다양한 키와 몸무게를 가지는 모델들이 모든 사이즈의 동일한 패션 아이템들을 직접 착용하여 생성된 표본 데이터일 수 있다.
예를 들어, 남성 모델의 경우, 160cm 부터 190cm까지의 분포에서 미리 정한 차이(예를 들어 5cm)마다 대표 표본 모델을 선정하고, 대표 표본 모델들은 모든 사이즈의 동일한 패션 아이템들을 직접 착용할 수 있다. 패션 아이템을 착용한 모델의 이미지는 사진으로 촬영되어 기본 표본 데이터로서 표본 데이터 저장부(220)에 저장될 수 있다.
실시 예에 따라, 대표 표본 모델은 특정 범위의 몸무게 분포에서 선정될 수도 있다. 예를 들어, 남성 모델의 경우, 50kg 부터 90kg까지의 분포에서 미리 정한 차이(예를 들어 5kg)마다 대표 표본 모델을 선정하고, 각 모델들이 모든 사이즈의 동일한 패션 아이템들을 직접 착용할 수 있다.
실시 예에 따라, 키와 몸무게가 모두 반영된 기본 표본 데이터가 생성될 수도 있다. 위의 남성 모델의 예에서, 160cm의 모델을 50kg~90kg까지 세분화하여 대표 모델로 선정하고, 165cm의 모델을 50kg~90kg까지 세분화하여 대표 모델로 선정하고, 170cm의 모델을 50kg~90kg까지 세분화하여 대표 모델로 선정하는 등 동일한 키를 가지는 모델들을 몸무게에 따라 세분화하여 대표 모델로 선정할 수 있다.
모델 표본 데이터는 다양한 신체 특징을 가지는 모델들이 모든 사이즈의 동일한 패션 아이템들을 직접 착용하여 생성된 데이터일 수 있다. 신체 특징에는 팔이 긴 편, 허벅지가 얇은 편, 허벅지에 비해 허리 둘레가 큰 편, 상체에 비해 하체가 긴 편, 어깨가 넓은 편, 발목이 가는 편 등 개인차가 크거나, 수치로 표현하기 어렵거나, 또는 인간의 주관적인 느낌에 의존하는 정보들이 포함될 수 있다.
동일한 키와 몸무게를 가지는 모델이라도 신체 특징에 따라 전혀 다른 핏을 나타낼 수 있다. 예를 들어, A 모델과 B 모델이 키와 몸무게가 동일한데, A 모델은 상체에 비해 하체가 발달하고 B 모델은 하체에 비해 상체가 발달한 경우가 있을 수 있다. 이때, A 모델은 동일한 키와 몸무게를 가지는 사람들보다 상의는 상대적으로 큰 사이즈의 옷을, 하의는 상대적으로 작은 사이즈의 옷이 어울릴 수 있다. 반면, B 모델은 동일한 키와 몸무게를 가지는 사람들보다 상의는 상대적으로 작은 사이즈의 옷을, 하의는 상대적으로 큰 사이즈의 옷이 어울릴 수 있다.
모델 표본 데이터는 보다 정확한 예상 핏 데이터를 사용자에게 제공하기 위해 다양한 신체 특징을 가지는 모델들의 착용샷을 포함할 수 있다. 모델 표본 데이터에 반영된 신체 특징이 많을수록 사용자는 보다 정확한 예상 핏 데이터를 확인할 수 있다. 따라서, 서비스 서버(200)는 임의의 시점마다 또는 주기적으로 모델 표본 데이터를 업데이트하여 다양한 신체 특징 또는 최신 트랜드가 반영된 예상 핏 데이터를 제공할 수 있다.
다른 실시 예에서, 표본 데이터는 3D 스캐닝 데이터를 통해 생성될 수도 있다. 즉, 모델들이 직접 패션 아이템을 착용하는 것이 아니라, 다양한 키, 몸무게, 신체 특징을 가지는 모델들의 신체 3D 스캐닝 데이터와 패션 아이템 3D 스캐닝 데이터로부터 표본 데이터가 획득될 수 있다.
3D 스캐닝 데이터란 3D 스테레오 카메라(3D Stereo camera), 3D 깊이 카메라(3D Depth camera) 등 기존의 2D에서 할 수 없었던 이미지의 각 픽셀의 깊이 값을 계산하여 물체의 3D 이미지를 촬영한 데이터일 수 있다.
구체적으로, 표본 데이터 생성부(210)는 다양한 키, 몸무게, 신체 특징을 가지는 모델들의 신체의 3D 이미지인 신체 3D 스캐닝 데이터를 생성할 수 있다. 또한, 패션 아이템들의 3D 이미지인 패션 아이템 3D 스캐닝 데이터를 생성할 수 있다.
이후, 표본 데이터 생성부(210)는 신체 3D 스캐닝 데이터와 패션 아이템 3D 스캐닝 데이터에 포함된 벡터값들을 연산하여 예상되는 핏에 관한 정보를 포함하는 특징 벡터값을 추출할 수 있다.
특징 벡터값의 추출에는 다양한 기법들이 사용될 수 있다. 예를 들어, 표본 데이터 생성부(210)는 신체 3D 스캐닝 데이터와 패션 아이템 3D 스캐닝 데이터를 중첩시켰을 때, 어깨선의 위치, 허리 공간의 여유분, 소매가 얼마나 짧거나 긴지, 상의가 하의를 얼마나 덮는지, 발목의 노출 정도, 착용 후 옷에 주름이 얼마나 생기는지 등에 따라, 어떠한 핏이 도출되는지 판단할 수 있다.
특징 벡터값에 대응되는 특징 레이블들은 사용자의 신체 정보, 패션 아이템 정보와 함께 표본 데이터로 생성될 수 있다. 특징 레이블은 특정 패션 아이템이 인간에게 주는 느낌인 핏을 텍스트로 표현한 것일 수 있다. 예를 들어, 특징 레이블에는 오버핏 레이블, 슬림핏 레이블, 정장핏 레이블, 루즈핏 레이블, 저스트핏 레이블, 기본핏 레이블 등이 포함될 수 있다.
본 발명의 또 다른 실시 예에 따르면, 패션 아이템 3D 데이터 및 신체 3D 데이터는 카메라를 통해 실제로 촬영된 이미지 뿐만 아니라, 포토샵 등 이미지 편집 프로그램을 통해 디자인된 이미지를 포함할 수 있다.
모든 신체 특징, 패션 아이템을 카메라로 촬영하고 편집하는 것은 매우 많은 시간과 노력이 소요될 수 있다. 이미지 편집 프로그램을 통해 패션 아이템 3D 스캐닝 데이터 및 신체 3D 스캐닝 데이터를 생성함으로써, 표본 데이터의 데이터베이스를 단기간에 효율적으로 구축할 수 있는 효과가 있다.
본 발명의 실시 예에 따르면, 서비스 서버는 인간이 느낄 수 있는 핏에 대한 특징 레이블을 정의하고, 직접 촬영한 착용샷 및/또는 3D 스캐닝 데이터를 기초로 표본 데이터를 생성할 수 있다. 위 특징 레이블, 착용샷, 3D 스캐닝 데이터로부터 표본 데이터를 생성하는 과정을 신경망 모델에 학습시킨 머신 러닝 모델을 생성할 수 있다.
머신 러닝은 인공지능의 분야 중 하나로, 경험적 데이터를 기반으로 학습을 하고 예측을 수행하고 스스로의 성능을 향상시키는 시스템과 이를 위한 알고리즘의 집합으로 정의될 수 있다. 서비스 서버가 이용하는 모델은 이러한 머신 러닝의 모델 중 심층 신경망(Deep Neural Networks, DNN), 컨볼루션 신경망(Convolutional deep Neural Networks, CNN), 순환 인공 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경 망(Deep Belief Networks, DBN) 중 어느 하나를 이용한 것일 수 있다.
본 발명의 다른 실시 예를 따르면, 서비스 서버는 표본 데이터에 대응되는 이미지의 특성들을 학습하여 초기 신경망 모델을 형성하고, 여기에 대량의 패션 아이템의 이미지, 착용샷 또는 3D 스캐닝 데이터를 적용하여 신경망 모델을 보다 정교하게 확장할 수도 있다.
한편, 본 발명의 또 다른 실시 예에 따르면, 서비스 서버는 표본 데이터에 대한 별도의 학습 없이 특징 레이블들을 복수의 레이어로 형성된 계층 구조로 형성된 신경망 모델에 적용할 수 있다.
나아가 패션 아이템 이미지의 특징 정보에 해당 레이어의 요청에 따라 가중치를 부여하고, 가공된 특징 정보들을 이용하여 패션 아이템 이미지들을 클러스터링하고, 클러스터링된 이미지 그룹에 오버핏 느낌, 저스트핏 느낌, 슬림핏 느낌 등 사후적으로 해석되는 특징 레이블 정보를 부여할 수 있다.
표본 데이터 저장부(220)는 표본 데이터 생성부(210)가 생성한 표본 데이터를 저장할 수 있다. 표본 데이터 저장부(220)에 저장된 표본 데이터는, 사용자 디바이스(100)로부터 사용자가 선택한 패션 아이템에 관한 정보와 사용자의 신체 정보가 수신되면, 표본 데이터를 예상 핏 데이터 제공부(230)에 제공할 수 있다.
표본 데이터 저장부(220)에 저장된 표본 데이터는 보다 다양한 신체 정보를 반영하고, 시간의 흐름에 따라 생성되거나 소멸되는 핏에 관한 정보를 반영하기 위해 주기적으로 업데이트될 수 있다.
예상 핏 데이터 제공부(230)는 사용자 디바이스(100)로부터 패션 아이템 정보와 사용자 신체 정보를 수신하고, 표본 데이터 저장부(220)에 저장된 표본 데이터를 참고하여, 예상 핏 데이터를 생성할 수 있다.
사용자 신체 정보는 사용자 본인의 키, 몸무게 및/또는 신체 특징에 관한 정보를 포함할 수 있다. 예상 핏 데이터 제공부(230)은 사용자 신체 정보가 포함된 표본 데이터를 표본 데이터 저장부(220)에서 검색하고, 검색된 표본 데이터를 예상 핏 데이터로서 사용자 디바이스(100)에 제공할 수 있다.
한편, 사용자 신체 정보에는 사용자의 피부톤에 관한 정보가 포함될 수 있다. 피부톤은 패션 아이템을 결정하는 중요한 요소일 수 있다. 동일한 패션 아이템이라도 피부색이 상대적으로 하얀 사람과 까무잡잡한 사람이 각각 착용하였을 때 주는 느낌은 상이할 수 있다.
예를 들어, 빨간색, 파란색, 노란색 등의 원색 계통의 색상은 까무잡잡한 피부톤의 사람에게는 잘 어울리지 않을 수 있다. 자신의 피부톤과 잘 어울리는 색상의 옷을 착용하면 더 생기 있어 보이고 건강해 보이는 효과가 있을 수 있다.
따라서, 서비스 서버는 사용자의 피부톤에 관한 정보를 신체 특징으로 수신하고, 수신한 사용자의 피부톤에 잘 어울릴 것으로 판단되는 컬러를 매칭하고, 예상 핏 데이터로서 사용자에게 제공할 수 있다.
예상 핏 데이터 제공부(230)는 키와 몸무게 또는 피부톤이 사용자로부터 수신한 사용자 신체 정보와 가장 근접한 표본 데이터를 사용자의 신체 정보로 판단하고, 해당 표본 데이터를 예상 핏 데이터로서 사용자에게 제공할 수 있다. 또한, 팔이 긴 편, 허벅지가 얇은 편, 허벅지에 비해 허리 둘레가 큰 편 등 사용자의 세부적인 신체 특징을 공통적으로 포함하는 표본 데이터를 예상 핏 데이터로서 사용자에게 제공할 수 있다.
이때, 공통되는 신체 특징이 가장 많은 표본 데이터를 대표 예상 핏 데이터로서 사용자에게 제공할 수도 있고, 포함되는 신체 특징이 많은 순서대로 표본 데이터를 내림차순으로 정렬하여 사용자에게 제공할 수도 있고, 적어도 하나의 신체 특징을 포함하는 표본 데이터를 모두 예상 핏 데이터로서 사용자에게 제공할 수도 있다.
본 발명의 실시 예에 따르면, 온라인 쇼핑몰에서 사용자 본인과 유사한 사이즈의 모델이 해당 옷을 입었을 때 어떠한 핏이 나올지 가늠해 볼 수 있다. 따라서, 특정 패션 아이템이 동일한 사이즈임에도 불구하고 사용자마다 핏이 다르게 나올 수 있는데, 이에 대한 오차를 줄일 수 있는 효과가 있다.
도 2는 본 발명의 실시 예에 따른 기본 표본 데이터를 설명하기 위한 도면이다.
도 2를 참조하면, 기본 표본 데이터는 패션 아이템 정보, 기본 신체 정보 및 특징 레이블 정보를 포함할 수 있다. 기본 표본 데이터는 다양한 키와 몸무게를 가지는 모델들이 모든 사이즈의 동일한 패션 아이템들을 직접 착용하여 생성된 표본 데이터일 수 있다.
사용자 디바이스로부터 사용자 신체 정보가 수신되면, 서비스 서버는 표본 데이터를 참조하여 예상 핏 데이터를 생성할 수 있다. 이때, 사용자 신체 정보 중 키와 몸무게에 관한 정보(기본 신체 정보)는 기본 표본 데이터를 참고할 수 있다.
사용자는 특정 패션 아이템을 구매하고자 할 때, 우선 “사용자 본인과 동일하거나 유사한 키와 몸무게를 가지는 신체”가, “사용자가 선택한 패션 아이템”을 착용했을 때, “도출되는 핏”을 서비스 서버에 요청할 수 있다. 기본 표본 데이터는 이러한 사용자의 요청에 부응하기 위해, 사전에 “키와 몸무게에 대한 기본 신체 정보”, “패션 아이템 정보”, “특징 레이블 정보”를 매칭하여 저장하고 있을 수 있다.
이후, 사용자 디바이스로부터 패션 아이템 정보와 사용자 신체 정보를 수신하면, 서비스 서버는 수신한 패션 아이템 정보와 사용자 신체 정보를 포함하는 기본 표본 데이터를 검색하고, 검색된 기본 표본 데이터에 포함된 특징 레이블 정보를 예상 핏 데이터로서 사용자 디바이스에 제공할 수 있다.
도 3은 본 발명의 실시 예에 따른 모델 표본 데이터를 설명하기 위한 도면이다.
도 3을 참조하면, 모델 표본 데이터는 패션 아이템 정보, 특징 신체 및 특징 레이블 정보를 포함할 수 있다. 모델 표본 데이터는 다양한 신체 특징을 가지는 모델들이 모든 사이즈의 동일한 패션 아이템들을 직접 착용하여 생성된 데이터일 수 있다. 신체 특징에는 팔이 긴 편, 허벅지가 얇은 편, 허벅지에 비해 허리 둘레가 큰 편, 상체에 비해 하체가 긴 편, 어깨가 넓은 편, 발목이 가는 편 등 개인차가 크거나, 수치로 표현하기 어렵거나, 또는 인간의 주관적인 느낌에 의존하는 정보들이 포함될 수 있다.
사용자 디바이스로부터 사용자 신체 정보가 수신되면, 서비스 서버는 표본 데이터를 참조하여 예상 핏 데이터를 생성할 수 있다. 이때, 사용자 신체 정보 중 전술한 신체 특징에 관한 정보(신체 특징 정보)는 모델 표본 데이터를 참고할 수 있다.
사용자는 특정 패션 아이템을 구매하고자 할 때, 우선 “사용자 본인과 동일하거나 유사한 신체 특징을 가지는 신체”가, “사용자가 선택한 패션 아이템”을 착용했을 때, “도출되는 핏”을 서비스 서버에 요청할 수 있다. 모델 표본 데이터는 이러한 사용자의 요청에 부응하기 위해, 사전에 “신체 특징에 대한 신체 특징 정보”, “패션 아이템 정보”, “특징 레이블 정보”를 매칭하여 저장하고 있을 수 있다.
이후, 사용자 디바이스로부터 패션 아이템 정보와 사용자 신체 정보를 수신하면, 서비스 서버는 수신한 패션 아이템 정보와 사용자 신체 정보를 포함하는 모델 표본 데이터를 검색하고, 검색된 모델 표본 데이터에 포함된 특징 레이블 정보를 예상 핏 데이터로서 사용자 디바이스에 제공할 수 있다.
도 4는 본 발명의 실시 예에 따른 패션 정보 제공 시스템의 기본 동작을 설명하기 위한 순서도이다.
도 4를 참조하면, 서비스 서버는 S401 단계에서, 다양한 사이즈의 동일 패션 아이템이 인간의 신체 특징에 따라 매칭된 표본 데이터를 생성하고, 표본 데이터 저장부에 저장할 수 있다.
일 실시 예에서, 표본 데이터는 모델들이 동일한 패션 아이템의 모든 사이즈를 직접 착용하여 생성될 수 있다. 이때, 표본 데이터는 기본 표본 데이터와 모델 표본 데이터로 구분될 수 있다. 모델들이 직접 패션 아이템을 착용하여 표본 데이터를 생성하는 과정에 대해서는, 후술되는 도 5를 통해 상세하게 설명하기로 한다.
다른 실시 예에서, 표본 데이터는 3D 스캐닝 데이터를 통해 생성될 수 있다. 즉, 모델들이 직접 패션 아이템을 착용하는 것이 아니라, 다양한 키, 몸무게, 신체 특징을 가지는 모델들의 신체 3D 스캐닝 데이터와 패션 아이템 3D 스캐닝 데이터로부터 표본 데이터가 획득될 수 있다. 3D 스캐닝 데이터를 통해 표본 데이터를 생성하는 과정에 대해서는, 후술되는 도 6을 통해 상세하게 설명하기로 한다.
S403 단계에서, 서비스 서버는 사용자가 선택한 패션 아이템에 관한 정보를 수신할 수 있다.
사용자는 온라인 쇼핑몰, 인터넷 잡지, 웹 사이트, 블로그 등에서 패션 아이템을 서칭하다가 마음에 드는 패션 아이템을 선택할 수 있다. 사용자가 선택한 패션 아이템에 관한 정보는 서비스 서버로 전송될 수 있다. 서비스 서버는 사용자 맞춤형 예상 핏 데이터를 제공하기 위해, 사용자 디바이스에 사용자 신체 정보를 입력해달라는 요청을 전송할 수 있다.
S405 단계에서, 서비스 서버는 사용자로부터 사용자 본인의 기본 신체 정보, 신체 특징 정보를 포함하는 사용자 신체 정보를 수신할 수 있다.
기본 신체 정보는 키와 몸무게에 대한 신체 정보이고, 신체 특징 정보는 키와 몸무게 외에 팔이 긴 편, 허벅지가 얇은 편, 허벅지에 비해 허리 둘레가 큰 편, 상체에 비해 하체가 긴 편, 어깨가 넓은 편, 발목이 가는 편 등 개인차가 크거나, 수치로 표현하기 어렵거나, 또는 인간의 주관적인 느낌에 의존하는 정보일 수 있다.
한편, 사용자 신체 정보에는 사용자의 피부톤에 관한 정보가 포함될 수 있다. 피부톤은 패션 아이템을 결정하는 중요한 요소일 수 있다. 동일한 패션 아이템이라도 피부색이 상대적으로 하얀 사람과 까무잡잡한 사람이 각각 착용하였을 때 주는 느낌은 상이할 수 있다.
예를 들어, 빨간색, 파란색, 노란색 등의 원색 계통의 색상은 까무잡잡한 피부톤의 사람에게는 잘 어울리지 않을 수 있다. 자신의 피부톤과 잘 어울리는 색상의 옷을 착용하면 더 생기 있어 보이고 건강해 보이는 효과가 있을 수 있다.
따라서, 서비스 서버는 사용자의 피부톤에 관한 정보를 신체 특징으로 수신하고, 수신한 사용자의 피부톤에 잘 어울릴 것으로 판단되는 컬러를 매칭하고, 예상 핏 데이터로서 사용자에게 제공할 수 있다.
S407 단계에서, 서비스 서버는 표본 데이터와 사용자 신체 정보를 기초로, 사용자가 옷을 고를 때 사이즈 또는 핏에 대해 참고할 수 있는 데이터인 예상 핏 데이터를 생성할 수 있다.
표본 데이터에는 사용자가 자신에게 어울릴지 알고자 하는 패션 아이템에 관한 정보, 키, 몸무게 및 신체 특징을 포함하는 사용자 신체 정보, 해당 사용자가 패션 아이템을 착용하였을 때 도출될 수 있는 핏에 관한 특징 레이블 정보가 포함될 수 있다.
서비스 서버는 사용자 디바이스로부터 사용자 본인의 사용자 신체 정보와 사용자가 선택한 패션 아이템에 관한 정보를 수신하고, 둘 모두를 포함하는 표본 데이터를 검색할 수 있다. 검색된 표본 데이터에 포함된 특징 레이블 정보는 예상 핏 데이터로서 사용자에게 제공될 수 있다.
모든 사용자의 사용자 신체 정보가 저장되어 있는 것은 현실적으로 불가능할 수 있다. 따라서, 정확히 일치하는 신체 특징이 저장되어 있지 않는 경우, 서비스 서버는 키, 몸무게와 같이 수치화된 신체 정보는 가장 근사한 값을 가지는 신체 정보를 검색할 수 있다.
팔이 긴 편, 허벅지가 얇은 편, 허벅지에 비해 허리 둘레가 큰 편과 같이 수치화될 수 없는 신체 특징은, 해당 신체 특징이 특징 레이블 정보로서 미리 정의되어 있는 경우 서비스 서버에서 검색될 수 있지만, 그렇지 않은 경우 서비스 서버를 업데이트하여 새롭게 특징 레이블 정보로 추가할 수 있다.
S409 단계에서, 서비스 서버는 사용자에게 예상 핏 데이터를 제공할 수 있다. 예상 핏 데이터는 표본 데이터에서 패션 아이템과 사용자 신체 정보가 일치할 때의 특징 레이블 정보일 수 있다.
본 발명의 실시 예에 따른 예상 핏 데이터는 키, 몸무게 뿐만 아니라 인간의 다양한 신체 특징을 반영한 예상 핏 데이터를 제공할 수 있다. 따라서, 패션 아이템이 동일한 사이즈임에도 불구하고 사용자마다 핏이 다르게 나올 수 있는데, 이에 대한 오차를 줄일 수 있는 효과가 있다.
도 5는 도 4의 S501 단계의 일 실시 예를 상세하게 설명하기 위한 순서도이다.
도 5는 모델들이 직접 패션 아이템을 착용하여 표본 데이터를 생성하는 실시 예를 설명하기 위한 순서도이다. 이하 설명의 편의를 위해 키와 몸무게에 관한 정보는 기본 표본 데이터로, 그외 신체 특징에 관한 정보는 모델 표본 데이터로 구분하여 설명하였지만, 양자 모두 표본 데이터에 포함되는 것으로서 실시 예에 따라 구별되지 않는 개념일 수 있다.
S501 단계에서, 서비스 서버는 다양한 키와 몸무게를 가지는 모델들이 모든 사이즈의 동일한 패션 아이템들을 직접 착용하여 기본 표본 데이터를 생성할 수 있다.
예를 들어, 남성 모델의 경우, 160cm 부터 190cm까지의 분포에서 미리 정한 차이(예를 들어 5cm)마다 대표 표본 모델을 선정하고, 대표 표본 모델들은 모든 사이즈의 동일한 패션 아이템들을 직접 착용할 수 있다. 패션 아이템을 착용한 모델의 이미지는 사진으로 촬영되어 기본 표본 데이터로서 서비스 서버에 저장될 수 있다.
실시 예에 따라, 대표 표본 모델은 특정 범위의 몸무게 분포에서 선정될 수도 있다. 예를 들어, 남성 모델의 경우, 50kg 부터 90kg까지의 분포에서 미리 정한 차이(예를 들어 5kg)마다 대표 표본 모델을 선정하고, 각 모델들이 모든 사이즈의 동일한 패션 아이템들을 직접 착용할 수 있다.
실시 예에 따라, 키와 몸무게가 모두 반영된 기본 표본 데이터가 생성될 수도 있다. 위의 남성 모델의 예에서, 160cm의 모델을 50kg~90kg까지 세분화하여 대표 모델로 선정하고, 165cm의 모델을 50kg~90kg까지 세분화하여 대표 모델로 선정하고, 170cm의 모델을 50kg~90kg까지 세분화하여 대표 모델로 선정하는 등 동일한 키를 가지는 모델들을 몸무게에 따라 세분화하여 대표 모델로 선정할 수 있다.
S503 단계에서, 서비스 서버는 다양한 신체 특징을 가지는 모델들이 모든 사이즈의 동일 패션 아이템들을 직접 착용하여 모델 표본 데이터를 생성할 수 있다.
동일한 키와 몸무게를 가지는 모델이라도 신체 특징에 따라 전혀 다른 핏을 나타낼 수 있다. 예를 들어, A 모델과 B 모델이 키와 몸무게가 동일한데, A 모델은 상체에 비해 하체가 발달하고 B 모델은 하체에 비해 상체가 발달한 경우가 있을 수 있다. 이때, A 모델은 동일한 키와 몸무게를 가지는 사람들보다 상의는 상대적으로 큰 사이즈의 옷을, 하의는 상대적으로 작은 사이즈의 옷이 어울릴 수 있다. 반면, B 모델은 동일한 키와 몸무게를 가지는 사람들보다 상의는 상대적으로 작은 사이즈의 옷을, 하의는 상대적으로 큰 사이즈의 옷이 어울릴 수 있다.
모델 표본 데이터는 보다 정확한 예상 핏 데이터를 사용자에게 제공하기 위해 다양한 신체 특징을 가지는 모델들의 착용샷을 포함할 수 있다. 모델 표본 데이터에 반영된 신체 특징이 많을수록 사용자는 보다 정확한 예상 핏 데이터를 확인할 수 있다. 따라서, 서비스 서버는 주기적으로 모델 표본 데이터를 업데이트하여 다양한 신체 특징 또는 최신 트랜드가 반영된 예상 핏 데이터를 제공할 수 있다.
S505 단계에서, 서비스 서버는 생성된 기본 표본 데이터 및 모델 표본 데이터를 표본 데이터로서 서비스 서버에 저장할 수 있다.
도 6은 도 4의 S501 단계의 다른 실시 예를 상세하게 설명하기 위한 순서도이다.
도 6은 표본 데이터가 3D 스캐닝 데이터를 통해 생성되는 과정을 설명하기 위한 순서도이다. 즉, 모델들이 직접 패션 아이템을 착용한 데이터가 아니라, 다양한 키, 몸무게, 신체 특징을 가지는 모델들의 신체 3D 스캐닝 데이터와 패션 아이템 3D 스캐닝 데이터로부터 표본 데이터가 획득될 수 있다.
구체적으로, S601 단계에서, 서비스 서버는 사전에 특정 패션 아이템이 인간에게 주는 느낌인 핏에 관한 특징 레이블들을 정의할 수 있다. 특정 레이블에는 오버핏 레이블, 슬림핏 레이블, 정장핏 레이블, 루즈핏 레이블, 저스트핏 레이블, 기본핏 레이블 등이 포함될 수 있다.
S603 단계에서, 서비스 서버는 패션 아이템의 3D 스캐닝 데이터를 생성할 수 있다. 3D 스캐닝 데이터란 3D 스테레오 카메라(3D Stereo camera), 3D 깊이 카메라(3D Depth camera) 등 기존의 2D에서 할 수 없었던 이미지의 각 픽셀의 깊이 값을 계산하여 물체의 3D 이미지를 촬영한 데이터일 수 있다.
구체적으로, 서비스 서버는 패션 아이템을 다양한 각도에서 촬영하고, 총장, 어깨너비, 가슴 단면, 소매길이, 허리 둘레, 허벅지 단면, 밑단 단면, 밑 위 등 패션 아이템의 사이즈를 입체적으로 확인할 수 있는 패션 아이템 3D 스캐닝 정보를 생성할 수 있다.
S605 단계에서, 서비스 서버는 다양한 키, 몸무게, 신체 특징을 가지는 모델들의 신체의 3D 이미지인 신체 3D 스캐닝 데이터를 생성할 수 있다.
촬영된 3D 스캐닝 데이터는 표본 데이터 생성시 필요할 때마다 반복적으로 사용될 수 있기 때문에, 특정 신체 정보의 신체 3D 스캐닝 데이터는 초기에 단 한 번만 촬영되면 충분할 수 있다.
초기 표본 데이터의 데이터베이스 생성시 모든 신체 정보를 반영하는 것은 현실적으로 어려울 수 있다. 따라서, 이후 임의의 시간마다 또는 주기적으로 새로운 3D 스캐닝 데이터를 생성하고 표본 데이터를 업데이트 할 수 있다.
또한, 도면에는 도시되지 않았지만, 패션 아이템 3D 데이터 및 신체 3D 데이터는 카메라를 통해 실제로 촬영된 이미지 뿐만 아니라, 포토샵 등 이미지 편집 프로그램을 통해 디자인된 이미지를 포함할 수 있다.
모든 신체 특징, 패션 아이템을 카메라로 촬영하고 편집하는 것은 매우 많은 시간과 노력이 소요될 수 있다. 이미지 편집 프로그램을 통해 패션 아이템 3D 스캐닝 데이터 및 신체 3D 스캐닝 데이터를 생성함으로써, 표본 데이터의 데이터베이스를 단기간에 효율적으로 구축할 수 있는 효과가 있다.
S607 단계에서, 서비스 서버는 패션 아이템 3D 스캐닝 데이터 및 신체 3D 스캐닝 데이터에 포함된 벡터값들을 연산하여, 예상되는 핏에 관한 정보를 포함하는 특징 벡터값을 추출할 수 있다.
특징 벡터값의 추출에는 다양한 기법들이 사용될 수 있다. 예를 들어, 서비스 서버는 신체 3D 스캐닝 데이터와 패션 아이템 3D 스캐닝 데이터를 중첩시켰을 때, 어깨선의 위치, 허리 공간의 여유분, 소매가 얼마나 짧거나 긴지, 상의가 하의를 얼마나 덮는지, 발목의 노출 정도, 착용 후 옷에 주름이 얼마나 생기는지 등에 따라, 어떠한 핏이 도출되는지 판단할 수 있다.
특징 벡터값에 대응되는 특징 레이블들은 사용자의 신체 정보, 패션 아이템 정보와 함께 표본 데이터로 생성될 수 있다. 특징 레이블은 특정 패션 아이템이 인간에게 주는 느낌인 핏을 텍스트로 표현한 것일 수 있다. 예를 들어, 특징 레이블에는 오버핏 레이블, 슬림핏 레이블, 정장핏 레이블, 루즈핏 레이블, 저스트핏 레이블, 기본핏 레이블 등이 포함될 수 있다.
S609 단계에서, 서비스 서버는 생성된 특징 벡터값에 대응되는 특징 레이블을 해당 패션 아이템에 태그하여, 표본 데이터를 생성할 수 있다. 표본 데이터는 패션 아이템 정보, 기본 신체 정보 및 신체 특징 정보를 포함하는 신체 정보, 특징 레이블 정보를 포함할 수 있다.
S611 단계에서, 서비스 서버는 생성된 표본 데이터를 서비스 서버에 저장할 수 있다. 서비스 서버에 저장된 표본 데이터는 사용자가 예상 핏 데이터를 요청하거나, 필요에 따라 예상 핏 데이터를 제공할 때 사용될 수 있다. 표본 데이터는 임의의 시점 또는 주기적으로 최신의 핏 트랜드와 보다 다양한 신체 특징을 반영하기 위하여 업데이트될 수 있다.
도 7은 오프라인 매장에서 구현되는 본 발명의 실시 예를 설명하기 위한 순서도이다.
도 7을 참조하면, S701 단계에서 서비스 서버는 오프라인 매장의 거울에 설치된 카메라를 통해 수집된 사용자의 신체 정보를 저장할 수 있다.
오프라인 매장에서 사용자가 패션 아이템을 착용하고, 거울을 보면, 거울에 설치된 카메라가 사용자의 착용샷을 촬영할 수 있다. 사진을 촬영하는 타이밍은 거울을 보는 것과 동시에, 거울을 본 시점부터 일정한 시간이 흐른 뒤, 또는 거울을 보는 동안 주기적으로 촬영될 수 있다. 다만, 이는 예시일 뿐이고, 사진을 촬영하는 시점은 다양한 방법으로 수행될 수 있다.
수집된 사용자 신체 정보는 서비스 서버로 전송될 수 있다. S703 단계에서, 서비스 서버는 사용자 신체 정보 및 표본 데이터를 기초로 예상 핏 데이터를 생성할 수 있다. 예상 핏 데이터는, 도 4에 대한 설명에서 전술한 바와 같이, 사용자 신체 정보와 패션 아이템 정보가 일치하는 표본 데이터에 포함된 특징 레이블 정보를 예상 핏 데이터로 결정하는 과정에 따라 생성될 수 있다.
S705 단계에서, 서비스 서버는 사용자, 오프라인 매장 및/또는 패션 아이템의 브랜드 회사에게 예상 핏 데이터를 제공할 수 있다.
사용자에게 전송된 예상 핏 데이터는 사용자가 실제 유사한 사이즈 또는 유사한 스타일의 의상을 입었을 때, 가상 피팅으로 활용될 수 있다. 소비자는 가상 피팅을 통해 수많은 옷을 직접 입어봐야 하는 번거로움을 줄일 수 있고, 쇼핑에 소요되는 시간을 줄일 수 있는 효과가 있다.
또한, 오프라인 매장 또는 패션 아이템의 브랜드 회사에게 전송되었을 때에는, 해당 오프라인 매장 또는 브랜드 회사의 고객 정보로서 관리될 수 있다. 이를 통해 오프라인 매장, 브랜드 회사는 고객 맞춤형 서비스를 제공할 수 있고, 변화하는 트랜드를 파악하기 용이하고, 사용자의 니즈를 보다 정확하게 반영할 수 있는 효과가 있다.
본 명세서와 도면에 게시된 본 발명의 실시 예들은 본 발명의 기술내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것뿐이며, 본 명의 범위를 한정하고자 하는 것은 아니다. 여기에 게시된 실시 예들 이외에도 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (16)

  1. 다양한 사이즈의 동일한 패션 아이템이, 인간의 신체 정보에 따라 매칭된 표본 데이터를 생성하는 표본 데이터 생성부;
    상기 표본 데이터를 저장하는 표본 데이터 저장부; 및
    사용자 디바이스로부터 패션 아이템 정보와 사용자 신체 정보를 수신하고, 상기 표본 데이터 저장부에 저장된 상기 표본 데이터를 참고하여 예상 핏 데이터를 생성하는 예상 핏 데이터 제공부를 포함하고,
    상기 예상 핏 데이터는 사용자가 상기 패션 아이템을 고를 때 사이즈 또는 핏에 대해 참고할 수 있는 데이터인 패션 정보 제공 시스템.
  2. 제1항에 있어서, 상기 표본 데이터 생성부는,
    다양한 키와 몸무게를 가지는 모델들이 상기 다양한 사이즈의 동일 패션 아이템을 직접 착용하여 기본 표본 데이터를 생성하고, 다양한 신체 특징을 가지는 모델들이 상기 다양한 사이즈의 동일한 패션 아이템을 직접 착용하여 모델 표본 데이터를 생성하는 패션 정보 제공 시스템.
  3. 제2항에 있어서, 상기 표본 데이터 생성부는,
    다양한 키, 몸무게, 신체 특징을 가지는 모델들의 3D 이미지인 신체 3D 스캐닝 데이터를 생성하고, 패션 아이템들의 3D 이미지인 패션 아이템 3D 스캐닝 데이터를 생성하고, 상기 신체 3D 스캐닝 데이터 및 상기 패션 아이템 3D 스캐닝 데이터를 기초로 상기 표본 데이터를 생성하는 패션 정보 제공 시스템.
  4. 제3항에 있어서, 상기 표본 데이터 생성부는,
    이미지 편집 프로그램을 통해 디자인된 이미지를 통해, 상기 패션 아이템 3D 스캐닝 데이터 및 상기 신체 3D 스캐닝 데이터를 생성하고, 상기 패션 아이템 3D 스캐닝 데이터 및 상기 신체 3D 스캐닝 데이터를 기초로 상기 표본 데이터를 생성하는 패션 정보 제공 시스템.
  5. 제4항에 있어서, 상기 표본 데이터 생성부는,
    학습된 신경망 모델을 통한 머신 러닝 모델을 통해 상기 표본 데이터를 생성하고,
    상기 신경망 모델은,
    심층 신경망(Deep Neural Networks, DNN), 컨볼루션 신경망(Convolutional deep Neural Networks, CNN), 순환 인공 신경망(Reccurent Neural Network, RNN), 심층 신뢰 신경 망(Deep Belief Networks, DBN) 중 적어도 어느 하나를 이용하는 패션 정보 제공 시스템.
  6. 제1항에 있어서, 상기 표본 데이터 저장부는,
    다양한 신체 정보를 반영하고, 시간의 흐름에 따라 생성되거나 소멸되는 핏에 관한 정보를 반영하기 위해 주기적으로 업데이트되는 패션 정보 제공 시스템.
  7. 제1항에 있어서, 상기 예상 핏 데이터 제공부는,
    상기 사용자 디바이스로부터 수신한 상기 사용자 신체 정보가, 상기 표본 데이터와 가장 근접한 상기 표본 데이터를 사용자의 신체 정보로 판단하고, 상기 표본 데이터를 상기 예상 핏 데이터로서 상기 사용자에게 제공하는 패션 정보 제공 시스템.
  8. 제2항에 있어서, 상기 예상 핏 데이터 제공부는,
    상기 사용자 디바이스로부터 수신한 상기 사용자 신체 정보를 공통적으로 포함하는 상기 표본 데이터를 사용자의 신체 정보로 판단하고, 상기 표본 데이터를 상기 예상 핏 데이터로서 상기 사용자에게 제공하는 패션 정보 시스템.
  9. 다양한 사이즈의 동일한 패션 아이템이, 인간의 신체 정보에 따라 매칭된 표본 데이터를 생성하는 단계;
    상기 표본 데이터를 저장하는 단계; 및
    사용자 디바이스로부터 패션 아이템 정보와 사용자 신체 정보를 수신하고, 상기 표본 데이터 저장부에 저장된 상기 표본 데이터를 참고하여, 예상 핏 데이터를 생성하는 단계를 포함하고,
    상기 예상 핏 데이터는 사용자가 상기 패션 아이템을 고를 때, 사이즈 또는 핏에 대해 참고할 수 있는 데이터인 패션 정보 제공 방법.
  10. 제9항에 있어서, 상기 표본 데이터를 생성하는 단계는,
    다양한 키와 몸무게를 가지는 모델들이 상기 다양한 사이즈의 동일 패션 아이템을 직접 착용하여 기본 표본 데이터를 생성하고, 다양한 신체 특징을 가지는 모델들이 상기 다양한 사이즈의 동일한 패션 아이템을 직접 착용하여 모델 표본 데이터를 생성하는 패션 정보 제공 방법.
  11. 제10항에 있어서, 상기 표본 데이터를 생성하는 단계는,
    다양한 키, 몸무게, 신체 특징을 가지는 모델들의 3D 이미지인 신체 3D 스캐닝 데이터를 생성하고, 패션 아이템들의 3D 이미지인 패션 아이템 3D 스캐닝 데이터를 생성하고, 상기 신체 3D 스캐닝 데이터 및 상기 패션 아이템 3D 스캐닝 데이터를 기초로 상기 표본 데이터를 생성하는 패션 정보 제공 방법.
  12. 제11항에 있어서, 상기 표본 데이터를 생성하는 단계는,
    이미지 편집 프로그램을 통해 디자인된 이미지를 통해, 상기 패션 아이템 3D 스캐닝 데이터 및 상기 신체 3D 스캐닝 데이터를 생성하고, 상기 패션 아이템 3D 스캐닝 데이터 및 상기 신체 3D 스캐닝 데이터를 기초로 상기 표본 데이터를 생성하는 패션 정보 제공 방법.
  13. 제12항에 있어서, 상기 표본 데이터를 생성하는 단계는,
    학습된 신경망 모델을 통한 머신 러닝 모델을 통해 상기 표본 데이터를 생성하고,
    상기 신경망 모델은,
    심층 신경망(Deep Neural Networks, DNN), 컨볼루션 신경망(Convolutional deep Neural Networks, CNN), 순환 인공 신경망(Reccurent Neural Network, RNN), 심층 신뢰 신경 망(Deep Belief Networks, DBN) 중 적어도 어느 하나를 이용하는 패션 정보 제공 방법.
  14. 제9항에 있어서, 상기 표본 데이터를 저장하는 단계는,
    다양한 신체 정보를 반영하고, 시간의 흐름에 따라 생성되거나 소멸되는 핏에 관한 정보를 반영하기 위해 주기적으로 업데이트되는 패션 정보 제공 방법.
  15. 제9항에 있어서, 상기 예상 핏 데이터를 생성하는 단계는,
    상기 사용자 디바이스로부터 수신한 상기 사용자 신체 정보가, 상기 표본 데이터와 가장 근접한 상기 표본 데이터를 사용자의 신체 정보로 판단하고, 상기 표본 데이터를 상기 예상 핏 데이터로서 상기 사용자에게 제공하는 패션 정보 제공 방법.
  16. 제10항에 있어서, 상기 예상 핏 데이터를 생성하는 단계는,
    상기 사용자 디바이스로부터 수신한 상기 사용자 신체 정보를 공통적으로 포함하는 상기 표본 데이터를 사용자의 신체 정보로 판단하고, 상기 표본 데이터를 상기 예상 핏 데이터로서 상기 사용자에게 제공하는 패션 정보 방법.
PCT/KR2020/016970 2019-11-29 2020-11-26 패션 정보 제공 방법, 장치 및 시스템 WO2021107642A2 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022529514A JP2023503575A (ja) 2019-11-29 2020-11-26 ファッション情報提供方法、装置およびシステム
US17/780,790 US20220414755A1 (en) 2019-11-29 2020-11-26 Method, device, and system for providing fashion information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0156779 2019-11-29
KR1020190156779A KR102382633B1 (ko) 2019-11-29 2019-11-29 패션 정보 제공 방법, 장치 및 시스템

Publications (2)

Publication Number Publication Date
WO2021107642A2 true WO2021107642A2 (ko) 2021-06-03
WO2021107642A3 WO2021107642A3 (ko) 2021-07-15

Family

ID=76129506

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/016970 WO2021107642A2 (ko) 2019-11-29 2020-11-26 패션 정보 제공 방법, 장치 및 시스템

Country Status (4)

Country Link
US (1) US20220414755A1 (ko)
JP (1) JP2023503575A (ko)
KR (2) KR102382633B1 (ko)
WO (1) WO2021107642A2 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102408462B1 (ko) * 2021-10-05 2022-06-14 임동욱 뉴럴 네트워크를 이용한 의상 추천 방법 및 장치

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6546309B1 (en) * 2000-06-29 2003-04-08 Kinney & Lange, P.A. Virtual fitting room
JP2003049309A (ja) * 2001-08-07 2003-02-21 Kunihiro Toyokawa 衣装合わせ支援システム、衣装合わせ支援方法及び衣装合わせ支援方法を実行するためのプログラムを記録したコンピュータ読取可能な記録媒体
JP2006024203A (ja) * 2004-06-10 2006-01-26 Miyuki Iino コーディネート支援システム
KR20070050165A (ko) * 2005-11-10 2007-05-15 종 해 김 인터넷을 이용한 패션제품의 전자상거래 방법과 시스템
US9189886B2 (en) * 2008-08-15 2015-11-17 Brown University Method and apparatus for estimating body shape
US8762292B2 (en) * 2009-10-23 2014-06-24 True Fit Corporation System and method for providing customers with personalized information about products
GB201102794D0 (en) * 2011-02-17 2011-03-30 Metail Ltd Online retail system
KR20140042600A (ko) * 2012-09-28 2014-04-07 성재식 사용자의 신체 정보를 이용한 상품 검색 서비스 제공 방법
US20140368499A1 (en) * 2013-06-15 2014-12-18 Rajdeep Kaur Virtual Fitting Room
GB201406539D0 (en) * 2014-04-11 2014-05-28 Metail Ltd Garment size recommendation
US20160019626A1 (en) * 2014-07-21 2016-01-21 Thanh Pham Clothing Fitting System
US9928412B2 (en) * 2014-10-17 2018-03-27 Ebay Inc. Method, medium, and system for fast 3D model fitting and anthropometrics
KR102580009B1 (ko) * 2015-08-04 2023-09-18 주식회사 엘지유플러스 의류 피팅 시스템 및 의류 피팅 시스템의 동작 방법
WO2017029488A2 (en) * 2015-08-14 2017-02-23 Metail Limited Methods of generating personalized 3d head models or 3d body models
JP2018018382A (ja) * 2016-07-29 2018-02-01 富士通株式会社 推奨サイズ提示プログラム、情報処理装置及び推奨サイズ提示方法
JP2020512628A (ja) * 2017-03-07 2020-04-23 オリジナル, インコーポレイテッドOriginal, Inc. カスタマイズされた衣服及び衣装デザインを生成する方法及びシステム
US11983748B2 (en) * 2017-09-07 2024-05-14 Stitch Fix, Inc. Using artificial intelligence to determine a size fit prediction
JP6731430B2 (ja) * 2018-01-26 2020-07-29 ソフトバンク株式会社 情報提供装置、方法、及びプログラム
CN113272849A (zh) * 2018-10-19 2021-08-17 帕菲特利有限责任公司 帕菲特利perfitly ar/vr平台

Also Published As

Publication number Publication date
KR20220044711A (ko) 2022-04-11
KR20210067309A (ko) 2021-06-08
WO2021107642A3 (ko) 2021-07-15
KR102382633B1 (ko) 2022-04-04
JP2023503575A (ja) 2023-01-31
US20220414755A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
WO2017171418A1 (en) Method for composing image and electronic device thereof
WO2012060537A2 (ko) 얼굴 및 스타일 인식 기반의 추천 시스템 및 그 방법
WO2017142361A1 (ko) 스타일 특징을 이용한 상품 추천 방법
KR102227896B1 (ko) 영상데이터의 외형서술데이터 획득 방법, 장치 및 프로그램
WO2010120101A2 (ko) 역 벡터 공간 모델을 이용한 키워드 추천방법 및 그 장치
WO2023214626A1 (ko) 블록체인 기반의 디지털 의상 재조합 시스템 및 방법
WO2018225939A1 (ko) 이미지 기반 광고 제공 방법, 장치 및 컴퓨터 프로그램
WO2019117563A1 (ko) 대화형 원격 의료를 위한 통합 예측 분석 장치 및 동작 방법
WO2018230834A1 (ko) 나만의 이미지를 이용한 캐릭터 제작 및 상품 주문 서비스 시스템 및 방법
WO2021107642A2 (ko) 패션 정보 제공 방법, 장치 및 시스템
WO2018226022A1 (ko) 패션 아이템 추천 서버 및 그를 이용한 패션 아이템 추천 방법
WO2024025220A1 (ko) 온라인 광고 컨텐트 플랫폼을 제공하기 위한 시스템
WO2020141802A2 (ko) 사용자에게 날짜를 이용하여 패션 아이템 추천 서비스를 제공하는 방법
WO2019117463A1 (ko) 증강현실 의류 쇼핑을 위한 웨어러블 글래스 및 증강현실 의류 쇼핑 방법
WO2013032198A1 (ko) 높은 연관성을 가지는 아이템을 추천하는 아이템 기반의 추천 엔진
WO2019168224A1 (ko) 몰입형 가상피팅 연계 서비스 제공 시스템 및 몰입형 가상피팅 연계 서비스 제공 방법
WO2022025340A1 (ko) 가상 옷장 구축 및 코디 조합 생성 시스템 및 그 방법
WO2020141799A2 (ko) 사용자에게 캘린더 데이터를 이용하여 패션 아이템 추천 서비스를 제공하는 방법
CN112148912A (zh) 用于衣物推荐的方法及装置、设备
WO2020138656A1 (ko) 상품 별 쇼핑 정보 제공 방법 및 이를 수행하는 전자기기
WO2019194569A1 (ko) 이미지 검색 방법, 장치 및 컴퓨터 프로그램
WO2020138941A2 (ko) 사용자에게 스와이프 제스처를 이용한 패션 아이템 추천 서비스를 제공하는 방법
JP2015179431A (ja) 検索装置、検索方法、及びプログラム
WO2012020919A1 (ko) 사용자별 치수 비교 장치 및 방법
WO2019151620A1 (ko) 컨텐츠 정보 제공 장치 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20894717

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 2022529514

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20894717

Country of ref document: EP

Kind code of ref document: A2