WO2020050287A1 - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
WO2020050287A1
WO2020050287A1 PCT/JP2019/034671 JP2019034671W WO2020050287A1 WO 2020050287 A1 WO2020050287 A1 WO 2020050287A1 JP 2019034671 W JP2019034671 W JP 2019034671W WO 2020050287 A1 WO2020050287 A1 WO 2020050287A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
image information
item
design
Prior art date
Application number
PCT/JP2019/034671
Other languages
English (en)
French (fr)
Inventor
陽一 落合
圭介 大井
誠幸 佐々木
健介 安間
奈津実 加藤
宏幸 大曽根
Original Assignee
ピクシーダストテクノロジーズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピクシーダストテクノロジーズ株式会社 filed Critical ピクシーダストテクノロジーズ株式会社
Priority to JP2020541250A priority Critical patent/JP6914569B2/ja
Publication of WO2020050287A1 publication Critical patent/WO2020050287A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Definitions

  • the present invention relates to an information processing device and a program.
  • FashionFTech has recently attracted attention as a technology applicable to the fashion field.
  • the introduction of Fashion @ Tech is expected to revolutionize the business model in the fashion field.
  • Japanese Patent Application Laid-Open No. 2013-235528 discloses a technique for easily generating an appropriate coordinate for a user. According to Japanese Patent Application Laid-Open No. 2013-235528, an objective coordination proposal can be provided to a user.
  • Fashion brands provide new fashion items to the market by continuing to create designs that reflect the individuality of the brand. For this reason, the designers of each fashion brand design to reflect the individuality of the brand. The more unique a fashion brand is, the more difficult it is to create a novel design.
  • the object of the present invention is to provide a novel design while retaining the individuality of existing items.
  • One embodiment of the present invention provides Means for storing design image information corresponding to the design in which the plurality of categories output from the generation model corresponding to the combination of the plurality of categories, A means for receiving designation of a plurality of categories from a user, A means for presenting design image information corresponding to a combination of a plurality of categories specified by the user from the plurality of design image information, It is an information processing device.
  • FIG. 1 is a block diagram illustrating a configuration of an information processing system according to a first embodiment.
  • FIG. 2 is a functional block diagram of the information processing system of FIG. 1. It is an explanatory view of the outline of a 1st embodiment. It is a figure showing the data structure of the item information database of a 1st embodiment. It is a figure showing the data structure of the design image information database of a 1st embodiment.
  • FIG. 5 is an explanatory diagram of a design image generation process according to the first embodiment. It is a sequence diagram of the design image presentation processing of the first embodiment.
  • FIG. 8 is a diagram illustrating an example of a screen displayed in the information processing in FIG. 7. It is explanatory drawing of the outline
  • FIG. 11 is a diagram illustrating an example of a screen displayed in the information processing in FIG. 10. It is an explanatory view of the outline of the modification of a 2nd embodiment. It is a figure showing the data structure of the characteristic information database of the modification of a 2nd embodiment. It is a sequence diagram of the design image generation processing of the modification of the second embodiment.
  • FIG. 16 is a diagram illustrating an example of a screen displayed in the information processing in FIG. 15. It is explanatory drawing of the outline
  • FIG. 21 is a diagram illustrating an example of a screen displayed in the information processing of FIG. 20.
  • FIG. 21 is a detailed flowchart of generating the design image of FIG. 20. It is an explanatory view of the outline of the modification 1 of the 3rd embodiment.
  • FIG. 19 is a sequence diagram of a design image generation process according to a first modification of the third embodiment.
  • FIG. 25 is a diagram illustrating an example of a screen displayed in the information processing of FIG. 24.
  • FIG. 25 is a diagram illustrating an example of a screen displayed in the information processing of FIG. 24.
  • FIG. 31 is a diagram illustrating an example of a screen displayed in the information processing in FIG. 30. 31 is a detailed flowchart of generating the design image in FIG. 30.
  • FIG. 1 is a block diagram illustrating a configuration of the information processing system according to the first embodiment.
  • FIG. 2 is a functional block diagram of the information processing system of FIG.
  • the information processing system 1 includes a client device 10 and a server 30.
  • the client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.
  • NW a network
  • the client device 10 is an example of an information processing device that transmits a request to the server 30.
  • the client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.
  • the server 30 is an example of an information processing apparatus that provides a response to a request transmitted from the client device 10 to the client device 10.
  • the server 30 is, for example, a web server.
  • the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, and a communication interface 14.
  • the storage device 11 is configured to store programs and data.
  • the storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).
  • the programs include, for example, the following programs.
  • -OS Operating System
  • Application for example, web browser
  • the data includes, for example, the following data.
  • ⁇ Database referred to in information processing ⁇ Data obtained by executing information processing (that is, execution result of information processing)
  • the processor 12 is configured to realize the functions of the client device 10 by activating the program stored in the storage device 11.
  • Processor 12 is an example of a computer.
  • the input / output interface 13 is configured to acquire a user's instruction from an input device connected to the client device 10 and output information to an output device connected to the client device 10.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • the communication interface 14 is configured to control communication between the client device 10 and the server 30.
  • the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface.
  • the storage device 31 is configured to store programs and data.
  • the storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).
  • the programs include, for example, the following programs.
  • -OS program-Application program that executes information processing
  • the data includes, for example, the following data. ⁇ Database referenced in information processing ⁇ Execution result of information processing
  • the processor 32 is configured to realize the function of the server 30 by activating the program stored in the storage device 31.
  • Processor 32 is an example of a computer.
  • the input / output interface 33 is configured to acquire a user instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • the communication interface 34 is configured to control communication between the server 30 and the client device 10.
  • FIG. 3 is an explanatory diagram of the outline of the first embodiment.
  • the server 30 stores a generated model (CATEGORYixj) corresponding to a combination of a plurality of categories and design image information (CATEGORYixj) output from each generated model (CATEGORYixj).
  • Each generation model (CATEGORYixj) is constructed by inputting item image information of a plurality of categories.
  • Each design image information (CATEGORYixj) corresponds to a combination of a plurality of categories.
  • the server 30 selects the design image information (CATEGORY1 ⁇ 2) corresponding to the combination of the plurality of categories designated by the user from the plurality of design image information (CATEGORYixj). ).
  • FIG. 4 is a diagram illustrating a data structure of the item information database according to the first embodiment.
  • the item information database includes an "item ID” field, an "item name” field, a “category” field, and an “item image” field. Each field is associated with one another.
  • the item ID is stored in the “item ID” field.
  • the item ID is an example of item identification information for identifying an item.
  • the item is, for example, a fashion item.
  • the fashion item includes at least one of the following. ⁇ Clothing, shoes, underwear, bags, accessories, glasses
  • the "item name” field stores information (for example, text) related to the item name of the item.
  • the "category” field stores category information relating to the category of the item.
  • the “category” field includes a plurality of subfields (“brand” field and “type” field).
  • the "brand” field stores brand information (for example, information about the brand name) relating to the brand of the item (for example, a fashion brand).
  • the “type” field stores type information relating to the type of the item (for example, “SHIRT” or “SHOES”).
  • Image information of the item is stored in the “item image” field.
  • the image information is, for example, at least one of images captured from at least one direction of the front, side, and back of the item.
  • FIG. 5 is a diagram illustrating a data structure of the design image information database according to the first embodiment.
  • the design image information database includes a “design image ID” field, a “category” field, and a “design image” field. Each field is associated with one another.
  • the “design image ID” field stores the design image ID.
  • the design image ID is an example of design image identification information for identifying design image information.
  • the “category” field stores category information (for example, brand information) of a plurality of items that are the basis of the design image information.
  • the “design image” field stores design image information output by the generation model.
  • FIG. 6 is an explanatory diagram of the design image generation processing of the first embodiment.
  • FIG. 6 shows an example of processing for generating design image information corresponding to a combination of a brand i and a brand j.
  • the storage device 31 stores a learned generation model (for example, GAN (Generation Adversarial Networks) or DCGAN (Deep Convolutional Generative Adversarial Networks)) for each combination of a plurality of brands.
  • a learned generation model for example, GAN (Generation Adversarial Networks) or DCGAN (Deep Convolutional Generative Adversarial Networks)
  • the generation model (BRANDixj) corresponding to the brands “BRANDi” and “BRANDj” is learned based on the item image information (BRANDi) of the brand “BRANDi” and the item image information (BRANDj) of the brand “BRANDj”.
  • the processor 32 selects a generation model (BLANDixj) corresponding to a combination of the brands “BRANDi” and “BRANDj” from among the generation models stored in the storage device 31.
  • the processor 32 refers to the item information database (FIG. 4) and refers to the information of the “item image” field associated with the brands “BRANDi” and “BRANDj” (that is, the item image information of the brand “BRANDi” and the brand “BRANDj”). Item image information).
  • the generation model (BRANDixj) outputs design image information (BRANDixj) corresponding to the brands “BRANDi” and “BRANDj”.
  • the processor 32 adds a new record to the design image information database (FIG. 5).
  • the following information is stored in each field of the new record.
  • a new design image ID is stored in the “design image ID” field.
  • -Brand information is stored in the "category” field.
  • the "design image” field stores design image information output from the generated model.
  • FIG. 7 is a sequence diagram of the design image presentation processing of the first embodiment.
  • FIG. 8 is a diagram showing an example of a screen displayed in the information processing of FIG.
  • the client device 10 executes reception of a user instruction (S110). Specifically, processor 12 displays screen P10 (FIG. 8) on a display.
  • the screen P10 includes an operation object B100 and field objects F100 to F101.
  • the field objects F100 to F101 are objects that receive designation of brand information from a user.
  • the operation object B100 is an object for determining the designation of the field objects F100 to F101.
  • the client device 10 executes a design request (S111). Specifically, when the user specifies a brand with the field objects F100 to F101 and operates the operation object B100, the processor 12 transmits the design request data to the server 30.
  • the design request data includes a combination of brand information specified by the field objects F100 to F101.
  • the server 30 executes selection of a design image (S130).
  • the processor 32 refers to the design image information database (FIG. 5), and stores information (that is, design image information) in the “design image” field associated with the combination of brands included in the design request data. select.
  • the server 30 executes a design response (S131). Specifically, the processor 32 transmits the design response data to the client device 10.
  • the design response data includes the design image information selected in step S130.
  • the client device 10 displays a design image (S112). Specifically, processor 12 displays screen P11 (FIG. 8) on a display.
  • Screen P11 includes an operation object B110 and image objects IMG110 to IMG113.
  • the image objects IMG110 to IMG113 are image objects corresponding to the design image information included in the design response data.
  • the server 30 presents design image information output from a generation model corresponding to a combination of a plurality of categories specified by a user.
  • a novel design can be provided while retaining the individuality of the existing items.
  • the user when a plurality of pieces of design image information are presented, the user can select desired design image information.
  • the server 30 may select the design image information to be included in the design response data from the plurality of design image information output by the generation model based on the user information on the user.
  • the second embodiment is an example in which design image information is generated according to a user instruction.
  • FIG. 9 is an explanatory diagram of the outline of the second embodiment.
  • the server 30 stores item image information corresponding to a plurality of categories.
  • the server 30 receives designation of a plurality of categories (“CATEGORY1” and “CATEGORY2”) from the user via the client device 10.
  • the server 30 generates a generation model (CATEGORY1 ⁇ 2) using the item image information (CATEGORY1 and CATEGORY2) of a plurality of categories specified by the user.
  • the generation model (CATEGORY1x2) outputs design image information (CATEGORY1x2) corresponding to a plurality of categories specified by the user.
  • the server 30 presents the design image information (CATEGORY1x2) output from the generation model (CATEGORY1x2) to the user via the client device 10.
  • FIG. 10 is a sequence diagram of a design image generation process according to the second embodiment.
  • FIG. 11 is a detailed flowchart of generating the design image of FIG.
  • FIG. 12 is a diagram showing an example of a screen displayed in the information processing of FIG.
  • the client device 10 executes steps S110 to S111 as in the design image presentation process (FIG. 7) of the first embodiment.
  • the server 30 executes generation of a design image (S230).
  • the server 30 executes selection of an item image (S2300).
  • the processor 32 refers to the item image information database (FIG. 4), and refers to the information in the “item image” field associated with the brand information included in the design request data (that is, the brand of the brand specified by the user). Select (Item image information).
  • server 30 executes generation model construction (S2301). Specifically, the processor 32 learns the generation model by inputting the item image information selected in step S2300 to the generation model stored in the storage device 31.
  • the server 30 outputs a design image (S2302). Specifically, the processor 32 gives an output instruction to the generation model.
  • the generation model outputs design image information according to an output instruction.
  • the server 30 executes the step S131 similarly to the design image presentation process (FIG. 7) of the first embodiment.
  • the client device 10 displays a design image (S210). Specifically, processor 12 displays screen P20 (FIG. 12) on a display.
  • the screen P20 includes image objects IMG110 to IMG113 and an operation object B200.
  • the operation object 200 is an object that receives a user instruction for transmitting design request data to the server 30 again.
  • the processor 12 executes step S111 again.
  • the server 30 regenerates the design image information.
  • the generation model outputs different design image information every time step S2301 is executed.
  • the processor 12 displays the screen P21 (FIG. 12) on the display.
  • Screen P21 includes image objects IMG210 to IMG213 and operation object B200.
  • the image objects IMG210 to IMG213 are design image information generated in response to the operation of the operation object B200.
  • the design image information generated in response to the operation of the operation object B200 is different from the design image information generated before the operation of the operation object B200. Thereby, new design image information can be presented.
  • the server 30 inputs the item image information of the category designated by the user to the generation model according to the designation of the category by the user.
  • the generation model outputs different design image information each time a combination of item image information is input.
  • new design image information can be provided every time the design image generation processing is executed.
  • new design image information is presented after the user operates the operation object B200.
  • the user can easily obtain a desired design image.
  • the modification of the second embodiment is an example in which design image information is generated using a generation model learned based on item image information associated with feature information.
  • FIG. 13 is an explanatory diagram of an outline of a modification of the second embodiment.
  • the server 30 stores the item image information and the feature information in association with each other.
  • the server 30 receives designation of a plurality of categories (“CATEGORY1” and “CATEGORY2”) and designation of design features from the user via the client device 10.
  • the server 30 uses item image information (CATEGORY1 and CATEGORY2) of a plurality of categories specified by the user and feature information corresponding to a design feature specified by the user among feature information associated with each item image information.
  • the generation model (CATEGORY1x2) outputs a combination of a plurality of categories specified by the user and design image information (CATEGORY1x2) corresponding to the feature specified by the user.
  • the server 30 presents the design image information (CATEGORY1x2) output from the generation model (CATEGORY1x2) to the user via the client device 10.
  • FIG. 14 is a diagram illustrating a data structure of a feature information database according to a modification of the second embodiment.
  • the feature information database of FIG. 14 stores feature information on the features of the items.
  • the feature information database includes an “image ID” field, an “image link” field, and a “feature” field. Each field is associated with one another.
  • An image ID is stored in the “image ID” field.
  • the image ID is an example of image identification information for identifying item image information.
  • the “image link” field stores information on the file name of the item image information.
  • the “feature” field stores feature information (for example, a feature vector).
  • the feature of the item is, for example, at least one of the following. ⁇ Sex gender (for example, for men, women or unisex) -Usage scene (for example, business, casual or formal) ⁇ Size ⁇ Color ⁇ Taste ⁇ Silhouette
  • FIG. 15 is a sequence diagram of a design image generation process according to a modification of the second embodiment.
  • FIG. 16 is a diagram showing an example of a screen displayed in the information processing of FIG.
  • the client device 10 executes a reception of a user instruction (S211). Specifically, processor 12 displays screen P22 (FIG. 16) on a display.
  • the screen P22 includes an operation object B220 and field objects F100 to F101 and F220.
  • the field object F220 is an object that receives designation of a desired design feature from a user.
  • the operation object B220 is an object for determining the designation of the field objects F100 to F101 and F220.
  • the client device 10 executes a design request (S212). Specifically, when the user specifies a brand with field objects F100 to F101, specifies design features with field object F210, and operates operation object B210, processor 12 transmits design request data to server 30. I do.
  • the design request data includes a combination of brand information specified by the field objects F100 to F101, and a feature specified by the field object F210.
  • step S230 the server 30 executes step S230 as in FIG. Specifically, after executing step S2300 in the same manner as in FIG. 11, in step S2301, the processor 32 includes the selected item image information and the feature information associated with the item image information in the design request data. By inputting feature information corresponding to the feature to be generated and the generated model, the generated model is learned. After step S2301, the processor 32 executes step S2302 as in FIG. As a result, the generation model outputs the design image information.
  • step S230 the server 30 executes S131 as in FIG.
  • step S131 the client device 10 executes step S210 as in FIG.
  • the generation model is learned using the item image information corresponding to the combination of the brand information designated by the user and the feature information corresponding to the feature designated by the user. This makes it possible to easily obtain design image information in which the user's desired features are more strongly reflected.
  • the third embodiment is an example in which design image information according to at least one of user information and a user instruction is generated.
  • FIG. 17 is an explanatory diagram of the outline of the third embodiment.
  • the server 30 stores a combination of item image information and feature information of a plurality of categories, and a generation model constructed by a combination of item image information and feature information of a plurality of categories. .
  • the server 30 receives, via the client device 10, the designation of a plurality of categories “CATEGORY1” and “CATEGORY2” from the user, and at least one of the user information and the user instruction regarding the user.
  • the server 30 selects a generation model (CATEGORY1 ⁇ 2) corresponding to a plurality of categories “CATEGORY1” and “CATEGORY2” specified by the user.
  • the server 30 adjusts the parameters of the selected generation model (CATEGORY 1 ⁇ 2) based on at least one of the user information and the user instruction.
  • the generated model (CATEGORY1x2) whose parameters have been adjusted outputs design image information (CATEGORY1x2) corresponding to a plurality of categories specified by the user.
  • the server 30 presents the design image information (CATEGORY1x2) output from the generation model (CATEGORY1x2) to the user via the client device 10.
  • FIG. 18 is a diagram illustrating a data structure of a user information database according to the third embodiment.
  • the user information database of FIG. 18 stores user information on the user.
  • the user information database includes a "user ID” field, a "user name” field, a “user attribute” field, a “user image” field, a “user size” field, a “user preference” field, and a “action history”. "Field. Each field is associated with one another.
  • the "user ID" field stores a user ID.
  • the user ID is an example of user identification information for identifying a user.
  • the "user name” field stores information (for example, text) on the name of the user.
  • the "user attribute” field stores user attribute information on the attribute of the user.
  • the “user attribute” field includes a plurality of subfields (for example, a “gender” field and an “age” field).
  • the “gender” field stores information about the user's gender.
  • the “age” field stores information on the age of the user.
  • the “user image” field stores user image information of the user (for example, image information including the user's face or whole body).
  • the “user size” field stores user size information on the size of the user.
  • the user size information is one of the following.
  • -Index related to the size of the user's clothes for example, S, M, or L
  • An index relating to the size of the user's body for example, slim, standard or big silhouette
  • Information on measurement results measured by a measurement device capable of measuring the size of each part of the user's body for example, height, neck circumference, chest measurement, waist, and thigh).
  • the “user preference” field stores user preference information regarding the user preference.
  • the user preference information is, for example, at least one of the following. -Preference for art (e.g., music, movies, or paintings)-Preference for brand nationality (e.g., Japanese, French, or Italian)-Item atmosphere (e.g., feminine, simple, school-garde, Or basic) -Item genre (eg American casual or mode) ⁇ Preferences for actions on social networks (information reacting on social networks or information posted to social networks)
  • the “purchase history” field stores purchase history information on the history of items purchased by the user.
  • the purchase history information is, for example, an item ID of an item purchased by the user.
  • FIG. 19 is a diagram illustrating the data structure of the model information database according to the third embodiment.
  • the model information database of FIG. 19 stores model information on the generated model.
  • the model information database includes a “model ID” field, a “model name” field, and a “category” field. Each field is associated with one another.
  • model ID is stored in the “model ID” field.
  • the model ID is an example of model identification information for identifying a generated model.
  • the "model name” field stores information (for example, text) on the name of the model.
  • the "category” field stores category information (for example, brand information) relating to a combination of categories corresponding to the generation model.
  • FIG. 20 is a sequence diagram of the design image generation processing of the third embodiment.
  • FIG. 21 is a diagram showing an example of a screen displayed in the information processing of FIG.
  • FIG. 22 is a detailed flowchart of generation of the design image in FIG.
  • the client device 10 executes reception of a user instruction (S310). Specifically, processor 12 displays screen P30 (FIG. 21) on a display.
  • the screen P30 includes an operation object B300, and field objects F100 to F101 and F300 to F303.
  • Field object F300 is an object that accepts a user instruction for designating a user ID.
  • the field object F301 is an object that receives a user instruction for designating a use scene of a desired item.
  • the field object F302 is an object that receives a user instruction for designating a taste of a desired item.
  • the field object F303 is an object that receives a user instruction for designating a mixture ratio of a plurality of brands input to the field objects F100 to F101.
  • the operation object B300 is an object that accepts a user instruction for confirming inputs to the field objects F100 to F101 and F300 to F302.
  • the client device 10 executes a design request (S311). Specifically, when the user inputs a user instruction to the field objects F101 to F101 and at least one of the field objects F300 to F302 and operates the operation object B300, the processor 12 transmits the design request data to the server 30. Send to The design request data includes the following information. A combination of brand information specified by the field objects F100 to F101; a user instruction specified by at least one of the field objects F300 to F303 (that is, at least one of a user ID, a desired use scene, and a desired taste) User instructions)
  • the server 30 executes generation of a design image (S330).
  • the server 30 executes a generation model selection (S3300).
  • the processor 32 refers to the model information database (FIG. 19) to specify information (that is, a model ID) of a “model ID” field associated with the brand information included in the design request data.
  • the specified model ID identifies the selected generated model.
  • the server 30 executes parameter adjustment (S3301).
  • step S3301 when the design request data includes the user ID specified by the field object F300, the processor 32 refers to the user information database (FIG. 18) and refers to the “user” associated with the user ID. Specify the user attribute information stored in the "attribute" field. The processor 32 adjusts the parameters of the generation model selected in step S3300 based on the combination of the brand information included in the design request data and the specified user attribute information.
  • the processor 32 refers to the user information database (FIG. 18) and refers to the “user” associated with the user ID. Specify the user attribute information stored in the "attribute" field.
  • the processor 32 adjusts the parameters of the generation model selected in step S3300 based on the combination of the brand information included in the design request data and the specified user attribute information.
  • step S3301 if the design request data includes the user ID specified by the field object F300, the processor 32 refers to the user information database (FIG. 18) and refers to the “user” associated with the user ID.
  • the user preference information stored in the "preference" field is specified.
  • the processor 32 adjusts the parameters of the generation model selected in step S3300 based on the combination of the brand information included in the design request data and the specified user preference information.
  • step S3301 if the design request data includes the user ID specified by the field object F300, the processor 32 refers to the user information database (FIG. 18) and “purchase” associated with the user ID.
  • the purchase history information (for example, item ID) stored in the "history" field is specified.
  • the processor 32 specifies the feature information of the item image information associated with the specified item ID with reference to the feature information database (FIG. 14).
  • the processor 32 adjusts the parameters of the generation model selected in step S3300 based on the combination of the brand information included in the design request data and the specified feature information.
  • step S3301 when the design request data includes the user ID specified by the field object F300, the processor 32 refers to the user information database (FIG. 18) and refers to the “user” associated with the user ID.
  • the user image information stored in the "image" field is specified.
  • the processor 32 extracts a feature amount related to a feature of the user's body by applying a feature amount analysis to the user image information.
  • the body characteristics include, for example, at least one of a body type, a height, a face contour, an arrangement of face parts, a skin color, and a hair color.
  • the processor 32 adjusts the parameters of the generation model selected in step S3300 based on the combination of the brand information included in the design request data and the extracted feature amount.
  • step S3301 if the design request data includes information on the use scene specified by the field object F301, the processor 32 is selected in step S3300 based on the information on the use scene included in the design request data. Adjust the parameters of the generated model.
  • step S3301 if the design request data includes information on the taste specified by the field object F302, the processor 32 generates the image selected in step S3300 based on the information on the taste included in the design request data. Adjust model parameters.
  • step S3301 when the design request data includes the mixture ratio specified in the field object F303, the processor 32 determines the generation model of the generation model selected in step S3300 based on the mixture ratio included in the design request data. Adjust the parameters.
  • the server 30 After step S3301, the server 30 outputs a design image (S3302). Specifically, the processor 32 gives an output instruction to the generated model whose parameters have been adjusted in step S3301. The generation model outputs design image information according to an output instruction.
  • step S330 the server 30 executes step S131 as in FIG.
  • step S331 the client device 10 executes step S210 as in FIG.
  • the parameters of the generation model are adjusted according to at least one of the user information and the user instruction. Therefore, it is possible to present the design image information reflecting the personality of the user and the combination of the existing items.
  • the first modification of the third embodiment is an example in which design image information is corrected according to user information.
  • FIG. 23 is an explanatory diagram of an outline of a first modification of the third embodiment.
  • the server 30 outputs design image information (CATEGORY1 ⁇ 2) to a generation model corresponding to a combination of a plurality of categories (“CATEGORY1” and “CATEGORY2”) designated by the user.
  • the server 30 corrects the design image information (CATEGORY1x2) based on the correction instruction designated by the user, thereby generating corrected image information (CATEGORY1x2).
  • the server 30 presents the corrected image information (CATEGORY 1 ⁇ 2) to the user.
  • FIG. 24 is a sequence diagram of a design image generation process according to the first modification of the third embodiment.
  • FIG. 25 is a diagram showing an example of a screen displayed in the information processing of FIG.
  • FIG. 26 is a diagram showing an example of a screen displayed in the information processing of FIG.
  • the client device 10 executes steps S310 to S311 as in FIG.
  • the server 30 executes steps S330 and S131 as in FIG.
  • the client device 10 displays a design image (S410). Specifically, processor 12 displays screen P40 (FIG. 25) on a display.
  • the screen P40 includes image objects IMG110 to IMG113 and operation objects B200 and B400.
  • the operation object 400 is an object that receives a user instruction for correction.
  • the processor 12 displays a screen P41 (FIG. 25) on the display.
  • the screen P41 includes an operation object B410 and field objects F410 to F412.
  • the field object F410 is an object that receives a user instruction for changing the shape of at least one of the image objects IMG110 to IMG113 (for example, the image object specified by the user).
  • the user can input a “small” or “large” user instruction into the field object F410.
  • the field object F411 is an object that receives a user instruction for adding a part to at least one of the image objects IMG110 to IMG113 (for example, an image object specified by the user).
  • the user can input at least one user instruction of “pocket” and “button” into the field object F411.
  • the field object F412 is an object that receives a user instruction for reflecting a brand image on at least one of the image objects IMG110 to IMG113 (for example, an image object specified by the user). As an example, the user can input at least one user instruction of “logo” and “pattern” into the field object F412.
  • the operation object B411 is an object that receives a user instruction for confirming the contents input to the field objects F410 to F412.
  • the client device 10 executes a correction request (S411). Specifically, the processor 12 transmits the correction request data to the server 30.
  • the correction request data includes a user instruction input to the field objects F410 to F412.
  • the server 30 executes the correction (S430).
  • the storage device 31 stores an image correction filter corresponding to an item of a user instruction that can be accepted by the field objects F410 to F412.
  • the processor 32 outputs a user instruction (a user instruction for changing a shape, a user instruction for adding an item, and a brand image) included in the correction request data from the image correction filters stored in the storage device 31.
  • the processor 32 selects an image correction filter that reduces the design image information by 10%. If the user size information is “big silhouette”, the processor 32 selects an image correction filter that enlarges the design image information by 15%.
  • the processor 32 generates corrected image information by applying the selected image correction filter to the design image information generated in step S330.
  • the server 30 executes a correction response (S431). Specifically, the processor 32 transmits the correction response data to the client device 10.
  • the correction response data includes the correction image information generated in step S4302.
  • step S431 the client device 10 displays a corrected image (S412). Specifically, processor 12 displays screen P41 (FIG. 26) on a display.
  • Screen P41 includes image objects IMG420 to IMG423.
  • Image objects IMG420 to IMG423 are objects corresponding to the corrected image information included in the corrected response data.
  • the design image information is corrected according to the user's instruction. This allows the user's preference to be reflected in the design image information.
  • Modification 2 of the third embodiment will be described.
  • Modification 2 is an example in which design image information is corrected based on user size information measured by a measurement device.
  • FIG. 27 is an explanatory diagram of an outline of Modification 2 of the third embodiment.
  • the server 30 outputs design image information (CATEGORY1 ⁇ 2) to a generation model corresponding to a combination of a plurality of categories (“CATEGORY1” and “CATEGORY2”) specified by the user.
  • design image information CATEGORY 1 ⁇ 2
  • the user measures the size of each part of his body using the measuring device.
  • the server 30 generates corrected image information (CATEGORY1x2) by correcting the design image information (CATEGORY1x2) based on the user size information on the size measured by the measuring device.
  • the server 30 presents the corrected image information (CATEGORY 1 ⁇ 2) to the user.
  • the processor 32 refers to the user information database (FIG. 18) and refers to the user size information (user related to the measurement result by the measurement device) associated with the user ID included in the design request data. Size information).
  • the processor 32 acquires the user size information on the measurement result by the measuring device from the measuring device or the client device 10. The processor 32 specifies the measurement result as user size information.
  • the processor 32 selects an image correction filter corresponding to the specified user size information from the image correction filters stored in the storage device 31. More specifically, when the user size information is information related to the measurement result, the processor 32 corrects each part of the design image information according to the size of each part of the user's body.
  • the processor 32 generates corrected image information by applying the selected image correction filter to the design image information generated in step S330.
  • the design image information is corrected based on the user size information (for example, information on the measurement result measured by the measurement device). Thereby, design image information suitable for the user's body can be presented to the user.
  • Modification 3 of the third embodiment is an example in which design image information is corrected using a correction model.
  • FIG. 28 is an explanatory diagram of an outline of Modification 3 of the third embodiment.
  • the server 30 outputs design image information (CATEGORY1 ⁇ 2) to a generation model corresponding to a combination of a plurality of categories (“CATEGORY1” and “CATEGORY2”) designated by the user.
  • the server 30 inputs the design image information (CATEGORY 1 ⁇ 2) to the correction model based on the correction instruction specified by the user.
  • the correction model outputs corrected image information (CATEGORY 1 ⁇ 2).
  • the server 30 presents the corrected image information (CATEGORY 1 ⁇ 2) to the user.
  • the server 30 stores a learned correction model.
  • the correction model is learned by deep learning using a plurality of item image information, feature information associated with each item image information, and an image processing filter.
  • the correction model is, for example, GAN or DCGAN.
  • step S430 in FIG. 24 the server 30 corrects the design image information using the correction model stored in the storage device 31. Specifically, the processor 32 inputs the image correction filter selected in step S430 and the design image information generated in step S330 to the correction model. As a result, the correction model outputs corrected image information according to the user instruction included in the correction request data.
  • the correction model outputs corrected image information. Therefore, the design image information corrected with higher accuracy can be presented to the user.
  • the fourth embodiment is an example in which design image information is generated based on item image information stored on a network.
  • FIG. 29 is an explanatory diagram of the outline of the fourth embodiment.
  • the server 30 of FIG. 29 stores a plurality of item image information.
  • the server 30 acquires user information and user size information.
  • the server 30 presents recommended item image information (hereinafter, referred to as “recommended image information”) to the user based on the user information and the user size information from among the plurality of item image information. For example, tops recommended image information (CATEGORY1) and bottoms recommended image information (CATEGORY2) are presented.
  • the server 30 acquires a user instruction regarding a desired category (CATEGORY 1).
  • the server 30 adjusts the parameters of the generation model (CATEGORY1 ⁇ 2) based on the category (CATEGORY1) corresponding to the user instruction.
  • the generated model (CATEGORY1x2) with the adjusted parameters outputs design image information (CATEGORY1x2) corresponding to the category (CATEGORY1) corresponding to the user's instruction.
  • the server 30 presents the design image information (CATEGORY1x2) output from the generation model (CATEGORY1x2) to the user via the client device 10.
  • FIG. 30 is a sequence diagram of a design image generation process according to the fourth embodiment.
  • FIG. 31 is a diagram showing an example of a screen displayed in the information processing of FIG.
  • FIG. 32 is a detailed flowchart of generation of the design image in FIG.
  • the client device 10 executes reception of a user instruction (S510). Specifically, processor 12 displays screen P50 (FIG. 31) on a display.
  • Screen P50 includes an operation object B500 and a field object F500.
  • Field object F500 is an object that accepts a user instruction for designating a user ID.
  • the operation object B500 is an object that receives a user instruction for confirming an input to the field object F500.
  • the client device 10 executes a recommendation request (S511). Specifically, when the user inputs a user instruction to the field object F500 and operates the operation object B500, the processor 12 transmits recommendation request data to the server 30.
  • the recommendation request data includes the user ID specified by the field object F500.
  • the server 30 executes the specification of the recommended item (S530). Specifically, the processor 32 specifies the user information associated with the user ID included in the recommendation request data with reference to the user information database (FIG. 18).
  • the processor 32 specifies the item ID of the recommended item based on the specified user information with reference to the item image information database (FIG. 4) and the feature information database (FIG. 14).
  • the storage device 31 stores a coordinate model in which a preferable combination of a plurality of items is defined.
  • the processor 32 refers to the information in the “purchase history” field associated with the user ID included in the recommendation request data, and specifies the item ID of the owned item owned by the user.
  • the processor 32 inputs the category information and the feature information associated with the item ID of the possessed item to the coordinate model.
  • the coordinate model outputs an item ID of a recommended item that is preferably combined with an owned item from among the item IDs stored in the item information database.
  • the server 30 executes a recommendation response (S531). Specifically, the processor 32 transmits the recommended response data to the client device 10.
  • the recommended response data includes the following information. -Item ID specified in step S530 -Item image information associated with the item ID (that is, recommended image information of the recommended item)
  • the client device 10 displays a recommended image (S512). Specifically, the processor 12 displays the screen P51 on the display.
  • Screen P51 includes image objects IMG510 to IMG513, operation object B510, and field object F510.
  • the image objects IMG510 to IMG513 are assigned item IDs of recommended items.
  • the image object IMG510 is recommended image information of a recommended item corresponding to a category “CATEGORY1” (for example, type “TOPS”).
  • the image object IMG511 is recommended image information of a recommended item corresponding to a category “CATEGORY2” (for example, type “BOTOMS”).
  • the image object IMG512 is recommended image information of a recommended item corresponding to a category “CATEGORY3” (for example, type “SHOES”).
  • the image object IMG 513 is recommended image information of a recommended item corresponding to a category “CATEGORY 4” (for example, type “WATCH”).
  • Field object F510 is an object for receiving a user instruction for designating a desired item type.
  • the operation object B510 is an object for finalizing operations on the image objects IMG510 to IMG513 and input to the field object F510.
  • the client device 10 executes a design request (S513). Specifically, when the user specifies at least two of image objects IMG510 to IMG513, specifies a desired type in field object F510, and operates operation object B510, processor 12 transmits design request data to server 30. Send to The design request data includes the following information. Item IDs assigned to the image objects IMG510 to IMG513 specified by the user -User instruction specified by field object F510 (that is, desired type)
  • step S513 the server 30 executes generation of a design image (S530).
  • the server 30 executes a generation model selection (S5300).
  • the processor 32 refers to the item information database (FIG. 4), and stores the information of the “category” field (for example, the information of the “brand” field) associated with the item ID included in the design request data. Identify.
  • the processor 32 refers to the model information database (FIG. 19), and specifies the information (that is, the model ID) of the “model ID” field associated with the information of the specified category field.
  • the specified model ID identifies the selected generated model.
  • server 30 executes parameter adjustment (S5301). Specifically, the processor 32 adjusts the parameters of the generated model selected in step S5300 based on the desired type included in the design request data. This increases the probability that the desired type of design image information is generated from the generated model.
  • the server 30 executes the step S3302 as in FIG.
  • step S530 the server 30 executes step S131 as in FIG.
  • step S131 the client device 10 executes step S210 as in FIG.
  • the type of design image information desired by the user is presented based on the recommended image information of the recommended item presented to the user.
  • a novel design can be provided while retaining the individuality of the recommendation item recommended to the user.
  • the storage device 11 may be connected to the client device 10 via the network NW.
  • the storage device 31 may be connected to the server 30 via the network NW.
  • the present embodiment an example in which information processing is realized by a combination of the client device 10 and the server 30 has been described. It can also be realized in a distributed environment using the above devices. As described above, the present embodiment can be applied to various forms such as a web service realized by the server 30 or a program installed in the client device 10.
  • the communication interfaces 14 and 34 may support not only communication using the Internet protocol, but also communication using a wired or wireless bus connection, USB (registered trademark), or Bluetooth (registered trademark). .
  • the “item” in the present embodiment may be an item other than the fashion item. That is, the “category” of the present embodiment is not limited to a fashion brand. Items other than fashion items include, for example, at least one of the following. ⁇ Products (for example, electronic devices or sports equipment) ⁇ Product package (for example, product packaging or container)
  • design image information corresponding to a combination of two categories is presented.
  • the present embodiment is not limited to this. This embodiment is also applicable to a case where design image information corresponding to a combination of three or more categories is presented.
  • Information processing system 10 Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 30: Server 31: Storage device 32: Processor 33: Input / output interface 34: Communication interface

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

情報処理装置は、複数のカテゴリの組合せに対応する生成モデルから出力された複数のカテゴリが混合したデザインに対応するデザイン画像情報を記憶する手段を備え、ユーザから複数のカテゴリの指定を受け付ける手段を備え、複数のデザイン画像情報の中から、ユーザによって指定された複数のカテゴリの組合せに対応するデザイン画像情報を提示する手段を備える。

Description

情報処理装置及びプログラム
 本発明は、情報処理装置及びプログラムに関する。
 近年、ファッション分野に適用可能な技術として、Fashion Techが注目されている。Fasion Techの導入により、ファッション分野のビジネスモデルの変革が期待される。
 例えば、特開2013-235528号公報には、ユーザに対して、適切なコーディネートを容易に生成する技術が開示されている。特開2013-235528号公報によれば、ユーザに対して、客観的なコーディネートの提案を提供することができる。
 ファッションブランドは、ブランドの個性が反映されたデザインを創出し続けることにより、新たなファッションアイテムを市場に提供している。そのため、各ファッションブランドのデザイナーは、ブランドの個性が反映されるようにデザインを行っている。ファッションブランドの個性が強いほど、斬新なデザインの創出は困難になる傾向がある。
 特開2013-235528号公報の技術は、既存のファッションアイテムの組合せを提案するものであるので、既存のファッションアイテムの存在を前提とする。そのため、新たなデザインを創出することは困難である。
 本発明の目的は、既存のアイテムの個性を残しつつも斬新なデザインを提供することである。
 本発明の一態様は、
 複数のカテゴリの組合せに対応する生成モデルから出力された複数のカテゴリが混合したデザインに対応するデザイン画像情報を記憶する手段を備え、
 ユーザから複数のカテゴリの指定を受け付ける手段を備え、
 前記複数のデザイン画像情報の中から、前記ユーザによって指定された複数のカテゴリの組合せに対応するデザイン画像情報を提示する手段を備える、
情報処理装置である。
 本発明によれば、既存のアイテムの個性を残しつつも斬新なデザインを提供することができる。
第1実施形態の情報処理システムの構成を示すブロック図である。 図1の情報処理システムの機能ブロック図である。 第1実施形態の概要の説明図である。 第1実施形態のアイテム情報データベースのデータ構造を示す図である。 第1実施形態のデザイン画像情報データベースのデータ構造を示す図である。 第1実施形態のデザイン画像生成処理の説明図である。 第1実施形態のデザイン画像提示処理のシーケンス図である。 図7の情報処理において表示される画面例を示す図である。 第2実施形態の概要の説明図である。 第2実施形態のデザイン画像生成処理のシーケンス図である。 図10のデザイン画像の生成の詳細なフローチャートである。 図10の情報処理において表示される画面例を示す図である。 第2実施形態の変形例の概要の説明図である。 第2実施形態の変形例の特徴情報データベースのデータ構造を示す図である。 第2実施形態の変形例のデザイン画像生成処理のシーケンス図である。 図15の情報処理において表示される画面例を示す図である。 第3実施形態の概要の説明図である。 第3実施形態のユーザ情報データベースのデータ構造を示す図である。 第3実施形態のモデル情報データベースのデータ構造を示す図である。 第3実施形態のデザイン画像生成処理のシーケンス図である。 図20の情報処理において表示される画面の例を示す図である。 図20のデザイン画像の生成の詳細なフローチャートである。 第3実施形態の変形例1の概要の説明図である。 第3実施形態の変形例1のデザイン画像生成処理のシーケンス図である。 図24の情報処理において表示される画面の例を示す図である。 図24の情報処理において表示される画面の例を示す図である。 第3実施形態の変形例2の概要の説明図である。 第3実施形態の変形例3の概要の説明図である。 第4実施形態の概要の説明図である。 第4実施形態のデザイン画像生成処理のシーケンス図である。 図30の情報処理において表示される画面の例を示す図である。 図30のデザイン画像の生成の詳細なフローチャートである。
 以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)第1実施形態
 第1実施形態について説明する。
(1-1)情報処理システムの構成
 情報処理システムの構成について説明する。図1は、第1実施形態の情報処理システムの構成を示すブロック図である。図2は、図1の情報処理システムの機能ブロック図である。
 図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
 クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
 クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
 サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
(1-1-1)クライアント装置の構成
 クライアント装置10の構成について説明する。
 図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。
 記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
 プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
 データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
 プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
 入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
 通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
(1-1-2)サーバの構成
 サーバ30の構成について説明する。
 図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
 記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
 プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
 データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
 プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
 入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
 通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
(1-2)第1実施形態の概要
 第1実施形態の概要について説明する。図3は、第1実施形態の概要の説明図である。
 図3に示すように、サーバ30には、複数のカテゴリの組合せに対応する生成モデル(CATEGORYixj)と、各生成モデル(CATEGORYixj)が出力したデザイン画像情報(CATEGORYixj)と、が記憶される。各生成モデル(CATEGORYixj)は、複数のカテゴリのアイテム画像情報を入力することにより構築される。各デザイン画像情報(CATEGORYixj)は、複数のカテゴリの組合せに対応する。
 ユーザが複数のカテゴリ「CATEGORY1」及び「CATEGORY2」を指定すると、サーバ30は、複数のデザイン画像情報(CATEGORYixj)の中から、ユーザによって指定された複数のカテゴリの組合せに対応するデザイン画像情報(CATEGORY1x2)を提示する。
(1-3)データベース
 第1実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(1-3-1)アイテム情報データベース
 第1実施形態のアイテム情報データベースについて説明する。図4は、第1実施形態のアイテム情報データベースのデータ構造を示す図である。
 図4に示すように、アイテム情報データベースは、「アイテムID」フィールドと、「アイテム名」フィールドと、「カテゴリ」フィールドと、「アイテム画像」フィールドと、を含む。
 各フィールドは、互いに関連付けられている。
 「アイテムID」フィールドには、アイテムIDが格納される。アイテムIDは、アイテムを識別するアイテム識別情報の一例である。アイテムは、例えば、ファッションアイテムである。ファッションアイテムは、一例として、以下の少なくとも1つを含む。
・衣服
・靴
・下着
・鞄
・アクセサリー
・眼鏡
 「アイテム名」フィールドには、アイテムのアイテム名に関する情報(例えば、テキスト)が格納される。
 「カテゴリ」フィールドには、アイテムのカテゴリに関するカテゴリ情報が格納される。「カテゴリ」フィールドは、複数のサブフィールド(「ブランド」フィールド及び「タイプ」フィールド)を含む。
 「ブランド」フィールドには、アイテムのブランド(一例として、ファッションブランド)に関するブランド情報(一例として、ブランド名に関する情報)が格納される。
 「タイプ」フィールドには、アイテムのタイプ(一例として、「SHIRT」又は「SHOES」)に関するタイプ情報が格納される。
 「アイテム画像」フィールドには、アイテムの画像情報が格納される。画像情報は、例えば、アイテムの正面、側面、及び、背面の少なくとも一方向から撮影された画像の少なくとも1つである。
(1-3-2)デザイン画像情報データベース
 本実形態のデザイン画像情報データベースについて説明する。図5は、第1実施形態のデザイン画像情報データベースのデータ構造を示す図である。
 図5に示すように、デザイン画像情報データベースは、「デザイン画像ID」フィールドと、「カテゴリ」フィールドと、「デザイン画像」フィールドと、を含む。
 各フィールドは、互いに関連付けられている。
 「デザイン画像ID」フィールドには、デザイン画像IDが格納される。デザイン画像IDは、デザイン画像情報を識別するデザイン画像識別情報の一例である。
 「カテゴリ」フィールドには、デザイン画像情報の元になる複数のアイテムのカテゴリ情報(例えば、ブランド情報)が格納される。
 「デザイン画像」フィールドには、生成モデルによって出力されたデザイン画像情報が格納される。
(1-4)情報処理
 第1実施形態の情報処理について説明する。
(1-4-1)デザイン画像生成処理
 第1実施形態のデザイン画像生成処理について説明する。図6は、第1実施形態のデザイン画像生成処理の説明図である。
 図6では、ブランドi及びブランドjの組合せに対応するデザイン画像情報を生成する処理の例を示す。
 記憶装置31には、複数のブランドの組合せ毎に、学習済の生成モデル(例えば、GAN(Generation Adversarial Networks)又はDCGAN(Deep Convolutional Generative Adversarial Networks))が記憶されている。例えば、ブランド「BRANDi」及び「BRANDj」に対応する生成モデル(BRANDixj)は、ブランド「BRANDi」のアイテム画像情報(BRANDi)及びブランド「BRANDj」のアイテム画像情報(BRANDj)により学習されている。
 図6に示すように、プロセッサ32は、記憶装置31に記憶された生成モデルのうち、ブランド「BRANDi」及び「BRANDj」の組合せに対応する生成モデル(BLANDixj)を選択する。
 プロセッサ32は、アイテム情報データベース(図4)を参照して、ブランド「BRANDi」及び「BRANDj」に関連付けられた「アイテム画像」フィールドの情報(つまり、ブランド「BRANDi」のアイテム画像情報及びブランド「BRANDj」のアイテム画像情報)を選択する。
 生成モデル(BRANDixj)は、ブランド「BRANDi」及び「BRANDj」に対応するデザイン画像情報(BRANDixj)を出力する。
 プロセッサ32は、デザイン画像情報データベース(図5)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「デザイン画像ID」フィールドには、新規のデザイン画像IDが格納される。
・「カテゴリ」フィールドには、ブランド情報が格納される。
・「デザイン画像」フィールドには、生成モデルから出力されたデザイン画像情報が格納される。
(1-4-2)デザイン画像提示処理
 第1実施形態のデザイン画像提示処理について説明する。図7は、第1実施形態のデザイン画像提示処理のシーケンス図である。図8は、図7の情報処理において表示される画面例を示す図である。
 図7に示すように、クライアント装置10は、ユーザ指示の受付(S110)を実行する。
 具体的には、プロセッサ12は、画面P10(図8)をディスプレイに表示する。
 画面P10は、操作オブジェクトB100と、フィールドオブジェクトF100~F101と、を含む。
 フィールドオブジェクトF100~F101は、ユーザから、ブランド情報の指定を受け付けるオブジェクトである。
 操作オブジェクトB100は、フィールドオブジェクトF100~F101の指定を確定させるオブジェクトである。
 ステップS110の後、クライアント装置10は、デザインリクエスト(S111)を実行する。
 具体的には、ユーザがフィールドオブジェクトF100~F101でブランドを指定し、且つ、操作オブジェクトB100を操作すると、プロセッサ12は、デザインリクエストデータをサーバ30に送信する。デザインリクエストデータは、フィールドオブジェクトF100~F101で指定されたブランド情報の組合せを含む。
 ステップS111の後、サーバ30は、デザイン画像の選択(S130)を実行する。
 具体的には、プロセッサ32は、デザイン画像情報データベース(図5)を参照して、デザインリクエストデータに含まれるブランドの組合せに関連付けられた「デザイン画像」フィールドの情報(つまり、デザイン画像情報)を選択する。
 ステップS130の後、サーバ30は、デザインレスポンス(S131)を実行する。
 具体的には、プロセッサ32は、デザインレスポンスデータをクライアント装置10に送信する。デザインレスポンスデータは、ステップS130において選択されたデザイン画像情報を含む。
 ステップS131の後、クライアント装置10は、デザイン画像の表示(S112)を実行する。
 具体的には、プロセッサ12は、画面P11(図8)をディスプレイに表示する。
 画面P11は、操作オブジェクトB110と、画像オブジェクトIMG110~IMG113と、を含む。
 画像オブジェクトIMG110~IMG113は、デザインレスポンスデータに含まれるデザイン画像情報に対応する画像オブジェクトである。
 第1実施形態によれば、サーバ30は、ユーザが指定した複数のカテゴリの組合せに対応する生成モデルから出力されたデザイン画像情報を提示する。これにより、既存のアイテムの個性を残しつつも斬新なデザインを提供することができる。
 また、第1実施形態によれば、複数のデザイン画像情報を提示する場合、ユーザに所望のデザイン画像情報を選択させることができる。
 また、第1実施形態によれば、1つのデザイン画像情報を提示する場合、ユーザに選択させることなく、ユーザが指定した条件に該当するデザイン画像情報を提案することができる。
 この場合、サーバ30は、生成モデルによって出力された複数のデザイン画像情報の中から、ユーザに関するユーザ情報に基づいて、デザインレスポンスデータに含めるデザイン画像情報を選択してもよい。
(2)第2実施形態
 第2実施形態について説明する。第2実施形態は、ユーザ指示に応じてデザイン画像情報を生成する例である。
(2-1)第2実施形態の概要
 第2実施形態の概要について説明する。図9は、第2実施形態の概要の説明図である。
 図9に示すように、サーバ30には、複数のカテゴリに対応するアイテム画像情報が記憶される。
 サーバ30は、クライアント装置10を介して、ユーザから複数のカテゴリ(「CATEGORY1」及び「CATEGORY2」)の指定を受け付ける。
 サーバ30は、ユーザから指定された複数のカテゴリのアイテム画像情報(CATEGORY1及びCATEGORY2)を用いて、生成モデル(CATEGORY1x2)を生成する。
 生成モデル(CATEGORY1x2)は、ユーザから指定された複数のカテゴリに対応するデザイン画像情報(CATEGORY1x2)を出力する。
 サーバ30は、クライアント装置10を介して、生成モデル(CATEGORY1x2)から出力されたデザイン画像情報(CATEGORY1x2)をユーザに提示する。
(2-2)デザイン画像生成処理
 第2実施形態のデザイン画像生成処理について説明する。図10は、第2実施形態のデザイン画像生成処理のシーケンス図である。図11は、図10のデザイン画像の生成の詳細なフローチャートである。図12は、図10の情報処理において表示される画面例を示す図である。
 図10に示すように、クライアント装置10は、第1実施形態のデザイン画像提示処理(図7)と同様に、ステップS110~S111を実行する。
 ステップS111の後、サーバ30は、デザイン画像の生成(S230)を実行する。
 図11に示すように、サーバ30は、アイテム画像の選択(S2300)を実行する。
 具体的には、プロセッサ32は、アイテム画像情報データベース(図4)を参照して、デザインリクエストデータに含まれるブランド情報に関連付けられた「アイテム画像」フィールドの情報(つまり、ユーザが指定したブランドのアイテム画像情報)を選択する。
 ステップS2300の後、サーバ30は、生成モデルの構築(S2301)を実行する。
 具体的には、プロセッサ32は、ステップS2300で選択されたアイテム画像情報を、記憶装置31に記憶された生成モデルに入力することにより、生成モデルを学習させる。
 ステップS2301の後、サーバ30は、デザイン画像の出力(S2302)を実行する。
 具体的には、プロセッサ32は、生成モデルに出力指示を与える。生成モデルは、出力指示に応じてデザイン画像情報を出力する。
 ステップS230の後、サーバ30は、第1実施形態のデザイン画像提示処理(図7)と同様に、ステップS131を実行する。
 ステップS131の後、クライアント装置10は、デザイン画像の表示(S210)を実行する。
 具体的には、プロセッサ12は、画面P20(図12)をディスプレイに表示する。
 画面P20は、画像オブジェクトIMG110~IMG113と、操作オブジェクトB200と、を備える。
 操作オブジェクト200は、デザインリクエストデータをサーバ30に送信し直すためのユーザ指示を受け付けるオブジェクトである。
 操作オブジェクトB200をユーザが操作すると、プロセッサ12は、ステップS111を実行し直す。その結果、サーバ30は、デザイン画像情報を生成し直す。生成モデルは、ステップS2301が実行される度に異なるデザイン画像情報を出力する。
 この場合、プロセッサ12は、画面P21(図12)をディスプレイに表示する。
 画面P21は、画像オブジェクトIMG210~IMG213と、操作オブジェクトB200と、を含む。画像オブジェクトIMG210~IMG213は、操作オブジェクトB200の操作に応じて生成されるデザイン画像情報である。操作オブジェクトB200の操作に応じて生成されるデザイン画像情報は、操作オブジェクトB200の操作の前に生成されたデザイン画像情報とは異なる。これにより、新たなデザイン画像情報を提示することができる。
 第2実施形態によれば、サーバ30は、ユーザのカテゴリの指定に応じて、ユーザが指定したカテゴリのアイテム画像情報を生成モデルに入力する。生成モデルは、アイテム画像情報の組合せが入力される度に、異なるデザイン画像情報を出力する。これにより、デザイン画像生成処理を実行する度に、新たなデザイン画像情報を提供することができる。
 また、第2実施形態によれば、操作オブジェクトB200をユーザに操作させた後に新たなデザイン画像情報を提示する。これにより、ユーザは所望のデザイン画像を容易に得ることができる。
(2-3)変形例
 第2実施形態の変形例について説明する。第2実施形態の変形例は、特徴情報が関連付けられたアイテム画像情報によって学習された生成モデルを用いて、デザイン画像情報を生成する例である。
(2-3-1)変形例の概要
 第2実施形態の変形例の概要について説明する。図13は、第2実施形態の変形例の概要の説明図である。
 図13に示すように、サーバ30は、アイテム画像情報と、特徴情報と、を関連付けて記憶する。
 サーバ30は、クライアント装置10を介して、ユーザから複数のカテゴリ(「CATEGORY1」及び「CATEGORY2」)の指定と、デザインの特徴の指定と、を受け付ける。
 サーバ30は、ユーザが指定した複数のカテゴリのアイテム画像情報(CATEGORY1及びCATEGORY2)と、各アイテム画像情報に関連付けられた特徴情報のうちユーザが指定したデザインの特徴に対応する特徴情報と、を用いて生成モデル(CATEGORY1x2)を学習させる。
 生成モデル(CATEGORY1x2)は、ユーザが指定した複数のカテゴリの組合せ及びユーザが指定した特徴に対応するデザイン画像情報(CATEGORY1x2)を出力する。
 サーバ30は、クライアント装置10を介して、生成モデル(CATEGORY1x2)から出力されたデザイン画像情報(CATEGORY1x2)をユーザに提示する。
(2-3-2)特徴情報データベース
 第2実施形態の変形例の特徴情報データベースについて説明する。図14は、第2実施形態の変形例の特徴情報データベースのデータ構造を示す図である。
 図14の特徴情報データベースには、アイテムの特徴に関する特徴情報が格納される。
 特徴情報データベースは、「画像ID」フィールドと、「画像リンク」フィールドと、「特徴」フィールドと、を含む。
 各フィールドは、互いに関連付けられている。
 「画像ID」フィールドには、画像IDが格納される。画像IDは、アイテム画像情報を識別する画像識別情報の一例である。
 「画像リンク」フィールドには、アイテム画像情報のファイル名に関する情報が格納される。
 「特徴」フィールドには、特徴情報(例えば、特徴ベクトル)が格納される。アイテムの特徴は、例えば、以下の少なくとも1つである。
・対象性別(一例として、男性用、女性用、又は、男女兼用)
・利用シーン(一例として、ビジネス、カジュアル、又は、フォーマル)
・サイズ
・色
・テイスト
・シルエット
(2-3-3)デザイン画像生成処理
 第2実施形態の変形例のデザイン画像生成処理について説明する。図15は、第2実施形態の変形例のデザイン画像生成処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。
 図15に示すように、クライアント装置10は、クライアント装置10は、ユーザ指示の受付(S211)を実行する。
 具体的には、プロセッサ12は、画面P22(図16)をディスプレイに表示する。
 画面P22は、操作オブジェクトB220と、フィールドオブジェクトF100~F101及びF220を含む。
 フィールドオブジェクトF220は、ユーザから、所望のデザインの特徴の指定を受け付けるオブジェクトである。
 操作オブジェクトB220は、フィールドオブジェクトF100~F101及びF220の指定を確定させるオブジェクトである。
 ステップS211の後、クライアント装置10は、デザインリクエスト(S212)を実行する。
 具体的には、ユーザがフィールドオブジェクトF100~F101でブランドを指定し、フィールドオブジェクトF210でデザインの特徴を指定し、且つ、操作オブジェクトB210を操作すると、プロセッサ12は、デザインリクエストデータをサーバ30に送信する。デザインリクエストデータは、フィールドオブジェクトF100~F101で指定されたブランド情報の組合せと、フィールドオブジェクトF210で指定された特徴と、を含む。
 ステップS212の後、サーバ30は、図10と同様に、ステップS230を実行する。
 具体的には、プロセッサ32は、図11と同様にステップS2300を実行した後、ステップS2301において、選択されたアイテム画像情報と、当該アイテム画像情報に関連付けられた特徴情報のうちデザインリクエストデータに含まれる特徴に対応する特徴情報と、を生成モデルに入力することにより、生成モデルを学習させる。
 ステップS2301の後、プロセッサ32は、図11と同様にステップS2302を実行する。これにより、生成モデルは、デザイン画像情報を出力する。
 ステップS230の後、サーバ30は、図7と同様に、S131を実行する。
 ステップS131の後、クライアント装置10は、図10と同様に、ステップS210を実行する。
 第2実施形態の変形例によれば、ユーザが指定したブランド情報の組合せに対応するアイテム画像情報と、ユーザが指定した特徴に対応する特徴情報と、を用いて生成モデルを学習させる。これにより、ユーザの所望の特徴がより強く反映されたデザイン画像情報を容易に得ることができる。
(3)第3実施形態
 第3実施形態について説明する。第3実施形態は、ユーザ情報及びユーザ指示の少なくとも1つに応じたデザイン画像情報を生成する例である。
(3-1)第3実施形態の概要
 第3実施形態の概要について説明する。図17は、第3実施形態の概要の説明図である。
 図17に示すように、サーバ30には、複数のカテゴリのアイテム画像情報及び特徴情報の組合せと、複数のカテゴリのアイテム画像情報及び特徴情報の組合せによって構築された生成モデルと、が記憶される。
 サーバ30は、クライアント装置10を介して、ユーザから複数のカテゴリ「CATEGORY1」及び「CATEGORY2」の指定と、ユーザに関するユーザ情報及びユーザ指示の少なくとも1つと、を受け付ける。
 サーバ30は、ユーザが指定した複数のカテゴリ「CATEGORY1」及び「CATEGORY2」に対応する生成モデル(CATEGORY1x2)を選択する。
 サーバ30は、ユーザ情報及びユーザ指示の少なくとも1つに基づいて、選択した生成モデル(CATEGORY1x2)のパラメータを調整する。
 パラメータが調整された生成モデル(CATEGORY1x2)は、ユーザが指定した複数のカテゴリに対応するデザイン画像情報(CATEGORY1x2)を出力する。
 サーバ30は、クライアント装置10を介して、生成モデル(CATEGORY1x2)から出力されたデザイン画像情報(CATEGORY1x2)をユーザに提示する。
(3-2)データベース
 第3実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3-2-1)ユーザ情報データベース
 第3実施形態のユーザ情報データベースについて説明する。図18は、第3実施形態のユーザ情報データベースのデータ構造を示す図である。
 図18のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
 ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「ユーザ画像」フィールドと、「ユーザサイズ」フィールドと、「ユーザ嗜好」フィールドと、「行動履歴」フィールドと、を含む。
 各フィールドは互いに関連付けられている。
 「ユーザID」フィールドには、ユーザIDが格納されている。ユーザIDは、ユーザを識別するユーザ識別情報の一例である。
 「ユーザ名」フィールドには、ユーザの名称に関する情報(例えば、テキスト)が格納される。
 「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。「ユーザ属性」フィールドは、複数のサブフィールド(例えば、「性別」フィールド及び「年齢」フィールド)を含む。
 「性別」フィールドには、ユーザの性別に関する情報が格納される。
 「年齢」フィールドには、ユーザの年齢に関する情報が格納される。
 「ユーザ画像」フィールドには、ユーザのユーザ画像情報(例えば、ユーザの顔又は全身を含む画像情報)が格納される。
 「ユーザサイズ」フィールドには、ユーザのサイズに関するユーザサイズ情報が格納される。ユーザサイズ情報は、以下の何れかである。
・ユーザの衣服のサイズに関する指標(一例として、S、M、又は、L)
・ユーザの身体のサイズに関する指標(一例として、細身、標準、又は、ビッグシルエット)
・ユーザの身体の部位(一例として、身長、首回り、胸囲、ウエスト、及び、大腿部)毎のサイズを測定可能な測定デバイスによって測定された測定結果に関する情報
 「ユーザ嗜好」フィールドには、ユーザの嗜好に関するユーザ嗜好情報が格納される。ユーザ嗜好情報は、例えば、以下の少なくとも1つである。
・芸術(例えば、音楽、映画、又は、絵画)の嗜好
・ブランド国籍(例えば、日本発ブランド、フランス発ブランド、又は、イタリア発ブランド)の嗜好
・アイテムの雰囲気(例えば、フェミニン、シンプル、アヴァンギャルド、又は、ベーシック)
・アイテムのジャンル(例えば、アメリカンカジュアル、又は、モード)
・ソーシャルネットワーク上の行動(ソーシャルネットワーク上でリアクションした情報、又は、ソーシャルネットワークへ投稿した情報)の嗜好
 「購入履歴」フィールドには、ユーザが購入したアイテムの履歴に関する購入履歴情報が格納される。購入履歴情報は、例えば、ユーザが購入したアイテムのアイテムIDである。
(3-2-2)モデル情報データベース
 第3実施形態のモデル情報データベースについて説明する。図19は、第3実施形態のモデル情報データベースのデータ構造を示す図である。
 図19のモデル情報データベースには、生成モデルに関するモデル情報が格納される。
 モデル情報データベースは、「モデルID」フィールドと、「モデル名」フィールドと、「カテゴリ」フィールドと、を含む。
 各フィールドは互いに関連付けられている。
 「モデルID」フィールドには、モデルIDが格納されている。モデルIDは、生成モデルを識別するモデル識別情報の一例である。
 「モデル名」フィールドには、モデルの名称に関する情報(例えば、テキスト)が格納される。
 「カテゴリ」フィールドには、生成モデルに対応するカテゴリの組合せに関するカテゴリ情報(例えば、ブランド情報)が格納される。
(3-3)デザイン画像生成処理
 第3実施形態のデザイン画像生成処理について説明する。図20は、第3実施形態のデザイン画像生成処理のシーケンス図である。図21は、図20の情報処理において表示される画面の例を示す図である。図22は、図20のデザイン画像の生成の詳細なフローチャートである。
 図20に示すように、クライアント装置10は、ユーザ指示の受付(S310)を実行する。
 具体的には、プロセッサ12は、画面P30(図21)をディスプレイに表示する。
 画面P30は、操作オブジェクトB300と、フィールドオブジェクトF100~F101及びF300~F303と、を含む。
 フィールドオブジェクトF300は、ユーザIDを指定するためのユーザ指示を受け付けるオブジェクトである。
 フィールドオブジェクトF301は、所望のアイテムの利用シーンを指定するためのユーザ指示を受け付けるオブジェクトである。
 フィールドオブジェクトF302は、所望のアイテムのテイストを指定するためのユーザ指示を受け付けるオブジェクトである。
 フィールドオブジェクトF303は、フィールドオブジェクトF100~F101に入力された複数のブランドの混合比率を指定するためのユーザ指示を受け付けるオブジェクトである。
 操作オブジェクトB300は、フィールドオブジェクトF100~F101及びF300~F302への入力を確定させるためのユーザ指示を受け付けるオブジェクトである。
 ステップS310の後、クライアント装置10は、デザインリクエスト(S311)を実行する。
 具体的には、ユーザがフィールドオブジェクトF101~F101と、フィールドオブジェクトF300~F302の少なくとも1つと、にユーザ指示を入力し、且つ、操作オブジェクトB300を操作すると、プロセッサ12は、デザインリクエストデータをサーバ30に送信する。デザインリクエストデータは、以下の情報を含む。
・フィールドオブジェクトF100~F101で指定されたブランド情報の組合せ
・フィールドオブジェクトF300~F303の少なくとも1つで指定されたユーザ指示(つまり、ユーザID、所望の利用シーン、及び、所望のテイストの少なくとも1つに関するユーザ指示)
 ステップS311の後、サーバ30は、デザイン画像の生成(S330)を実行する。
 図22に示すように、サーバ30は、生成モデルの選択(S3300)を実行する。
 具体的には、プロセッサ32は、モデル情報データベース(図19)を参照して、デザインリクエストデータに含まれるブランド情報に関連付けられた「モデルID」フィールドの情報(つまり、モデルID)を特定する。特定されたモデルIDは、選択された生成モデルを識別する。
 ステップS3301の後、サーバ30は、パラメータの調整(S3301)を実行する。
 ステップS3301の第1例では、デザインリクエストデータがフィールドオブジェクトF300で指定されたユーザIDを含む場合、プロセッサ32は、ユーザ情報データベース(図18)を参照して、当該ユーザIDに関連付けられた「ユーザ属性」フィールドに格納されたユーザ属性情報を特定する。
 プロセッサ32は、デザインリクエストデータに含まれるブランド情報の組合せ、及び、特定したユーザ属性情報に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
 ステップS3301の第2例では、デザインリクエストデータがフィールドオブジェクトF300で指定されたユーザIDを含む場合、プロセッサ32は、ユーザ情報データベース(図18)を参照して、当該ユーザIDに関連付けられた「ユーザ嗜好」フィールドに格納されたユーザ嗜好情報を特定する。
 プロセッサ32は、デザインリクエストデータに含まれるブランド情報の組合せ、及び、特定したユーザ嗜好情報に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
 ステップS3301の第3例では、デザインリクエストデータがフィールドオブジェクトF300で指定されたユーザIDを含む場合、プロセッサ32は、ユーザ情報データベース(図18)を参照して、当該ユーザIDに関連付けられた「購入履歴」フィールドに格納された購入履歴情報(例えば、アイテムID)を特定する。
 プロセッサ32は、特徴情報データベース(図14)を参照して、特定したアイテムIDに関連付けられたアイテム画像情報の特徴情報を特定する。
 プロセッサ32は、デザインリクエストデータに含まれるブランド情報の組合せ、及び、特定した特徴情報に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
 ステップS3301の第4例では、デザインリクエストデータがフィールドオブジェクトF300で指定されたユーザIDを含む場合、プロセッサ32は、ユーザ情報データベース(図18)を参照して、当該ユーザIDに関連付けられた「ユーザ画像」フィールドに格納されたユーザ画像情報を特定する。
 プロセッサ32は、ユーザ画像情報に特徴量解析を適用することにより、ユーザの身体の特徴に関する特徴量を抽出する。身体の特徴は、例えば、体型、身長、顔の輪郭、顔の部位の配置、肌の色、及び、髪の色の少なくとも1つを含む。
 プロセッサ32は、デザインリクエストデータに含まれるブランド情報の組合せ、及び、抽出した特徴量に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
 ステップS3301の第5例では、デザインリクエストデータがフィールドオブジェクトF301で指定された利用シーンに関する情報を含む場合、プロセッサ32は、デザインリクエストデータに含まれる利用シーンに関する情報に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
 ステップS3301の第6例では、デザインリクエストデータがフィールドオブジェクトF302で指定されたテイストに関する情報を含む場合、プロセッサ32は、デザインリクエストデータに含まれるテイストに関する情報に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
 ステップS3301の第7例では、デザインリクエストデータがフィールドオブジェクトF303で指定された混合比率を含む場合、プロセッサ32は、デザインリクエストデータに含まれる混合比率に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
 ステップS3301の後、サーバ30は、デザイン画像の出力(S3302)を実行する。
 具体的には、プロセッサ32は、ステップS3301においてパラメータが調整された生成モデルに出力指示を与える。生成モデルは、出力指示に応じてデザイン画像情報を出力する。
 ステップS330の後、サーバ30は、図7と同様に、ステップS131を実行する。
 ステップS331の後、クライアント装置10は、図10と同様にステップS210を実行する。
 第3実施形態によれば、ユーザ情報及びユーザ指示の少なくとも1つに応じて生成モデルのパラメータを調整する。これにより、ユーザの個性及び既存のアイテムの組合せが反映されたデザイン画像情報を提示することができる。
(3-4)変形例
 第3実施形態の変形例について説明する。
(3-4-1)変形例1
 第3実施形態の変形例1について説明する。第3実施形態の変形例1は、ユーザ情報に応じてデザイン画像情報を補正する例である。
(3-4-1-1)変形例1の概要
 第3実施形態の変形例1の概要について説明する。図23は、第3実施形態の変形例1の概要の説明図である。
 図23に示すように、サーバ30は、ユーザが指定した複数のカテゴリ(「CATEGORY1」及び「CATEGORY2」)の組合せに対応する生成モデルに、デザイン画像情報(CATEGORY1x2)を出力させる。
 サーバ30は、デザイン画像情報(CATEGORY1x2)をユーザに提示した後、ユーザが指定した補正指示に基づいて、デザイン画像情報(CATEGORY1x2)を補正することにより、補正画像情報(CATEGORY1x2)を生成する。
 サーバ30は、補正画像情報(CATEGORY1x2)をユーザに提示する。
(3-4-1-2)デザイン画像生成処理
 第3実施形態の変形例1のデザイン画像生成処理について説明する。図24は、第3実施形態の変形例1のデザイン画像生成処理のシーケンス図である。図25は、図24の情報処理において表示される画面の例を示す図である。図26は、図24の情報処理において表示される画面の例を示す図である。
 図24に示すように、クライアント装置10は、図21と同様に、ステップS310~S311を実行する。
 ステップS311の後、サーバ30は、図21と同様に、ステップS330及びS131を実行する。
 ステップS131の後、クライアント装置10は、デザイン画像の表示(S410)を実行する。
 具体的には、プロセッサ12は、画面P40(図25)をディスプレイに表示する。
 画面P40は、画像オブジェクトIMG110~IMG113と、操作オブジェクトB200及びB400と、を備える。
 操作オブジェクト400は、補正のユーザ指示を受け付けるオブジェクトである。
 ユーザが画像オブジェクトIMG110と、操作オブジェクトB400と、を操作すると、プロセッサ12は、画面P41(図25)をディスプレイに表示する。
 画面P41は、操作オブジェクトB410と、フィールドオブジェクトF410~F412と、を含む。
 フィールドオブジェクトF410は、画像オブジェクトIMG110~IMG113の少なくとも1つ(例えば、ユーザが指定した画像オブジェクト)の形状を変更するためのユーザ指示を受け付けるオブジェクトである。一例として、ユーザは、「小さめ」又は「大きめ」のユーザ指示をフィールドオブジェクトF410に入力することができる。
 フィールドオブジェクトF411は、画像オブジェクトIMG110~IMG113の少なくとも1つ(例えば、ユーザが指定した画像オブジェクト)にパーツを追加するためのユーザ指示を受け付けるオブジェクトである。一例として、ユーザは、「ポケット」及び「ボタン」の少なくとも1つのユーザ指示をフィールドオブジェクトF411に入力することができる。
 フィールドオブジェクトF412は、画像オブジェクトIMG110~IMG113の少なくとも1つ(例えば、ユーザが指定した画像オブジェクト)にブランドイメージを反映させるためのユーザ指示を受け付けるオブジェクトである。一例として、ユーザは、「ロゴ」及び「パターン」の少なくとも1つのユーザ指示をフィールドオブジェクトF412に入力することができる。
 操作オブジェクトB411は、フィールドオブジェクトF410~F412に入力された内容を確定させるためのユーザ指示を受け付けるオブジェクトである。
 ステップS410の後、クライアント装置10は、補正リクエスト(S411)を実行する。
 具体的には、プロセッサ12は、補正リクエストデータをサーバ30に送信する。補正リクエストデータは、フィールドオブジェクトF410~F412に入力されたユーザ指示を含む。
 ステップS411の後、サーバ30は、補正(S430)を実行する。
 具体的には、記憶装置31には、フィールドオブジェクトF410~F412が受付可能なユーザ指示の項目に対応する画像補正フィルタが記憶されている。
 プロセッサ32は、記憶装置31に記憶された画像補正フィルタの中から、補正リクエストデータに含まれるユーザ指示(形状を変更するためのユーザ指示、アイテムを追加するためのユーザ指示、及び、ブランドイメージを反映するためのユーザ指示の少なくとも1つ)に対応する画像補正フィルタを選択する。一例として、ユーザサイズ情報が「細見」の場合、プロセッサ32は、デザイン画像情報を10%縮小する画像補正フィルタを選択する。ユーザサイズ情報が「ビッグシルエット」の場合、プロセッサ32は、デザイン画像情報を15%拡大する画像補正フィルタを選択する。
 プロセッサ32は、選択された画像補正フィルタを、ステップS330で生成されたデザイン画像情報に適用することにより、補正画像情報を生成する。
 ステップS430の後、サーバ30は、補正レスポンス(S431)を実行する。
 具体的には、プロセッサ32は、補正レスポンスデータをクライアント装置10に送信する。補正レスポンスデータは、ステップS4302で生成された補正画像情報を含む。
 ステップS431の後、クライアント装置10は、補正画像の表示(S412)を実行する。
 具体的には、プロセッサ12は、画面P41(図26)をディスプレイに表示する。
 画面P41は、画像オブジェクトIMG420~IMG423を含む。
 画像オブジェクトIMG420~IMG423は、補正レスポンスデータに含まれる補正画像情報に対応するオブジェクトである。
 第3実施形態の変形例1によれば、ユーザの指示に応じてデザイン画像情報を補正する。これにより、デザイン画像情報に、ユーザの好みを反映させることができる。
(3-4-2)変形例2
 第3実施形態の変形例2について説明する。変形例2は、測定デバイスによって測定されたユーザサイズ情報に基づいて、デザイン画像情報を補正する例である。
(3-4-2-1)変形例2の概要
 第3実施形態の変形例2の概要について説明する。図27は、第3実施形態の変形例2の概要の説明図である。
 図27に示すように、サーバ30は、ユーザが指定した複数のカテゴリ(「CATEGORY1」及び「CATEGORY2」)の組合せに対応する生成モデルに、デザイン画像情報(CATEGORY1x2)を出力させる。
 デザイン画像情報(CATEGORY1x2)がユーザに提示された後、ユーザは、測定装置を用いて、自身の身体の各部位のサイズを測定する。
 サーバ30は、測定装置によって測定されたサイズに関するユーザサイズ情報に基づいて、デザイン画像情報(CATEGORY1x2)を補正することにより、補正画像情報(CATEGORY1x2)を生成する。
 サーバ30は、補正画像情報(CATEGORY1x2)をユーザに提示する。
(3-4-2-2)デザイン画像生成処理
 第3実施形態の変形例2のデザイン画像生成処理について説明する。
 図24のステップS430の第1例では、プロセッサ32は、ユーザ情報データベース(図18)を参照して、デザインリクエストデータに含まれるユーザIDに関連付けられたユーザサイズ情報(測定装置による測定結果に関するユーザサイズ情報)を特定する。
 ステップS430の第2例では、プロセッサ32は、測定装置による測定結果に関するユーザサイズ情報を測定装置又はクライアント装置10から取得する。プロセッサ32は、当該測定結果を、ユーザサイズ情報として特定する。
 プロセッサ32は、記憶装置31に記憶された画像補正フィルタの中から、特定したユーザサイズ情報に対応する画像補正フィルタを選択する。より具体的には、ユーザサイズ情報が測定結果に関する情報の場合、プロセッサ32は、ユーザの身体の各部位のサイズに応じて、デザイン画像情報の各部位を補正する。
 プロセッサ32は、選択された画像補正フィルタを、ステップS330で生成されたデザイン画像情報に適用することにより、補正画像情報を生成する。
 第3実施形態の変形例2によれば、ユーザサイズ情報(例えば、測定デバイスによって測定された測定結果に関する情報)に基づいて、デザイン画像情報を補正する。これにより、ユーザの身体に合ったデザイン画像情報をユーザに提示することができる。
(3-4-3)変形例3
 第3実施形態の変形例3について説明する。第3実施形態の変形例3は、補正モデルを用いて、デザイン画像情報を補正する例である。
(3-4-3-1)変形例3の概要
 第3実施形態の変形例3の概要について説明する。図28は、第3実施形態の変形例3の概要の説明図である。
 図28に示すように、サーバ30は、ユーザが指定した複数のカテゴリ(「CATEGORY1」及び「CATEGORY2」)の組合せに対応する生成モデルに、デザイン画像情報(CATEGORY1x2)を出力させる。
 サーバ30は、デザイン画像情報(CATEGORY1x2)をユーザに提示した後、ユーザが指定した補正指示に基づいて、デザイン画像情報(CATEGORY1x2)を補正モデルに入力する。補正モデルは、補正画像情報(CATEGORY1x2)を出力する。
 サーバ30は、補正画像情報(CATEGORY1x2)をユーザに提示する。
(3-4-3-2)デザイン画像生成処理
 第3実施形態の変形例3のデザイン画像生成処理について説明する。
 サーバ30には、学習済の補正モデルが記憶されている。補正モデルは、複数のアイテム画像情報と、各アイテム画像情報に関連付けれた特徴情報と、画像処理フィルタと、を用いた深層学習により学習されている。補正モデルは、例えば、GAN又はDCGANである。
 図24のステップS430において、サーバ30は、記憶装置31に記憶された補正モデルを用いて、デザイン画像情報を補正する。
 具体的には、プロセッサ32は、ステップS430で選択した画像補正フィルタと、ステップS330で生成したデザイン画像情報と、を補正モデルに入力する。これにより、補正モデルから、補正リクエストデータに含まれるユーザ指示に応じた補正画像情報が出力される。
 第3実施形態の変形例3によれば、補正モデルが補正画像情報を出力する。これにより、より高精度に補正されたデザイン画像情報をユーザに提示することができる。
(4)第4実施形態
 第4実施形態について説明する。第4実施形態は、ネットワーク上に保存されたアイテム画像情報に基づいてデザイン画像情報を生成する例である。
(4-1)第4実施形態の概要
 第4実施形態の概要について説明する。図29は、第4実施形態の概要の説明図である。
 図29のサーバ30には、複数のアイテム画像情報が記憶されている。
 サーバ30は、ユーザ情報と、ユーザサイズ情報と、を取得する。
 サーバ30は、複数のアイテム画像情報の中からユーザ情報と、ユーザサイズ情報と、に基づいて、ユーザに対して推奨されるレコメンドアイテムの画像情報(以下「レコメンド画像情報」という)を提示する。例えば、トップスのレコメンド画像情報(CATEGORY1)と、ボトムスのレコメンド画像情報(CATEGORY2)と、が提示される。
 サーバ30は、所望のカテゴリ(CATEGORY1)に関するユーザ指示を取得する。
 サーバ30は、ユーザ指示に対応するカテゴリ(CATEGORY1)に基づいて、生成モデル(CATEGORY1x2)のパラメータを調整する。
 パラメータが調整された生成モデル(CATEGORY1x2)は、ユーザ指示に対応するカテゴリ(CATEGORy1)に対応するデザイン画像情報(CATEGORY1x2)を出力する。
 サーバ30は、クライアント装置10を介して、生成モデル(CATEGORY1x2)から出力されたデザイン画像情報(CATEGORY1x2)をユーザに提示する。
(4-2)デザイン画像生成処理
 第4実施形態のデザイン画像生成処理について説明する。図30は、第4実施形態のデザイン画像生成処理のシーケンス図である。図31は、図30の情報処理において表示される画面の例を示す図である。図32は、図30のデザイン画像の生成の詳細なフローチャートである。
 図30に示すように、クライアント装置10は、ユーザ指示の受付(S510)を実行する。
 具体的には、プロセッサ12は、画面P50(図31)をディスプレイに表示する。
 画面P50は、操作オブジェクトB500と、フィールドオブジェクトF500と、を含む。
 フィールドオブジェクトF500は、ユーザIDを指定するためのユーザ指示を受け付けるオブジェクトである。
 操作オブジェクトB500は、フィールドオブジェクトF500への入力を確定させるためのユーザ指示を受け付けるオブジェクトである。
 ステップS510の後、クライアント装置10は、レコメンドリクエスト(S511)を実行する。
 具体的には、ユーザがフィールドオブジェクトF500にユーザ指示を入力し、且つ、操作オブジェクトB500を操作すると、プロセッサ12は、レコメンドリクエストデータをサーバ30に送信する。レコメンドリクエストデータは、フィールドオブジェクトF500で指定されたユーザIDを含む。
 ステップS511の後、サーバ30は、レコメンドアイテムの特定(S530)を実行する。
 具体的には、プロセッサ32は、ユーザ情報データベース(図18)を参照して、レコメンドリクエストデータに含まれるユーザIDに関連付けられたユーザ情報を特定する。
 プロセッサ32は、アイテム画像情報データベース(図4)及び特徴情報データベース(図14)を参照して、特定したユーザ情報に基づくレコメンドアイテムのアイテムIDを特定する。
 一例として、記憶装置31には、複数のアイテムの好ましい組合せが定義されたコーディネートモデルが記憶されている。プロセッサ32は、レコメンドリクエストデータに含まれるユーザIDに関連付けられた「購入履歴」フィールドの情報を参照して、ユーザが所有する所有アイテムのアイテムIDを特定する。プロセッサ32は、所有アイテムのアイテムIDに関連付けられたカテゴリ情報及び特徴情報をコーディネートモデルに入力する。コーディネートモデルは、アイテム情報データベースに記憶されたアイテムIDの中から、所有アイテムとの組合せが好ましいレコメンドアイテムのアイテムIDを出力する。
 ステップS530の後、サーバ30は、レコメンドレスポンス(S531)を実行する。
 具体的には、プロセッサ32は、レコメンドレスポンスデータをクライアント装置10に送信する。レコメンドレスポンスデータは、以下の情報を含む。
・ステップS530で特定されたアイテムID
・当該アイテムIDに関連付けられたアイテム画像情報(つまり、レコメンドアイテムのレコメンド画像情報)
 ステップS531の後、クライアント装置10は、レコメンド画像の表示(S512)を実行する。
 具体的には、プロセッサ12は、画面P51をディスプレイに表示する。
 画面P51は、画像オブジェクトIMG510~IMG513と、操作オブジェクトB510と、フィールドオブジェクトF510と、を含む。画像オブジェクトIMG510~IMG513には、レコメンドアイテムのアイテムIDが割り当てられる。
 画像オブジェクトIMG510は、カテゴリ「CATEGORY1」(例えば、タイプ「TOPS」)に対応するレコメンドアイテムのレコメンド画像情報である。
 画像オブジェクトIMG511は、カテゴリ「CATEGORY2」(例えば、タイプ「BOTOMS」)に対応するレコメンドアイテムのレコメンド画像情報である。
 画像オブジェクトIMG512は、カテゴリ「CATEGORY3」(例えば、タイプ「SHOES」)に対応するレコメンドアイテムのレコメンド画像情報である。
 画像オブジェクトIMG513は、カテゴリ「CATEGORY4」(例えば、タイプ「WATCH」)に対応するレコメンドアイテムのレコメンド画像情報である。
 フィールドオブジェクトF510は、所望のアイテムのタイプを指定するためのユーザ指示を受け付けるオブジェクトである。
 操作オブジェクトB510は、画像オブジェクトIMG510~IMG513に対する操作、及び、フィールドオブジェクトF510への入力を確定させるためのオブジェクトである。
 ステップS512の後、クライアント装置10は、デザインリクエスト(S513)を実行する。
 具体的には、ユーザが画像オブジェクトIMG510~IMG513の少なくとも2つを指定し、フィールドオブジェクトF510に所望のタイプを指定し、且つ、操作オブジェクトB510を操作すると、プロセッサ12は、デザインリクエストデータをサーバ30に送信する。デザインリクエストデータは、以下の情報を含む。
・ユーザによって指定された画像オブジェクトIMG510~IMG513に割り当てられたアイテムID
・フィールドオブジェクトF510で指定されたユーザ指示(つまり、所望のタイプ)
 ステップS513の後、サーバ30は、デザイン画像の生成(S530)を実行する。
 図32に示すように、サーバ30は、生成モデルの選択(S5300)を実行する。
 具体的には、プロセッサ32は、アイテム情報データベース(図4)を参照して、デザインリクエストデータに含まれるアイテムIDに関連付けられた「カテゴリ」フィールドの情報(例えば、「ブランド」フィールドの情報)を特定する。
 プロセッサ32は、モデル情報データベース(図19)を参照して、特定したカテゴリフィールドの情報に関連付けられた「モデルID」フィールドの情報(つまり、モデルID)を特定する。特定されたモデルIDは、選択された生成モデルを識別する。
 ステップS5300の後、サーバ30は、パラメータの調整(S5301)を実行する。
 具体的には、プロセッサ32は、デザインリクエストデータに含まれる所望のタイプに基づいて、ステップS5300で選択した生成モデルのパラメータを調整する。これにより、生成モデルから、所望のタイプのデザイン画像情報が生成される確率が上昇する。
 ステップS5301の後、サーバ30は、図22と同様に、ステップS3302を実行する。
 ステップS530の後、サーバ30は、図6と同様に、ステップS131を実行する。
 ステップS131の後、クライアント装置10は、図10と同様に、ステップS210を実行する。
 第4実施形態によれば、ユーザに対して提示されたレコメンドアイテムのレコメンド画像情報に基づいて、ユーザの所望のタイプのデザイン画像情報を提示する。これにより、ユーザに推奨されるレコメンドアイテムの個性を残しつつも斬新なデザインを提供することができる。
(5)その他の変形例
 その他の変形例について説明する。
 記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
 本実施形態では、クライアント装置10及びサーバ30の組合せにより情報処理を実現する例を示したが、上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れか、又は、ネットワーク上の複数の装置による分散環境でも実現可能である。このように、本実施形態は、例えば、サーバ30によって実現されるウェブサービス又はクライアント装置10にインストールされたプログラムのように、様々な形態に適用することができる。
 本実施形態では、通信インタフェース14及び34は、インターネットプロトコルを用いた通信だけでなく、有線又は無線によるバス接続、USB(登録商標)、又は、Bluetooth(登録商標)による通信をサポートしても良い。
 本実施形態では、アイテムがファッションアイテムである例を示した。しかし、本実施形態の「アイテム」はファッションアイテム以外のアイテムでも良い。つまり、本実施形態の「カテゴリ」は、ファッションブランドに限られない。ファッションアイテム以外のアイテムは、例えば、以下の少なくとも1つを含む。
・プロダクト(一例として、電子機器、又は、スポーツ用具)
・プロダクトパッケージ(一例として、プロダクトの包装、又は、容器)
 本実施形態では、2つのカテゴリの組合せに対応するデザイン画像情報を提示する例を説明した。しかし、本実施形態はこれに限られない。本実施形態は、3つ以上のカテゴリの組合せに対応するデザイン画像情報を提示する場合にも適用可能である。
 以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1      :情報処理システム
10     :クライアント装置
11     :記憶装置
12     :プロセッサ
13     :入出力インタフェース
14     :通信インタフェース
30     :サーバ
31     :記憶装置
32     :プロセッサ
33     :入出力インタフェース
34     :通信インタフェース

Claims (10)

  1.  複数のカテゴリの組合せに対応する生成モデルから出力された複数のカテゴリが混合したデザインに対応するデザイン画像情報を記憶する手段を備え、
     ユーザから複数のカテゴリの指定を受け付ける手段を備え、
     前記複数のデザイン画像情報の中から、前記ユーザによって指定された複数のカテゴリの組合せに対応するデザイン画像情報を提示する手段を備える、
    情報処理装置。
  2.  前記提示する手段は、前記複数のデザイン画像情報の中から、前記ユーザによって指定された複数のカテゴリの組合せ及び前記ユーザの属性に関するユーザ属性情報に対応するデザイン画像情報を提示する、
    請求項1に記載の情報処理装置。
  3.  ユーザから複数のカテゴリの指定を受け付ける手段を備え、
     前記ユーザによって指定された複数のカテゴリのそれぞれに対応するアイテム画像情報を用いて、前記複数のカテゴリの組合せに対応する生成モデルを構築する手段を備え、
     前記生成モデルを用いて、前記複数のカテゴリの組合せに対応するデザイン画像情報を生成する手段を備え、
     前記生成されたデザイン画像情報を提示する手段を備える、
    情報処理装置。
  4.  各アイテムのアイテム画像情報と、各アイテムの特徴に関する特徴情報と、を関連付けて記憶する手段を備え、
     前記生成する手段は、複数のカテゴリのアイテム画像情報と、各アイテム画像情報に関連付けられた特徴情報と、を用いて、前記生成モデルを構築する、
    請求項3に記載の情報処理装置。
  5.  前記特徴情報は、アイテムの対象性別、利用シーン、サイズ、色、テイスト、及び、シルエットの少なくとも1つに関する情報である、
    請求項4に記載の情報処理装置。
  6.  前記ユーザのユーザ指示に基づいて、前記生成モデルのパラメータを調整する手段を備える、
    請求項4又は5に記載の情報処理装置。
  7.  前記ユーザに関するユーザ情報に基づいて、前記生成モデルのパラメータを調整する手段を備え、
     前記ユーザ情報は、前記ユーザの属性に関するユーザ属性情報、前記ユーザの嗜好に関するユーザ嗜好情報、ユーザが購入したアイテムの履歴に関する購入履歴情報、及び、ユーザのユーザ画像情報の少なくとも1つを含む、
    請求項4~6の何れかに記載の情報処理装置。
  8.  前記デザイン画像情報を提示した後に、前記ユーザから補正指示を受け付ける手段を備え、
     前記補正指示に基づいて前記デザイン画像情報を補正することにより、補正画像情報を生成する手段を備え、
     前記提示する手段は、前記生成された補正画像情報を提示する、
    請求項3~7の何れかに記載の情報処理装置。
  9.  前記カテゴリは、アイテムのブランドに関するブランド情報である、
    請求項1~8の何れかに記載の情報処理装置。
  10.  コンピュータを、請求項1~9の何れかに記載の各手段として機能させるためのプログラム。
PCT/JP2019/034671 2018-09-04 2019-09-03 情報処理装置及びプログラム WO2020050287A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020541250A JP6914569B2 (ja) 2018-09-04 2019-09-03 情報処理装置及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018165086 2018-09-04
JP2018-165086 2018-09-04

Publications (1)

Publication Number Publication Date
WO2020050287A1 true WO2020050287A1 (ja) 2020-03-12

Family

ID=69722361

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/034671 WO2020050287A1 (ja) 2018-09-04 2019-09-03 情報処理装置及びプログラム

Country Status (2)

Country Link
JP (2) JP6914569B2 (ja)
WO (1) WO2020050287A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331694A (ja) * 2000-05-18 2001-11-30 Toray Syst Center:Kk 着装状態表示装置、方法及び記録媒体
JP2013196553A (ja) * 2012-03-22 2013-09-30 Dainippon Printing Co Ltd 衣服管理及びレコメンド装置
JP2018041459A (ja) * 2016-09-06 2018-03-15 公紀 岩中 バーチャル服飾出力システム
JP2018101245A (ja) * 2016-12-20 2018-06-28 ヤフー株式会社 選択装置、選択方法および選択プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331694A (ja) * 2000-05-18 2001-11-30 Toray Syst Center:Kk 着装状態表示装置、方法及び記録媒体
JP2013196553A (ja) * 2012-03-22 2013-09-30 Dainippon Printing Co Ltd 衣服管理及びレコメンド装置
JP2018041459A (ja) * 2016-09-06 2018-03-15 公紀 岩中 バーチャル服飾出力システム
JP2018101245A (ja) * 2016-12-20 2018-06-28 ヤフー株式会社 選択装置、選択方法および選択プログラム

Also Published As

Publication number Publication date
JP6914569B2 (ja) 2021-08-04
JP2021170363A (ja) 2021-10-28
JPWO2020050287A1 (ja) 2021-08-30

Similar Documents

Publication Publication Date Title
US11662829B2 (en) Modification of three-dimensional garments using gestures
US20210241364A1 (en) Digital wardrobe
KR102189394B1 (ko) 패션 선호도 분석 기법
WO2015129353A1 (ja) 仮想試着システム、仮想試着プログラム、仮想試着方法および仮想試着プログラムを記憶した記憶媒体
JP6535023B2 (ja) 物品をシミュレートするための方法、装置、および、システム
KR20190097612A (ko) 이미지/텍스트 기반 디자인 생성 장치 및 방법
US20220318873A1 (en) System and method of leather products customization service
KR102550214B1 (ko) 인공지능 기반의 신체부위 및 상황별 스타일링 추천 시스템
CN106940862A (zh) 网络实景逛店试衣定制系统
JP2016024742A (ja) 三次元形状模擬システム、試着シミュレーションシステム、販売支援システム、三次元形状模擬方法、試着シミュレーション方法及び販売支援方法、並びに、三次元形状模擬方法、試着シミュレーション方法若しくは販売支援方法のプログラム及びそのプログラムを記録した記録媒体
WO2020050287A1 (ja) 情報処理装置及びプログラム
JP6916095B2 (ja) サーバ及び商品提供システム
KR102407276B1 (ko) 양방향 소통 기반 상품 판매 장치 및 방법
KR20220044715A (ko) 패션 상품 추천 방법, 장치 및 컴퓨터 프로그램
KR20220044711A (ko) 패션 정보 제공 방법, 장치 및 시스템
KR102614621B1 (ko) 가상 피팅 기능을 이용한 전자 상거래 서비스 시스템 및 방법
TWI822476B (zh) 資訊處理設備、資訊處理方法、資訊處理系統以及程式
JP7459206B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR20180079222A (ko) 비정형정보의 정형화를 위한 정형정보 제공 시스템 및 상기 시스템의 사용 및 적용 방법
US20230260000A1 (en) Prospective Object Search Techniques Based on Removed Objects
NL2022937B1 (en) Method and Apparatus for Accessing Clothing
JP7137450B2 (ja) サーバ、及び、プログラム
CN117455605A (zh) 一种供应链数字处理方法、装置、电子设备及介质
JP2016045669A (ja) 服装コーディネート提示装置、服装コーディネート提示システムおよび服装コーディネート提示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19857202

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020541250

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19857202

Country of ref document: EP

Kind code of ref document: A1