JP6914569B2 - Information processing equipment and programs - Google Patents

Information processing equipment and programs Download PDF

Info

Publication number
JP6914569B2
JP6914569B2 JP2020541250A JP2020541250A JP6914569B2 JP 6914569 B2 JP6914569 B2 JP 6914569B2 JP 2020541250 A JP2020541250 A JP 2020541250A JP 2020541250 A JP2020541250 A JP 2020541250A JP 6914569 B2 JP6914569 B2 JP 6914569B2
Authority
JP
Japan
Prior art keywords
user
information
image information
item
design image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020541250A
Other languages
Japanese (ja)
Other versions
JPWO2020050287A1 (en
Inventor
陽一 落合
陽一 落合
圭介 大井
圭介 大井
誠幸 佐々木
誠幸 佐々木
健介 安間
健介 安間
奈津実 加藤
奈津実 加藤
宏幸 大曽根
宏幸 大曽根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixie Dust Technologies Inc
Original Assignee
Pixie Dust Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixie Dust Technologies Inc filed Critical Pixie Dust Technologies Inc
Priority to JP2021112642A priority Critical patent/JP2021170363A/en
Application granted granted Critical
Publication of JP6914569B2 publication Critical patent/JP6914569B2/en
Publication of JPWO2020050287A1 publication Critical patent/JPWO2020050287A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing device and a program.

近年、ファッション分野に適用可能な技術として、Fashion Techが注目されている。Fasion Techの導入により、ファッション分野のビジネスモデルの変革が期待される。 In recent years, Fashion Tech has been attracting attention as a technology applicable to the fashion field. The introduction of Fashion Tech is expected to transform the business model in the fashion field.

例えば、特開2013−235528号公報には、ユーザに対して、適切なコーディネートを容易に生成する技術が開示されている。特開2013−235528号公報によれば、ユーザに対して、客観的なコーディネートの提案を提供することができる。 For example, Japanese Patent Application Laid-Open No. 2013-235528 discloses a technique for easily generating appropriate coordination for a user. According to Japanese Patent Application Laid-Open No. 2013-235528, it is possible to provide a user with an objective coordination proposal.

ファッションブランドは、ブランドの個性が反映されたデザインを創出し続けることにより、新たなファッションアイテムを市場に提供している。そのため、各ファッションブランドのデザイナーは、ブランドの個性が反映されるようにデザインを行っている。ファッションブランドの個性が強いほど、斬新なデザインの創出は困難になる傾向がある。 Fashion brands are offering new fashion items to the market by continuing to create designs that reflect the individuality of the brand. Therefore, the designers of each fashion brand design so as to reflect the individuality of the brand. The stronger the individuality of a fashion brand, the more difficult it tends to be to create innovative designs.

特開2013−235528号公報の技術は、既存のファッションアイテムの組合せを提案するものであるので、既存のファッションアイテムの存在を前提とする。そのため、新たなデザインを創出することは困難である。 Since the technique of JP2013-235528A proposes a combination of existing fashion items, it is premised on the existence of existing fashion items. Therefore, it is difficult to create a new design.

本発明の目的は、既存のアイテムの個性を残しつつも斬新なデザインを提供することである。 An object of the present invention is to provide a novel design while retaining the individuality of an existing item.

本発明の一態様は、
複数のカテゴリの組合せに対応する生成モデルから出力された複数のカテゴリが混合したデザインに対応するデザイン画像情報を記憶する手段を備え、
ユーザから複数のカテゴリの指定を受け付ける手段を備え、
前記複数のデザイン画像情報の中から、前記ユーザによって指定された複数のカテゴリの組合せに対応するデザイン画像情報を提示する手段を備える、
情報処理装置である。
One aspect of the present invention is
It is equipped with a means for storing design image information corresponding to a design in which multiple categories are mixed, which is output from a generative model corresponding to a combination of multiple categories.
It has a means to accept the specification of multiple categories from the user.
A means for presenting design image information corresponding to a combination of a plurality of categories specified by the user from the plurality of design image information is provided.
It is an information processing device.

本発明によれば、既存のアイテムの個性を残しつつも斬新なデザインを提供することができる。 According to the present invention, it is possible to provide a novel design while retaining the individuality of an existing item.

第1実施形態の情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system of 1st Embodiment. 図1の情報処理システムの機能ブロック図である。It is a functional block diagram of the information processing system of FIG. 第1実施形態の概要の説明図である。It is explanatory drawing of the outline of 1st Embodiment. 第1実施形態のアイテム情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the item information database of 1st Embodiment. 第1実施形態のデザイン画像情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the design image information database of 1st Embodiment. 第1実施形態のデザイン画像生成処理の説明図である。It is explanatory drawing of the design image generation processing of 1st Embodiment. 第1実施形態のデザイン画像提示処理のシーケンス図である。It is a sequence diagram of the design image presentation process of 1st Embodiment. 図7の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 7. 第2実施形態の概要の説明図である。It is explanatory drawing of the outline of 2nd Embodiment. 第2実施形態のデザイン画像生成処理のシーケンス図である。It is a sequence diagram of the design image generation processing of the 2nd Embodiment. 図10のデザイン画像の生成の詳細なフローチャートである。It is a detailed flowchart of the generation of the design image of FIG. 図10の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 第2実施形態の変形例の概要の説明図である。It is explanatory drawing of the outline of the modification of 2nd Embodiment. 第2実施形態の変形例の特徴情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the feature information database of the modification of 2nd Embodiment. 第2実施形態の変形例のデザイン画像生成処理のシーケンス図である。It is a sequence diagram of the design image generation processing of the modification of the 2nd Embodiment. 図15の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 第3実施形態の概要の説明図である。It is explanatory drawing of the outline of 3rd Embodiment. 第3実施形態のユーザ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user information database of 3rd Embodiment. 第3実施形態のモデル情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the model information database of 3rd Embodiment. 第3実施形態のデザイン画像生成処理のシーケンス図である。It is a sequence diagram of the design image generation processing of the 3rd Embodiment. 図20の情報処理において表示される画面の例を示す図である。It is a figure which shows the example of the screen which is displayed in the information processing of FIG. 図20のデザイン画像の生成の詳細なフローチャートである。It is a detailed flowchart of the generation of the design image of FIG. 第3実施形態の変形例1の概要の説明図である。It is explanatory drawing of the outline of the modification 1 of the 3rd Embodiment. 第3実施形態の変形例1のデザイン画像生成処理のシーケンス図である。It is a sequence diagram of the design image generation processing of the modification 1 of the 3rd Embodiment. 図24の情報処理において表示される画面の例を示す図である。It is a figure which shows the example of the screen which is displayed in the information processing of FIG. 図24の情報処理において表示される画面の例を示す図である。It is a figure which shows the example of the screen which is displayed in the information processing of FIG. 第3実施形態の変形例2の概要の説明図である。It is explanatory drawing of the outline of the modification 2 of the 3rd Embodiment. 第3実施形態の変形例3の概要の説明図である。It is explanatory drawing of the outline of the modification 3 of the 3rd Embodiment. 第4実施形態の概要の説明図である。It is explanatory drawing of the outline of 4th Embodiment. 第4実施形態のデザイン画像生成処理のシーケンス図である。It is a sequence diagram of the design image generation processing of 4th Embodiment. 図30の情報処理において表示される画面の例を示す図である。It is a figure which shows the example of the screen which is displayed in the information processing of FIG. 図30のデザイン画像の生成の詳細なフローチャートである。It is a detailed flowchart of the generation of the design image of FIG.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, one embodiment of the present invention will be described in detail with reference to the drawings. In addition, in the drawing for demonstrating the embodiment, the same components are in principle the same reference numerals, and the repeated description thereof will be omitted.

(1)第1実施形態
第1実施形態について説明する。
(1) First Embodiment The first embodiment will be described.

(1−1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、第1実施形態の情報処理システムの構成を示すブロック図である。図2は、図1の情報処理システムの機能ブロック図である。
(1-1) Configuration of Information Processing System The configuration of the information processing system will be described. FIG. 1 is a block diagram showing a configuration of an information processing system according to the first embodiment. FIG. 2 is a functional block diagram of the information processing system of FIG.

図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1, the information processing system 1 includes a client device 10 and a server 30.
The client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.

クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is an example of an information processing device that transmits a request to the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.

サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。 The server 30 is an example of an information processing device that provides the client device 10 with a response in response to a request transmitted from the client device 10. The server 30 is, for example, a web server.

(1−1−1)クライアント装置の構成
クライアント装置10の構成について説明する。
(1-1-1) Configuration of Client Device The configuration of the client device 10 will be described.

図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。 As shown in FIG. 2, the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, and a communication interface 14.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The program includes, for example, the following program.
・ OS (Operating System) program ・ Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, the execution result of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to realize the function of the client device 10 by activating the program stored in the storage device 11. The processor 12 is an example of a computer.

入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input / output interface 13 is configured to acquire a user's instruction from an input device connected to the client device 10 and output information to an output device connected to the client device 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the client device 10 and the server 30.

(1−1−2)サーバの構成
サーバ30の構成について説明する。
(1-1-2) Server Configuration The configuration of the server 30 will be described.

図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 2, the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
The program includes, for example, the following program.
・ OS program ・ Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・ Database referenced in information processing ・ Execution result of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。 The processor 32 is configured to realize the function of the server 30 by activating the program stored in the storage device 31. The processor 32 is an example of a computer.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input / output interface 33 is configured to acquire a user's instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the server 30 and the client device 10.

(1−2)第1実施形態の概要
第1実施形態の概要について説明する。図3は、第1実施形態の概要の説明図である。
(1-2) Outline of First Embodiment An outline of the first embodiment will be described. FIG. 3 is an explanatory diagram of an outline of the first embodiment.

図3に示すように、サーバ30には、複数のカテゴリの組合せに対応する生成モデル(CATEGORYixj)と、各生成モデル(CATEGORYixj)が出力したデザイン画像情報(CATEGORYixj)と、が記憶される。各生成モデル(CATEGORYixj)は、複数のカテゴリのアイテム画像情報を入力することにより構築される。各デザイン画像情報(CATEGORYixj)は、複数のカテゴリの組合せに対応する。 As shown in FIG. 3, the server 30 stores a generation model (CATEGORYixj) corresponding to a combination of a plurality of categories and a design image information (CATEGORYixj) output by each generation model (CATEGORYixj). Each generative model (CATEGORYixj) is constructed by inputting item image information of a plurality of categories. Each design image information (CATEGORYixj) corresponds to a combination of a plurality of categories.

ユーザが複数のカテゴリ「CATEGORY1」及び「CATEGORY2」を指定すると、サーバ30は、複数のデザイン画像情報(CATEGORYixj)の中から、ユーザによって指定された複数のカテゴリの組合せに対応するデザイン画像情報(CATEGORY1x2)を提示する。 When the user specifies a plurality of categories "CATEGORY1" and "CATEGORY2", the server 30 selects the design image information (CATEGORY1x2) corresponding to the combination of the plurality of categories specified by the user from among the plurality of design image information (CATEGORYixj). ) Is presented.

(1−3)データベース
第1実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(1-3) Database The database of the first embodiment will be described. The following database is stored in the storage device 31.

(1−3−1)アイテム情報データベース
第1実施形態のアイテム情報データベースについて説明する。図4は、第1実施形態のアイテム情報データベースのデータ構造を示す図である。
(1-3-1) Item Information Database The item information database of the first embodiment will be described. FIG. 4 is a diagram showing a data structure of the item information database of the first embodiment.

図4に示すように、アイテム情報データベースは、「アイテムID」フィールドと、「アイテム名」フィールドと、「カテゴリ」フィールドと、「アイテム画像」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
As shown in FIG. 4, the item information database includes an "item ID" field, an "item name" field, a "category" field, and an "item image" field.
Each field is associated with each other.

「アイテムID」フィールドには、アイテムIDが格納される。アイテムIDは、アイテムを識別するアイテム識別情報の一例である。アイテムは、例えば、ファッションアイテムである。ファッションアイテムは、一例として、以下の少なくとも1つを含む。
・衣服
・靴
・下着
・鞄
・アクセサリー
・眼鏡
The item ID is stored in the "item ID" field. The item ID is an example of item identification information that identifies an item. The item is, for example, a fashion item. Fashion items include, for example, at least one of the following:
・ Clothes, shoes, underwear, bags, accessories, glasses

「アイテム名」フィールドには、アイテムのアイテム名に関する情報(例えば、テキスト)が格納される。 The Item Name field stores information about the item name of the item (eg, text).

「カテゴリ」フィールドには、アイテムのカテゴリに関するカテゴリ情報が格納される。「カテゴリ」フィールドは、複数のサブフィールド(「ブランド」フィールド及び「タイプ」フィールド)を含む。 The Category field stores category information about the item's category. The "Category" field includes a plurality of subfields ("Brand" field and "Type" field).

「ブランド」フィールドには、アイテムのブランド(一例として、ファッションブランド)に関するブランド情報(一例として、ブランド名に関する情報)が格納される。 The "brand" field stores brand information (for example, information about the brand name) about the brand of the item (for example, a fashion brand).

「タイプ」フィールドには、アイテムのタイプ(一例として、「SHIRT」又は「SHOES」)に関するタイプ情報が格納される。 The "Type" field stores type information about the type of item (for example, "SHIRT" or "SHOES").

「アイテム画像」フィールドには、アイテムの画像情報が格納される。画像情報は、例えば、アイテムの正面、側面、及び、背面の少なくとも一方向から撮影された画像の少なくとも1つである。 The item image information is stored in the "item image" field. The image information is, for example, at least one of the images taken from at least one direction on the front, side, and back of the item.

(1−3−2)デザイン画像情報データベース
本実形態のデザイン画像情報データベースについて説明する。図5は、第1実施形態のデザイン画像情報データベースのデータ構造を示す図である。
(1-3-2) Design image information database This actual form of the design image information database will be described. FIG. 5 is a diagram showing a data structure of the design image information database of the first embodiment.

図5に示すように、デザイン画像情報データベースは、「デザイン画像ID」フィールドと、「カテゴリ」フィールドと、「デザイン画像」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
As shown in FIG. 5, the design image information database includes a "design image ID" field, a "category" field, and a "design image" field.
Each field is associated with each other.

「デザイン画像ID」フィールドには、デザイン画像IDが格納される。デザイン画像IDは、デザイン画像情報を識別するデザイン画像識別情報の一例である。 The design image ID is stored in the "design image ID" field. The design image ID is an example of the design image identification information that identifies the design image information.

「カテゴリ」フィールドには、デザイン画像情報の元になる複数のアイテムのカテゴリ情報(例えば、ブランド情報)が格納される。 The "category" field stores category information (for example, brand information) of a plurality of items that are the basis of design image information.

「デザイン画像」フィールドには、生成モデルによって出力されたデザイン画像情報が格納される。 The design image information output by the generated model is stored in the "design image" field.

(1−4)情報処理
第1実施形態の情報処理について説明する。
(1-4) Information Processing The information processing of the first embodiment will be described.

(1−4−1)デザイン画像生成処理
第1実施形態のデザイン画像生成処理について説明する。図6は、第1実施形態のデザイン画像生成処理の説明図である。
(1-4-1) Design image generation process The design image generation process of the first embodiment will be described. FIG. 6 is an explanatory diagram of the design image generation process of the first embodiment.

図6では、ブランドi及びブランドjの組合せに対応するデザイン画像情報を生成する処理の例を示す。 FIG. 6 shows an example of processing for generating design image information corresponding to a combination of brand i and brand j.

記憶装置31には、複数のブランドの組合せ毎に、学習済の生成モデル(例えば、GAN(Generation Adversarial Networks)又はDCGAN(Deep Convolutional Generative Adversarial Networks))が記憶されている。例えば、ブランド「BRANDi」及び「BRANDj」に対応する生成モデル(BRANDixj)は、ブランド「BRANDi」のアイテム画像情報(BRANDi)及びブランド「BRANDj」のアイテム画像情報(BRANDj)により学習されている。 The storage device 31 stores a trained generative model (for example, GAN (Generation Adversarial Networks) or DCGAN (Deep Convolutional Generative Adversarial Networks)) for each combination of a plurality of brands. For example, the generative model (BRANDixj) corresponding to the brands "BRANDi" and "BRANDj" is learned from the item image information (BRANDi) of the brand "BRANDi" and the item image information (BRANDj) of the brand "BRANDj".

図6に示すように、プロセッサ32は、記憶装置31に記憶された生成モデルのうち、ブランド「BRANDi」及び「BRANDj」の組合せに対応する生成モデル(BLANDixj)を選択する。 As shown in FIG. 6, the processor 32 selects a generation model (BLANDixj) corresponding to the combination of the brands “BRANDi” and “BRANDj” from the generation models stored in the storage device 31.

プロセッサ32は、アイテム情報データベース(図4)を参照して、ブランド「BRANDi」及び「BRANDj」に関連付けられた「アイテム画像」フィールドの情報(つまり、ブランド「BRANDi」のアイテム画像情報及びブランド「BRANDj」のアイテム画像情報)を選択する。 The processor 32 refers to the item information database (FIG. 4) and refers to the information in the "item image" field associated with the brands "BRANDi" and "BRANDj" (ie, the item image information of the brand "BRANDi" and the brand "BRANDj". Item image information) is selected.

生成モデル(BRANDixj)は、ブランド「BRANDi」及び「BRANDj」に対応するデザイン画像情報(BRANDixj)を出力する。 The generative model (BRANDixj) outputs design image information (BRANDixj) corresponding to the brands "BRANDi" and "BRANDj".

プロセッサ32は、デザイン画像情報データベース(図5)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「デザイン画像ID」フィールドには、新規のデザイン画像IDが格納される。
・「カテゴリ」フィールドには、ブランド情報が格納される。
・「デザイン画像」フィールドには、生成モデルから出力されたデザイン画像情報が格納される。
The processor 32 adds a new record to the design image information database (FIG. 5). The following information is stored in each field of the new record.
-A new design image ID is stored in the "design image ID" field.
-Brand information is stored in the "Category" field.
-The design image information output from the generated model is stored in the "design image" field.

(1−4−2)デザイン画像提示処理
第1実施形態のデザイン画像提示処理について説明する。図7は、第1実施形態のデザイン画像提示処理のシーケンス図である。図8は、図7の情報処理において表示される画面例を示す図である。
(1-4-2) Design image presentation process The design image presentation process of the first embodiment will be described. FIG. 7 is a sequence diagram of the design image presentation process of the first embodiment. FIG. 8 is a diagram showing an example of a screen displayed in the information processing of FIG. 7.

図7に示すように、クライアント装置10は、ユーザ指示の受付(S110)を実行する。
具体的には、プロセッサ12は、画面P10(図8)をディスプレイに表示する。
As shown in FIG. 7, the client device 10 executes the reception of the user instruction (S110).
Specifically, the processor 12 displays the screen P10 (FIG. 8) on the display.

画面P10は、操作オブジェクトB100と、フィールドオブジェクトF100〜F101と、を含む。
フィールドオブジェクトF100〜F101は、ユーザから、ブランド情報の指定を受け付けるオブジェクトである。
操作オブジェクトB100は、フィールドオブジェクトF100〜F101の指定を確定させるオブジェクトである。
The screen P10 includes the operation object B100 and the field objects F100 to F101.
The field objects F100 to F101 are objects that accept the designation of brand information from the user.
The operation object B100 is an object that confirms the designation of the field objects F100 to F101.

ステップS110の後、クライアント装置10は、デザインリクエスト(S111)を実行する。
具体的には、ユーザがフィールドオブジェクトF100〜F101でブランドを指定し、且つ、操作オブジェクトB100を操作すると、プロセッサ12は、デザインリクエストデータをサーバ30に送信する。デザインリクエストデータは、フィールドオブジェクトF100〜F101で指定されたブランド情報の組合せを含む。
After step S110, the client device 10 executes the design request (S111).
Specifically, when the user specifies the brand with the field objects F100 to F101 and operates the operation object B100, the processor 12 transmits the design request data to the server 30. The design request data includes a combination of brand information specified by the field objects F100 to F101.

ステップS111の後、サーバ30は、デザイン画像の選択(S130)を実行する。
具体的には、プロセッサ32は、デザイン画像情報データベース(図5)を参照して、デザインリクエストデータに含まれるブランドの組合せに関連付けられた「デザイン画像」フィールドの情報(つまり、デザイン画像情報)を選択する。
After step S111, the server 30 executes the design image selection (S130).
Specifically, the processor 32 refers to the design image information database (FIG. 5) to display information in the "design image" field (that is, design image information) associated with the combination of brands included in the design request data. select.

ステップS130の後、サーバ30は、デザインレスポンス(S131)を実行する。
具体的には、プロセッサ32は、デザインレスポンスデータをクライアント装置10に送信する。デザインレスポンスデータは、ステップS130において選択されたデザイン画像情報を含む。
After step S130, the server 30 executes the design response (S131).
Specifically, the processor 32 transmits the design response data to the client device 10. The design response data includes the design image information selected in step S130.

ステップS131の後、クライアント装置10は、デザイン画像の表示(S112)を実行する。
具体的には、プロセッサ12は、画面P11(図8)をディスプレイに表示する。
After step S131, the client device 10 executes the display of the design image (S112).
Specifically, the processor 12 displays the screen P11 (FIG. 8) on the display.

画面P11は、操作オブジェクトB110と、画像オブジェクトIMG110〜IMG113と、を含む。
画像オブジェクトIMG110〜IMG113は、デザインレスポンスデータに含まれるデザイン画像情報に対応する画像オブジェクトである。
The screen P11 includes the operation object B110 and the image objects IMG110 to IMG113.
The image objects IMG110 to IMG113 are image objects corresponding to the design image information included in the design response data.

第1実施形態によれば、サーバ30は、ユーザが指定した複数のカテゴリの組合せに対応する生成モデルから出力されたデザイン画像情報を提示する。これにより、既存のアイテムの個性を残しつつも斬新なデザインを提供することができる。 According to the first embodiment, the server 30 presents the design image information output from the generative model corresponding to the combination of the plurality of categories specified by the user. This makes it possible to provide a novel design while retaining the individuality of existing items.

また、第1実施形態によれば、複数のデザイン画像情報を提示する場合、ユーザに所望のデザイン画像情報を選択させることができる。 Further, according to the first embodiment, when presenting a plurality of design image information, the user can select the desired design image information.

また、第1実施形態によれば、1つのデザイン画像情報を提示する場合、ユーザに選択させることなく、ユーザが指定した条件に該当するデザイン画像情報を提案することができる。
この場合、サーバ30は、生成モデルによって出力された複数のデザイン画像情報の中から、ユーザに関するユーザ情報に基づいて、デザインレスポンスデータに含めるデザイン画像情報を選択してもよい。
Further, according to the first embodiment, when presenting one design image information, it is possible to propose the design image information corresponding to the condition specified by the user without letting the user select it.
In this case, the server 30 may select the design image information to be included in the design response data from the plurality of design image information output by the generation model, based on the user information about the user.

(2)第2実施形態
第2実施形態について説明する。第2実施形態は、ユーザ指示に応じてデザイン画像情報を生成する例である。
(2) Second Embodiment The second embodiment will be described. The second embodiment is an example of generating design image information in response to a user instruction.

(2−1)第2実施形態の概要
第2実施形態の概要について説明する。図9は、第2実施形態の概要の説明図である。
(2-1) Outline of the Second Embodiment The outline of the second embodiment will be described. FIG. 9 is an explanatory diagram of an outline of the second embodiment.

図9に示すように、サーバ30には、複数のカテゴリに対応するアイテム画像情報が記憶される。
サーバ30は、クライアント装置10を介して、ユーザから複数のカテゴリ(「CATEGORY1」及び「CATEGORY2」)の指定を受け付ける。
サーバ30は、ユーザから指定された複数のカテゴリのアイテム画像情報(CATEGORY1及びCATEGORY2)を用いて、生成モデル(CATEGORY1x2)を生成する。
生成モデル(CATEGORY1x2)は、ユーザから指定された複数のカテゴリに対応するデザイン画像情報(CATEGORY1x2)を出力する。
サーバ30は、クライアント装置10を介して、生成モデル(CATEGORY1x2)から出力されたデザイン画像情報(CATEGORY1x2)をユーザに提示する。
As shown in FIG. 9, the server 30 stores item image information corresponding to a plurality of categories.
The server 30 receives designations of a plurality of categories (“CATEGORY 1” and “CATEGORY 2”) from the user via the client device 10.
The server 30 generates a generative model (CATEGORY1x2) using the item image information (CATEGORY1 and CATEGORY2) of a plurality of categories specified by the user.
The generative model (CATEGORY1x2) outputs design image information (CATEGORY1x2) corresponding to a plurality of categories specified by the user.
The server 30 presents the design image information (CATEGORY1x2) output from the generation model (CATEGORY1x2) to the user via the client device 10.

(2−2)デザイン画像生成処理
第2実施形態のデザイン画像生成処理について説明する。図10は、第2実施形態のデザイン画像生成処理のシーケンス図である。図11は、図10のデザイン画像の生成の詳細なフローチャートである。図12は、図10の情報処理において表示される画面例を示す図である。
(2-2) Design Image Generation Process The design image generation process of the second embodiment will be described. FIG. 10 is a sequence diagram of the design image generation process of the second embodiment. FIG. 11 is a detailed flowchart of the generation of the design image of FIG. FIG. 12 is a diagram showing an example of a screen displayed in the information processing of FIG.

図10に示すように、クライアント装置10は、第1実施形態のデザイン画像提示処理(図7)と同様に、ステップS110〜S111を実行する。 As shown in FIG. 10, the client device 10 executes steps S110 to S111 in the same manner as the design image presentation process (FIG. 7) of the first embodiment.

ステップS111の後、サーバ30は、デザイン画像の生成(S230)を実行する。 After step S111, the server 30 executes the design image generation (S230).

図11に示すように、サーバ30は、アイテム画像の選択(S2300)を実行する。
具体的には、プロセッサ32は、アイテム画像情報データベース(図4)を参照して、デザインリクエストデータに含まれるブランド情報に関連付けられた「アイテム画像」フィールドの情報(つまり、ユーザが指定したブランドのアイテム画像情報)を選択する。
As shown in FIG. 11, the server 30 executes the item image selection (S2300).
Specifically, the processor 32 refers to the item image information database (FIG. 4) and refers to the information in the "item image" field associated with the brand information included in the design request data (that is, the information of the brand specified by the user). Item image information) is selected.

ステップS2300の後、サーバ30は、生成モデルの構築(S2301)を実行する。
具体的には、プロセッサ32は、ステップS2300で選択されたアイテム画像情報を、記憶装置31に記憶された生成モデルに入力することにより、生成モデルを学習させる。
After step S2300, the server 30 executes the construction of the generation model (S2301).
Specifically, the processor 32 learns the generative model by inputting the item image information selected in step S2300 into the generative model stored in the storage device 31.

ステップS2301の後、サーバ30は、デザイン画像の出力(S2302)を実行する。
具体的には、プロセッサ32は、生成モデルに出力指示を与える。生成モデルは、出力指示に応じてデザイン画像情報を出力する。
After step S2301, the server 30 executes the output of the design image (S2302).
Specifically, the processor 32 gives an output instruction to the generative model. The generative model outputs design image information in response to an output instruction.

ステップS230の後、サーバ30は、第1実施形態のデザイン画像提示処理(図7)と同様に、ステップS131を実行する。 After step S230, the server 30 executes step S131 in the same manner as the design image presentation process (FIG. 7) of the first embodiment.

ステップS131の後、クライアント装置10は、デザイン画像の表示(S210)を実行する。
具体的には、プロセッサ12は、画面P20(図12)をディスプレイに表示する。
After step S131, the client device 10 executes the display of the design image (S210).
Specifically, the processor 12 displays the screen P20 (FIG. 12) on the display.

画面P20は、画像オブジェクトIMG110〜IMG113と、操作オブジェクトB200と、を備える。
操作オブジェクト200は、デザインリクエストデータをサーバ30に送信し直すためのユーザ指示を受け付けるオブジェクトである。
The screen P20 includes image objects IMG110 to IMG113 and operation objects B200.
The operation object 200 is an object that receives a user instruction for resending the design request data to the server 30.

操作オブジェクトB200をユーザが操作すると、プロセッサ12は、ステップS111を実行し直す。その結果、サーバ30は、デザイン画像情報を生成し直す。生成モデルは、ステップS2301が実行される度に異なるデザイン画像情報を出力する。
この場合、プロセッサ12は、画面P21(図12)をディスプレイに表示する。
画面P21は、画像オブジェクトIMG210〜IMG213と、操作オブジェクトB200と、を含む。画像オブジェクトIMG210〜IMG213は、操作オブジェクトB200の操作に応じて生成されるデザイン画像情報である。操作オブジェクトB200の操作に応じて生成されるデザイン画像情報は、操作オブジェクトB200の操作の前に生成されたデザイン画像情報とは異なる。これにより、新たなデザイン画像情報を提示することができる。
When the user operates the operation object B200, the processor 12 re-executes step S111. As a result, the server 30 regenerates the design image information. The generative model outputs different design image information each time step S2301 is executed.
In this case, the processor 12 displays the screen P21 (FIG. 12) on the display.
The screen P21 includes image objects IMG210 to IMG213 and operation objects B200. The image objects IMG210 to IMG213 are design image information generated in response to the operation of the operation object B200. The design image information generated in response to the operation of the operation object B200 is different from the design image information generated before the operation of the operation object B200. As a result, new design image information can be presented.

第2実施形態によれば、サーバ30は、ユーザのカテゴリの指定に応じて、ユーザが指定したカテゴリのアイテム画像情報を生成モデルに入力する。生成モデルは、アイテム画像情報の組合せが入力される度に、異なるデザイン画像情報を出力する。これにより、デザイン画像生成処理を実行する度に、新たなデザイン画像情報を提供することができる。 According to the second embodiment, the server 30 inputs the item image information of the category specified by the user into the generation model according to the designation of the category of the user. The generative model outputs different design image information each time a combination of item image information is input. As a result, new design image information can be provided each time the design image generation process is executed.

また、第2実施形態によれば、操作オブジェクトB200をユーザに操作させた後に新たなデザイン画像情報を提示する。これにより、ユーザは所望のデザイン画像を容易に得ることができる。 Further, according to the second embodiment, new design image information is presented after the operation object B200 is operated by the user. This allows the user to easily obtain the desired design image.

(2−3)変形例
第2実施形態の変形例について説明する。第2実施形態の変形例は、特徴情報が関連付けられたアイテム画像情報によって学習された生成モデルを用いて、デザイン画像情報を生成する例である。
(2-3) Modification Example A modification of the second embodiment will be described. A modification of the second embodiment is an example of generating design image information using a generative model learned from item image information associated with feature information.

(2−3−1)変形例の概要
第2実施形態の変形例の概要について説明する。図13は、第2実施形態の変形例の概要の説明図である。
(2-3-1) Outline of Modified Example An outline of the modified example of the second embodiment will be described. FIG. 13 is an explanatory diagram of an outline of a modified example of the second embodiment.

図13に示すように、サーバ30は、アイテム画像情報と、特徴情報と、を関連付けて記憶する。
サーバ30は、クライアント装置10を介して、ユーザから複数のカテゴリ(「CATEGORY1」及び「CATEGORY2」)の指定と、デザインの特徴の指定と、を受け付ける。
サーバ30は、ユーザが指定した複数のカテゴリのアイテム画像情報(CATEGORY1及びCATEGORY2)と、各アイテム画像情報に関連付けられた特徴情報のうちユーザが指定したデザインの特徴に対応する特徴情報と、を用いて生成モデル(CATEGORY1x2)を学習させる。
生成モデル(CATEGORY1x2)は、ユーザが指定した複数のカテゴリの組合せ及びユーザが指定した特徴に対応するデザイン画像情報(CATEGORY1x2)を出力する。
サーバ30は、クライアント装置10を介して、生成モデル(CATEGORY1x2)から出力されたデザイン画像情報(CATEGORY1x2)をユーザに提示する。
As shown in FIG. 13, the server 30 stores the item image information and the feature information in association with each other.
The server 30 accepts the designation of a plurality of categories (“CATEGORY 1” and “CATEGORY 2”) and the designation of design features from the user via the client device 10.
The server 30 uses item image information (CATEGORY1 and CATEGORY2) of a plurality of categories specified by the user, and feature information corresponding to the design feature specified by the user among the feature information associated with each item image information. To train the generative model (CATEGORY1x2).
The generative model (CATEGORY1x2) outputs design image information (CATEGORY1x2) corresponding to a combination of a plurality of categories specified by the user and a feature specified by the user.
The server 30 presents the design image information (CATEGORY1x2) output from the generation model (CATEGORY1x2) to the user via the client device 10.

(2−3−2)特徴情報データベース
第2実施形態の変形例の特徴情報データベースについて説明する。図14は、第2実施形態の変形例の特徴情報データベースのデータ構造を示す図である。
(2-3-2) Feature Information Database A feature information database of a modification of the second embodiment will be described. FIG. 14 is a diagram showing a data structure of a feature information database of a modified example of the second embodiment.

図14の特徴情報データベースには、アイテムの特徴に関する特徴情報が格納される。
特徴情報データベースは、「画像ID」フィールドと、「画像リンク」フィールドと、「特徴」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
The feature information database of FIG. 14 stores feature information related to item features.
The feature information database includes an "image ID" field, an "image link" field, and a "feature" field.
Each field is associated with each other.

「画像ID」フィールドには、画像IDが格納される。画像IDは、アイテム画像情報を識別する画像識別情報の一例である。 An image ID is stored in the "image ID" field. The image ID is an example of image identification information that identifies item image information.

「画像リンク」フィールドには、アイテム画像情報のファイル名に関する情報が格納される。 The "image link" field stores information about the file name of the item image information.

「特徴」フィールドには、特徴情報(例えば、特徴ベクトル)が格納される。アイテムの特徴は、例えば、以下の少なくとも1つである。
・対象性別(一例として、男性用、女性用、又は、男女兼用)
・利用シーン(一例として、ビジネス、カジュアル、又は、フォーマル)
・サイズ
・色
・テイスト
・シルエット
Feature information (eg, feature vector) is stored in the "feature" field. The feature of the item is, for example, at least one of the following.
・ Target gender (for example, for men, women, or unisex)
・ Usage scene (for example, business, casual, or formal)
・ Size, color, taste, silhouette

(2−3−3)デザイン画像生成処理
第2実施形態の変形例のデザイン画像生成処理について説明する。図15は、第2実施形態の変形例のデザイン画像生成処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。
(2-3-3) Design image generation processing The design image generation processing of the modified example of the second embodiment will be described. FIG. 15 is a sequence diagram of a design image generation process of a modified example of the second embodiment. FIG. 16 is a diagram showing an example of a screen displayed in the information processing of FIG.

図15に示すように、クライアント装置10は、クライアント装置10は、ユーザ指示の受付(S211)を実行する。
具体的には、プロセッサ12は、画面P22(図16)をディスプレイに表示する。
As shown in FIG. 15, in the client device 10, the client device 10 executes the reception of the user instruction (S211).
Specifically, the processor 12 displays the screen P22 (FIG. 16) on the display.

画面P22は、操作オブジェクトB220と、フィールドオブジェクトF100〜F101及びF220を含む。
フィールドオブジェクトF220は、ユーザから、所望のデザインの特徴の指定を受け付けるオブジェクトである。
操作オブジェクトB220は、フィールドオブジェクトF100〜F101及びF220の指定を確定させるオブジェクトである。
The screen P22 includes the operation object B220 and the field objects F100 to F101 and F220.
The field object F220 is an object that accepts the designation of desired design features from the user.
The operation object B220 is an object that confirms the designation of the field objects F100 to F101 and F220.

ステップS211の後、クライアント装置10は、デザインリクエスト(S212)を実行する。
具体的には、ユーザがフィールドオブジェクトF100〜F101でブランドを指定し、フィールドオブジェクトF210でデザインの特徴を指定し、且つ、操作オブジェクトB210を操作すると、プロセッサ12は、デザインリクエストデータをサーバ30に送信する。デザインリクエストデータは、フィールドオブジェクトF100〜F101で指定されたブランド情報の組合せと、フィールドオブジェクトF210で指定された特徴と、を含む。
After step S211 the client device 10 executes the design request (S212).
Specifically, when the user specifies the brand with the field objects F100 to F101, specifies the design features with the field objects F210, and operates the operation object B210, the processor 12 transmits the design request data to the server 30. do. The design request data includes a combination of brand information specified by the field objects F100 to F101 and a feature specified by the field object F210.

ステップS212の後、サーバ30は、図10と同様に、ステップS230を実行する。
具体的には、プロセッサ32は、図11と同様にステップS2300を実行した後、ステップS2301において、選択されたアイテム画像情報と、当該アイテム画像情報に関連付けられた特徴情報のうちデザインリクエストデータに含まれる特徴に対応する特徴情報と、を生成モデルに入力することにより、生成モデルを学習させる。
ステップS2301の後、プロセッサ32は、図11と同様にステップS2302を実行する。これにより、生成モデルは、デザイン画像情報を出力する。
After step S212, the server 30 executes step S230 in the same manner as in FIG.
Specifically, after executing step S2300 as in FIG. 11, the processor 32 includes the selected item image information and the feature information associated with the item image information in the design request data in step S2301. The generation model is trained by inputting the feature information corresponding to the features to be generated into the generation model.
After step S2301, the processor 32 executes step S2302 in the same manner as in FIG. As a result, the generative model outputs the design image information.

ステップS230の後、サーバ30は、図7と同様に、S131を実行する。
ステップS131の後、クライアント装置10は、図10と同様に、ステップS210を実行する。
After step S230, the server 30 executes S131 in the same manner as in FIG. 7.
After step S131, the client device 10 executes step S210 in the same manner as in FIG.

第2実施形態の変形例によれば、ユーザが指定したブランド情報の組合せに対応するアイテム画像情報と、ユーザが指定した特徴に対応する特徴情報と、を用いて生成モデルを学習させる。これにより、ユーザの所望の特徴がより強く反映されたデザイン画像情報を容易に得ることができる。 According to the modified example of the second embodiment, the generation model is trained using the item image information corresponding to the combination of the brand information specified by the user and the feature information corresponding to the feature specified by the user. Thereby, it is possible to easily obtain the design image information in which the desired feature of the user is more strongly reflected.

(3)第3実施形態
第3実施形態について説明する。第3実施形態は、ユーザ情報及びユーザ指示の少なくとも1つに応じたデザイン画像情報を生成する例である。
(3) Third Embodiment The third embodiment will be described. The third embodiment is an example of generating design image information according to at least one of user information and user instruction.

(3−1)第3実施形態の概要
第3実施形態の概要について説明する。図17は、第3実施形態の概要の説明図である。
(3-1) Outline of the Third Embodiment The outline of the third embodiment will be described. FIG. 17 is an explanatory diagram of an outline of the third embodiment.

図17に示すように、サーバ30には、複数のカテゴリのアイテム画像情報及び特徴情報の組合せと、複数のカテゴリのアイテム画像情報及び特徴情報の組合せによって構築された生成モデルと、が記憶される。
サーバ30は、クライアント装置10を介して、ユーザから複数のカテゴリ「CATEGORY1」及び「CATEGORY2」の指定と、ユーザに関するユーザ情報及びユーザ指示の少なくとも1つと、を受け付ける。
サーバ30は、ユーザが指定した複数のカテゴリ「CATEGORY1」及び「CATEGORY2」に対応する生成モデル(CATEGORY1x2)を選択する。
サーバ30は、ユーザ情報及びユーザ指示の少なくとも1つに基づいて、選択した生成モデル(CATEGORY1x2)のパラメータを調整する。
パラメータが調整された生成モデル(CATEGORY1x2)は、ユーザが指定した複数のカテゴリに対応するデザイン画像情報(CATEGORY1x2)を出力する。
サーバ30は、クライアント装置10を介して、生成モデル(CATEGORY1x2)から出力されたデザイン画像情報(CATEGORY1x2)をユーザに提示する。
As shown in FIG. 17, the server 30 stores a combination of item image information and feature information of a plurality of categories and a generative model constructed by a combination of item image information and feature information of a plurality of categories. ..
The server 30 receives from the user a plurality of categories "CATEGORY1" and "CATEGORY2", and at least one of user information and user instructions regarding the user, via the client apparatus 10.
The server 30 selects a generation model (CATEGORY1x2) corresponding to a plurality of categories "CATEGORY1" and "CATEGORY2" specified by the user.
The server 30 adjusts the parameters of the selected generative model (CATEGORY1x2) based on at least one of the user information and the user instruction.
The generated model (CATEGORY1x2) with adjusted parameters outputs design image information (CATEGORY1x2) corresponding to a plurality of categories specified by the user.
The server 30 presents the design image information (CATEGORY1x2) output from the generation model (CATEGORY1x2) to the user via the client device 10.

(3−2)データベース
第3実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3-2) Database The database of the third embodiment will be described. The following database is stored in the storage device 31.

(3−2−1)ユーザ情報データベース
第3実施形態のユーザ情報データベースについて説明する。図18は、第3実施形態のユーザ情報データベースのデータ構造を示す図である。
(3-2-1) User Information Database The user information database of the third embodiment will be described. FIG. 18 is a diagram showing a data structure of the user information database of the third embodiment.

図18のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「ユーザ画像」フィールドと、「ユーザサイズ」フィールドと、「ユーザ嗜好」フィールドと、「行動履歴」フィールドと、を含む。
各フィールドは互いに関連付けられている。
The user information database of FIG. 18 stores user information about the user.
The user information database includes a "user ID" field, a "user name" field, a "user attribute" field, a "user image" field, a "user size" field, a "user preference" field, and an "action history". Includes fields and.
Each field is associated with each other.

「ユーザID」フィールドには、ユーザIDが格納されている。ユーザIDは、ユーザを識別するユーザ識別情報の一例である。 The user ID is stored in the "user ID" field. The user ID is an example of user identification information that identifies a user.

「ユーザ名」フィールドには、ユーザの名称に関する情報(例えば、テキスト)が格納される。 The Username field stores information about the user's name (eg, text).

「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。「ユーザ属性」フィールドは、複数のサブフィールド(例えば、「性別」フィールド及び「年齢」フィールド)を含む。 The "user attribute" field stores user attribute information related to the user's attribute. The "User Attribute" field includes a plurality of subfields (eg, "Gender" field and "Age" field).

「性別」フィールドには、ユーザの性別に関する情報が格納される。 The Gender field stores information about the user's gender.

「年齢」フィールドには、ユーザの年齢に関する情報が格納される。 The Age field stores information about the user's age.

「ユーザ画像」フィールドには、ユーザのユーザ画像情報(例えば、ユーザの顔又は全身を含む画像情報)が格納される。 The "user image" field stores user image information of the user (for example, image information including the user's face or whole body).

「ユーザサイズ」フィールドには、ユーザのサイズに関するユーザサイズ情報が格納される。ユーザサイズ情報は、以下の何れかである。
・ユーザの衣服のサイズに関する指標(一例として、S、M、又は、L)
・ユーザの身体のサイズに関する指標(一例として、細身、標準、又は、ビッグシルエット)
・ユーザの身体の部位(一例として、身長、首回り、胸囲、ウエスト、及び、大腿部)毎のサイズを測定可能な測定デバイスによって測定された測定結果に関する情報
The User Size field stores user size information about the size of the user. The user size information is one of the following.
An index related to the size of the user's clothes (for example, S, M, or L)
・ Indicators related to the size of the user's body (for example, slender, standard, or big silhouette)
-Information on measurement results measured by a measuring device capable of measuring the size of each part of the user's body (for example, height, neck circumference, chest circumference, waist, and thigh).

「ユーザ嗜好」フィールドには、ユーザの嗜好に関するユーザ嗜好情報が格納される。ユーザ嗜好情報は、例えば、以下の少なくとも1つである。
・芸術(例えば、音楽、映画、又は、絵画)の嗜好
・ブランド国籍(例えば、日本発ブランド、フランス発ブランド、又は、イタリア発ブランド)の嗜好
・アイテムの雰囲気(例えば、フェミニン、シンプル、アヴァンギャルド、又は、ベーシック)
・アイテムのジャンル(例えば、アメリカンカジュアル、又は、モード)
・ソーシャルネットワーク上の行動(ソーシャルネットワーク上でリアクションした情報、又は、ソーシャルネットワークへ投稿した情報)の嗜好
In the "user preference" field, user preference information regarding the user's preference is stored. The user preference information is, for example, at least one of the following.
-Preferences for art (eg, music, movies, or paintings) -Preferences for brand nationality (eg, Japanese brand, French brand, or Italian brand) -Atmosphere of items (eg feminine, simple, avant-garde, etc. Or basic)
-Item genre (for example, American casual or mode)
・ Preference for behavior on social networks (information reacted on social networks or information posted on social networks)

「購入履歴」フィールドには、ユーザが購入したアイテムの履歴に関する購入履歴情報が格納される。購入履歴情報は、例えば、ユーザが購入したアイテムのアイテムIDである。 The "Purchase History" field stores purchase history information regarding the history of items purchased by the user. The purchase history information is, for example, the item ID of the item purchased by the user.

(3−2−2)モデル情報データベース
第3実施形態のモデル情報データベースについて説明する。図19は、第3実施形態のモデル情報データベースのデータ構造を示す図である。
(3-2-2) Model Information Database The model information database of the third embodiment will be described. FIG. 19 is a diagram showing a data structure of the model information database of the third embodiment.

図19のモデル情報データベースには、生成モデルに関するモデル情報が格納される。
モデル情報データベースは、「モデルID」フィールドと、「モデル名」フィールドと、「カテゴリ」フィールドと、を含む。
各フィールドは互いに関連付けられている。
The model information database of FIG. 19 stores model information related to the generative model.
The model information database includes a "model ID" field, a "model name" field, and a "category" field.
Each field is associated with each other.

「モデルID」フィールドには、モデルIDが格納されている。モデルIDは、生成モデルを識別するモデル識別情報の一例である。 The model ID is stored in the "model ID" field. The model ID is an example of model identification information that identifies the generated model.

「モデル名」フィールドには、モデルの名称に関する情報(例えば、テキスト)が格納される。 The "model name" field stores information about the model name (eg, text).

「カテゴリ」フィールドには、生成モデルに対応するカテゴリの組合せに関するカテゴリ情報(例えば、ブランド情報)が格納される。 The "Category" field stores category information (for example, brand information) regarding the combination of categories corresponding to the generative model.

(3−3)デザイン画像生成処理
第3実施形態のデザイン画像生成処理について説明する。図20は、第3実施形態のデザイン画像生成処理のシーケンス図である。図21は、図20の情報処理において表示される画面の例を示す図である。図22は、図20のデザイン画像の生成の詳細なフローチャートである。
(3-3) Design image generation process The design image generation process of the third embodiment will be described. FIG. 20 is a sequence diagram of the design image generation process of the third embodiment. FIG. 21 is a diagram showing an example of a screen displayed in the information processing of FIG. 20. FIG. 22 is a detailed flowchart of the generation of the design image of FIG.

図20に示すように、クライアント装置10は、ユーザ指示の受付(S310)を実行する。
具体的には、プロセッサ12は、画面P30(図21)をディスプレイに表示する。
As shown in FIG. 20, the client device 10 executes the reception of the user instruction (S310).
Specifically, the processor 12 displays the screen P30 (FIG. 21) on the display.

画面P30は、操作オブジェクトB300と、フィールドオブジェクトF100〜F101及びF300〜F303と、を含む。
フィールドオブジェクトF300は、ユーザIDを指定するためのユーザ指示を受け付けるオブジェクトである。
フィールドオブジェクトF301は、所望のアイテムの利用シーンを指定するためのユーザ指示を受け付けるオブジェクトである。
フィールドオブジェクトF302は、所望のアイテムのテイストを指定するためのユーザ指示を受け付けるオブジェクトである。
フィールドオブジェクトF303は、フィールドオブジェクトF100〜F101に入力された複数のブランドの混合比率を指定するためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB300は、フィールドオブジェクトF100〜F101及びF300〜F302への入力を確定させるためのユーザ指示を受け付けるオブジェクトである。
The screen P30 includes the operation object B300 and the field objects F100 to F101 and F300 to F303.
The field object F300 is an object that receives a user instruction for designating a user ID.
The field object F301 is an object that receives a user instruction for designating a usage scene of a desired item.
The field object F302 is an object that receives a user instruction for designating a taste of a desired item.
The field object F303 is an object that receives a user instruction for designating a mixing ratio of a plurality of brands input to the field objects F100 to F101.
The operation object B300 is an object that receives a user instruction for confirming the input to the field objects F100 to F101 and F300 to F302.

ステップS310の後、クライアント装置10は、デザインリクエスト(S311)を実行する。
具体的には、ユーザがフィールドオブジェクトF101〜F101と、フィールドオブジェクトF300〜F302の少なくとも1つと、にユーザ指示を入力し、且つ、操作オブジェクトB300を操作すると、プロセッサ12は、デザインリクエストデータをサーバ30に送信する。デザインリクエストデータは、以下の情報を含む。
・フィールドオブジェクトF100〜F101で指定されたブランド情報の組合せ
・フィールドオブジェクトF300〜F303の少なくとも1つで指定されたユーザ指示(つまり、ユーザID、所望の利用シーン、及び、所望のテイストの少なくとも1つに関するユーザ指示)
After step S310, the client device 10 executes the design request (S311).
Specifically, when the user inputs a user instruction to the field objects F101 to F101 and at least one of the field objects F300 to F302 and operates the operation object B300, the processor 12 transmits the design request data to the server 30. Send to. The design request data includes the following information.
-Combination of brand information specified by field objects F100 to F101-User instruction specified by at least one of field objects F300 to F303 (that is, at least one of a user ID, a desired usage scene, and a desired taste). User instructions regarding)

ステップS311の後、サーバ30は、デザイン画像の生成(S330)を実行する。 After step S311 the server 30 executes the design image generation (S330).

図22に示すように、サーバ30は、生成モデルの選択(S3300)を実行する。
具体的には、プロセッサ32は、モデル情報データベース(図19)を参照して、デザインリクエストデータに含まれるブランド情報に関連付けられた「モデルID」フィールドの情報(つまり、モデルID)を特定する。特定されたモデルIDは、選択された生成モデルを識別する。
As shown in FIG. 22, the server 30 executes the selection of the generation model (S3300).
Specifically, the processor 32 refers to the model information database (FIG. 19) to identify information (that is, model ID) in the "model ID" field associated with the brand information included in the design request data. The identified model ID identifies the selected generative model.

ステップS3301の後、サーバ30は、パラメータの調整(S3301)を実行する。 After step S3301, the server 30 executes parameter adjustment (S3301).

ステップS3301の第1例では、デザインリクエストデータがフィールドオブジェクトF300で指定されたユーザIDを含む場合、プロセッサ32は、ユーザ情報データベース(図18)を参照して、当該ユーザIDに関連付けられた「ユーザ属性」フィールドに格納されたユーザ属性情報を特定する。
プロセッサ32は、デザインリクエストデータに含まれるブランド情報の組合せ、及び、特定したユーザ属性情報に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
In the first example of step S3301, when the design request data includes the user ID specified by the field object F300, the processor 32 refers to the user information database (FIG. 18) and is associated with the "user" associated with the user ID. Identify the user attribute information stored in the Attributes field.
The processor 32 adjusts the parameters of the generation model selected in step S3300 based on the combination of brand information included in the design request data and the specified user attribute information.

ステップS3301の第2例では、デザインリクエストデータがフィールドオブジェクトF300で指定されたユーザIDを含む場合、プロセッサ32は、ユーザ情報データベース(図18)を参照して、当該ユーザIDに関連付けられた「ユーザ嗜好」フィールドに格納されたユーザ嗜好情報を特定する。
プロセッサ32は、デザインリクエストデータに含まれるブランド情報の組合せ、及び、特定したユーザ嗜好情報に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
In the second example of step S3301, when the design request data includes the user ID specified by the field object F300, the processor 32 refers to the user information database (FIG. 18) and is associated with the "user" associated with the user ID. Identify the user preference information stored in the Preferences field.
The processor 32 adjusts the parameters of the generation model selected in step S3300 based on the combination of brand information included in the design request data and the specified user preference information.

ステップS3301の第3例では、デザインリクエストデータがフィールドオブジェクトF300で指定されたユーザIDを含む場合、プロセッサ32は、ユーザ情報データベース(図18)を参照して、当該ユーザIDに関連付けられた「購入履歴」フィールドに格納された購入履歴情報(例えば、アイテムID)を特定する。
プロセッサ32は、特徴情報データベース(図14)を参照して、特定したアイテムIDに関連付けられたアイテム画像情報の特徴情報を特定する。
プロセッサ32は、デザインリクエストデータに含まれるブランド情報の組合せ、及び、特定した特徴情報に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
In the third example of step S3301, when the design request data includes the user ID specified by the field object F300, the processor 32 refers to the user information database (FIG. 18) and associates the "purchase" associated with the user ID. Identify the purchase history information (eg, item ID) stored in the History field.
The processor 32 identifies the feature information of the item image information associated with the identified item ID with reference to the feature information database (FIG. 14).
The processor 32 adjusts the parameters of the generation model selected in step S3300 based on the combination of brand information included in the design request data and the identified feature information.

ステップS3301の第4例では、デザインリクエストデータがフィールドオブジェクトF300で指定されたユーザIDを含む場合、プロセッサ32は、ユーザ情報データベース(図18)を参照して、当該ユーザIDに関連付けられた「ユーザ画像」フィールドに格納されたユーザ画像情報を特定する。
プロセッサ32は、ユーザ画像情報に特徴量解析を適用することにより、ユーザの身体の特徴に関する特徴量を抽出する。身体の特徴は、例えば、体型、身長、顔の輪郭、顔の部位の配置、肌の色、及び、髪の色の少なくとも1つを含む。
プロセッサ32は、デザインリクエストデータに含まれるブランド情報の組合せ、及び、抽出した特徴量に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。
In the fourth example of step S3301, when the design request data includes the user ID specified by the field object F300, the processor 32 refers to the user information database (FIG. 18) and is associated with the "user" associated with the user ID. Identify the user image information stored in the Image field.
The processor 32 extracts the feature amount related to the feature amount of the user's body by applying the feature amount analysis to the user image information. Body features include, for example, at least one of body shape, height, facial contours, facial site placement, skin color, and hair color.
The processor 32 adjusts the parameters of the generation model selected in step S3300 based on the combination of brand information included in the design request data and the extracted features.

ステップS3301の第5例では、デザインリクエストデータがフィールドオブジェクトF301で指定された利用シーンに関する情報を含む場合、プロセッサ32は、デザインリクエストデータに含まれる利用シーンに関する情報に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。 In the fifth example of step S3301, when the design request data includes the information about the usage scene specified by the field object F301, the processor 32 is selected in step S3300 based on the information about the usage scene included in the design request data. Adjust the parameters of the generated model.

ステップS3301の第6例では、デザインリクエストデータがフィールドオブジェクトF302で指定されたテイストに関する情報を含む場合、プロセッサ32は、デザインリクエストデータに含まれるテイストに関する情報に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。 In the sixth example of step S3301, when the design request data includes the information about the taste specified by the field object F302, the processor 32 generates the product selected in step S3300 based on the information about the taste included in the design request data. Adjust model parameters.

ステップS3301の第7例では、デザインリクエストデータがフィールドオブジェクトF303で指定された混合比率を含む場合、プロセッサ32は、デザインリクエストデータに含まれる混合比率に基づいて、ステップS3300で選択された生成モデルのパラメータを調整する。 In the seventh example of step S3301, when the design request data contains the mixing ratio specified by the field object F303, the processor 32 of the generation model selected in step S3300 based on the mixing ratio included in the design request data. Adjust the parameters.

ステップS3301の後、サーバ30は、デザイン画像の出力(S3302)を実行する。
具体的には、プロセッサ32は、ステップS3301においてパラメータが調整された生成モデルに出力指示を与える。生成モデルは、出力指示に応じてデザイン画像情報を出力する。
After step S3301, the server 30 executes the output of the design image (S3302).
Specifically, the processor 32 gives an output instruction to the generative model whose parameters have been adjusted in step S3301. The generative model outputs design image information in response to an output instruction.

ステップS330の後、サーバ30は、図7と同様に、ステップS131を実行する。
ステップS331の後、クライアント装置10は、図10と同様にステップS210を実行する。
After step S330, the server 30 executes step S131 in the same manner as in FIG. 7.
After step S331, the client device 10 executes step S210 in the same manner as in FIG.

第3実施形態によれば、ユーザ情報及びユーザ指示の少なくとも1つに応じて生成モデルのパラメータを調整する。これにより、ユーザの個性及び既存のアイテムの組合せが反映されたデザイン画像情報を提示することができる。 According to the third embodiment, the parameters of the generative model are adjusted according to at least one of the user information and the user instruction. This makes it possible to present design image information that reflects the individuality of the user and the combination of existing items.

(3−4)変形例
第3実施形態の変形例について説明する。
(3-4) Modification Example A modification of the third embodiment will be described.

(3−4−1)変形例1
第3実施形態の変形例1について説明する。第3実施形態の変形例1は、ユーザ情報に応じてデザイン画像情報を補正する例である。
(3-4-1) Modification 1
A modification 1 of the third embodiment will be described. The first modification of the third embodiment is an example of correcting the design image information according to the user information.

(3−4−1−1)変形例1の概要
第3実施形態の変形例1の概要について説明する。図23は、第3実施形態の変形例1の概要の説明図である。
(3-4-1-1) Outline of Modified Example 1 An outline of Modified Example 1 of the third embodiment will be described. FIG. 23 is an explanatory diagram of an outline of the first modification of the third embodiment.

図23に示すように、サーバ30は、ユーザが指定した複数のカテゴリ(「CATEGORY1」及び「CATEGORY2」)の組合せに対応する生成モデルに、デザイン画像情報(CATEGORY1x2)を出力させる。
サーバ30は、デザイン画像情報(CATEGORY1x2)をユーザに提示した後、ユーザが指定した補正指示に基づいて、デザイン画像情報(CATEGORY1x2)を補正することにより、補正画像情報(CATEGORY1x2)を生成する。
サーバ30は、補正画像情報(CATEGORY1x2)をユーザに提示する。
As shown in FIG. 23, the server 30 causes the generation model corresponding to the combination of a plurality of categories (“CATEGORY1” and “CATEGORY2”) specified by the user to output the design image information (CATEGORY1x2).
After presenting the design image information (CATEGORY1x2) to the user, the server 30 corrects the design image information (CATEGORY1x2) based on the correction instruction specified by the user to generate the corrected image information (CATEGORY1x2).
The server 30 presents the corrected image information (CATEGORY1x2) to the user.

(3−4−1−2)デザイン画像生成処理
第3実施形態の変形例1のデザイン画像生成処理について説明する。図24は、第3実施形態の変形例1のデザイン画像生成処理のシーケンス図である。図25は、図24の情報処理において表示される画面の例を示す図である。図26は、図24の情報処理において表示される画面の例を示す図である。
(3-4-1-2) Design Image Generation Process The design image generation process of Modification 1 of the third embodiment will be described. FIG. 24 is a sequence diagram of the design image generation process of the first modification of the third embodiment. FIG. 25 is a diagram showing an example of a screen displayed in the information processing of FIG. 24. FIG. 26 is a diagram showing an example of a screen displayed in the information processing of FIG. 24.

図24に示すように、クライアント装置10は、図21と同様に、ステップS310〜S311を実行する。
ステップS311の後、サーバ30は、図21と同様に、ステップS330及びS131を実行する。
As shown in FIG. 24, the client device 10 executes steps S310 to S311 in the same manner as in FIG.
After step S311 the server 30 executes steps S330 and S131 as in FIG.

ステップS131の後、クライアント装置10は、デザイン画像の表示(S410)を実行する。
具体的には、プロセッサ12は、画面P40(図25)をディスプレイに表示する。
After step S131, the client device 10 executes the display of the design image (S410).
Specifically, the processor 12 displays the screen P40 (FIG. 25) on the display.

画面P40は、画像オブジェクトIMG110〜IMG113と、操作オブジェクトB200及びB400と、を備える。
操作オブジェクト400は、補正のユーザ指示を受け付けるオブジェクトである。
The screen P40 includes image objects IMG110 to IMG113, and operation objects B200 and B400.
The operation object 400 is an object that receives a user instruction for correction.

ユーザが画像オブジェクトIMG110と、操作オブジェクトB400と、を操作すると、プロセッサ12は、画面P41(図25)をディスプレイに表示する。 When the user operates the image object IMG110 and the operation object B400, the processor 12 displays the screen P41 (FIG. 25) on the display.

画面P41は、操作オブジェクトB410と、フィールドオブジェクトF410〜F412と、を含む。
フィールドオブジェクトF410は、画像オブジェクトIMG110〜IMG113の少なくとも1つ(例えば、ユーザが指定した画像オブジェクト)の形状を変更するためのユーザ指示を受け付けるオブジェクトである。一例として、ユーザは、「小さめ」又は「大きめ」のユーザ指示をフィールドオブジェクトF410に入力することができる。
フィールドオブジェクトF411は、画像オブジェクトIMG110〜IMG113の少なくとも1つ(例えば、ユーザが指定した画像オブジェクト)にパーツを追加するためのユーザ指示を受け付けるオブジェクトである。一例として、ユーザは、「ポケット」及び「ボタン」の少なくとも1つのユーザ指示をフィールドオブジェクトF411に入力することができる。
フィールドオブジェクトF412は、画像オブジェクトIMG110〜IMG113の少なくとも1つ(例えば、ユーザが指定した画像オブジェクト)にブランドイメージを反映させるためのユーザ指示を受け付けるオブジェクトである。一例として、ユーザは、「ロゴ」及び「パターン」の少なくとも1つのユーザ指示をフィールドオブジェクトF412に入力することができる。
操作オブジェクトB411は、フィールドオブジェクトF410〜F412に入力された内容を確定させるためのユーザ指示を受け付けるオブジェクトである。
The screen P41 includes the operation object B410 and the field objects F410 to F412.
The field object F410 is an object that receives a user instruction for changing the shape of at least one of the image objects IMG110 to IMG113 (for example, an image object specified by the user). As an example, the user can enter a "smaller" or "larger" user instruction into the field object F410.
The field object F411 is an object that receives a user instruction for adding a part to at least one of the image objects IMG110 to IMG113 (for example, an image object specified by the user). As an example, the user can enter at least one user instruction of a "pocket" and a "button" into the field object F411.
The field object F412 is an object that receives a user instruction for reflecting a brand image on at least one of the image objects IMG110 to IMG113 (for example, an image object specified by the user). As an example, the user can input at least one user instruction of "logo" and "pattern" into the field object F412.
The operation object B411 is an object that receives a user instruction for confirming the contents input to the field objects F410 to F412.

ステップS410の後、クライアント装置10は、補正リクエスト(S411)を実行する。
具体的には、プロセッサ12は、補正リクエストデータをサーバ30に送信する。補正リクエストデータは、フィールドオブジェクトF410〜F412に入力されたユーザ指示を含む。
After step S410, the client device 10 executes the correction request (S411).
Specifically, the processor 12 transmits the correction request data to the server 30. The correction request data includes user instructions input to the field objects F410 to F412.

ステップS411の後、サーバ30は、補正(S430)を実行する。 After step S411, the server 30 executes the correction (S430).

具体的には、記憶装置31には、フィールドオブジェクトF410〜F412が受付可能なユーザ指示の項目に対応する画像補正フィルタが記憶されている。
プロセッサ32は、記憶装置31に記憶された画像補正フィルタの中から、補正リクエストデータに含まれるユーザ指示(形状を変更するためのユーザ指示、アイテムを追加するためのユーザ指示、及び、ブランドイメージを反映するためのユーザ指示の少なくとも1つ)に対応する画像補正フィルタを選択する。一例として、ユーザサイズ情報が「細見」の場合、プロセッサ32は、デザイン画像情報を10%縮小する画像補正フィルタを選択する。ユーザサイズ情報が「ビッグシルエット」の場合、プロセッサ32は、デザイン画像情報を15%拡大する画像補正フィルタを選択する。
プロセッサ32は、選択された画像補正フィルタを、ステップS330で生成されたデザイン画像情報に適用することにより、補正画像情報を生成する。
Specifically, the storage device 31 stores an image correction filter corresponding to a user-instructed item that can be accepted by the field objects F410 to F412.
From the image correction filter stored in the storage device 31, the processor 32 outputs a user instruction (user instruction for changing the shape, a user instruction for adding an item, and a brand image) included in the correction request data. Select an image correction filter that corresponds to at least one of the user instructions to reflect). As an example, when the user size information is "detailed", the processor 32 selects an image correction filter that reduces the design image information by 10%. When the user size information is "big silhouette", the processor 32 selects an image correction filter that enlarges the design image information by 15%.
The processor 32 generates the corrected image information by applying the selected image correction filter to the design image information generated in step S330.

ステップS430の後、サーバ30は、補正レスポンス(S431)を実行する。
具体的には、プロセッサ32は、補正レスポンスデータをクライアント装置10に送信する。補正レスポンスデータは、ステップS4302で生成された補正画像情報を含む。
After step S430, the server 30 executes the correction response (S431).
Specifically, the processor 32 transmits the correction response data to the client device 10. The correction response data includes the correction image information generated in step S4302.

ステップS431の後、クライアント装置10は、補正画像の表示(S412)を実行する。
具体的には、プロセッサ12は、画面P41(図26)をディスプレイに表示する。
After step S431, the client device 10 executes the display of the corrected image (S412).
Specifically, the processor 12 displays the screen P41 (FIG. 26) on the display.

画面P41は、画像オブジェクトIMG420〜IMG423を含む。
画像オブジェクトIMG420〜IMG423は、補正レスポンスデータに含まれる補正画像情報に対応するオブジェクトである。
The screen P41 includes image objects IMG420 to IMG423.
The image objects IMG420 to IMG423 are objects corresponding to the corrected image information included in the correction response data.

第3実施形態の変形例1によれば、ユーザの指示に応じてデザイン画像情報を補正する。これにより、デザイン画像情報に、ユーザの好みを反映させることができる。 According to the first modification of the third embodiment, the design image information is corrected according to the instruction of the user. As a result, the user's preference can be reflected in the design image information.

(3−4−2)変形例2
第3実施形態の変形例2について説明する。変形例2は、測定デバイスによって測定されたユーザサイズ情報に基づいて、デザイン画像情報を補正する例である。
(3-4-2) Modification 2
A modification 2 of the third embodiment will be described. The second modification is an example of correcting the design image information based on the user size information measured by the measuring device.

(3−4−2−1)変形例2の概要
第3実施形態の変形例2の概要について説明する。図27は、第3実施形態の変形例2の概要の説明図である。
(3-4-2-1) Outline of Modified Example 2 An outline of Modified Example 2 of the third embodiment will be described. FIG. 27 is an explanatory diagram of an outline of a modification 2 of the third embodiment.

図27に示すように、サーバ30は、ユーザが指定した複数のカテゴリ(「CATEGORY1」及び「CATEGORY2」)の組合せに対応する生成モデルに、デザイン画像情報(CATEGORY1x2)を出力させる。
デザイン画像情報(CATEGORY1x2)がユーザに提示された後、ユーザは、測定装置を用いて、自身の身体の各部位のサイズを測定する。
サーバ30は、測定装置によって測定されたサイズに関するユーザサイズ情報に基づいて、デザイン画像情報(CATEGORY1x2)を補正することにより、補正画像情報(CATEGORY1x2)を生成する。
サーバ30は、補正画像情報(CATEGORY1x2)をユーザに提示する。
As shown in FIG. 27, the server 30 causes the generation model corresponding to the combination of a plurality of categories (“CATEGORY1” and “CATEGORY2”) specified by the user to output the design image information (CATEGORY1x2).
After the design image information (CATEGORY1x2) is presented to the user, the user measures the size of each part of his / her body using a measuring device.
The server 30 generates the corrected image information (CATEGORY1x2) by correcting the design image information (CATEGORY1x2) based on the user size information regarding the size measured by the measuring device.
The server 30 presents the corrected image information (CATEGORY1x2) to the user.

(3−4−2−2)デザイン画像生成処理
第3実施形態の変形例2のデザイン画像生成処理について説明する。
(3-4-2-2) Design image generation process The design image generation process of Modification 2 of the third embodiment will be described.

図24のステップS430の第1例では、プロセッサ32は、ユーザ情報データベース(図18)を参照して、デザインリクエストデータに含まれるユーザIDに関連付けられたユーザサイズ情報(測定装置による測定結果に関するユーザサイズ情報)を特定する。
ステップS430の第2例では、プロセッサ32は、測定装置による測定結果に関するユーザサイズ情報を測定装置又はクライアント装置10から取得する。プロセッサ32は、当該測定結果を、ユーザサイズ情報として特定する。
In the first example of step S430 of FIG. 24, the processor 32 refers to the user information database (FIG. 18) and refers to the user size information (user regarding the measurement result by the measuring device) associated with the user ID included in the design request data. Size information) is specified.
In the second example of step S430, the processor 32 acquires the user size information regarding the measurement result by the measuring device from the measuring device or the client device 10. The processor 32 specifies the measurement result as user size information.

プロセッサ32は、記憶装置31に記憶された画像補正フィルタの中から、特定したユーザサイズ情報に対応する画像補正フィルタを選択する。より具体的には、ユーザサイズ情報が測定結果に関する情報の場合、プロセッサ32は、ユーザの身体の各部位のサイズに応じて、デザイン画像情報の各部位を補正する。 The processor 32 selects an image correction filter corresponding to the specified user size information from the image correction filters stored in the storage device 31. More specifically, when the user size information is information related to the measurement result, the processor 32 corrects each part of the design image information according to the size of each part of the user's body.

プロセッサ32は、選択された画像補正フィルタを、ステップS330で生成されたデザイン画像情報に適用することにより、補正画像情報を生成する。 The processor 32 generates the corrected image information by applying the selected image correction filter to the design image information generated in step S330.

第3実施形態の変形例2によれば、ユーザサイズ情報(例えば、測定デバイスによって測定された測定結果に関する情報)に基づいて、デザイン画像情報を補正する。これにより、ユーザの身体に合ったデザイン画像情報をユーザに提示することができる。 According to the second modification of the third embodiment, the design image information is corrected based on the user size information (for example, information on the measurement result measured by the measuring device). Thereby, the design image information suitable for the user's body can be presented to the user.

(3−4−3)変形例3
第3実施形態の変形例3について説明する。第3実施形態の変形例3は、補正モデルを用いて、デザイン画像情報を補正する例である。
(3-4-3) Modification 3
A modified example 3 of the third embodiment will be described. Modification 3 of the third embodiment is an example of correcting design image information by using a correction model.

(3−4−3−1)変形例3の概要
第3実施形態の変形例3の概要について説明する。図28は、第3実施形態の変形例3の概要の説明図である。
(3-4-3-1) Outline of Modified Example 3 An outline of Modified Example 3 of the third embodiment will be described. FIG. 28 is an explanatory diagram of an outline of a modification 3 of the third embodiment.

図28に示すように、サーバ30は、ユーザが指定した複数のカテゴリ(「CATEGORY1」及び「CATEGORY2」)の組合せに対応する生成モデルに、デザイン画像情報(CATEGORY1x2)を出力させる。
サーバ30は、デザイン画像情報(CATEGORY1x2)をユーザに提示した後、ユーザが指定した補正指示に基づいて、デザイン画像情報(CATEGORY1x2)を補正モデルに入力する。補正モデルは、補正画像情報(CATEGORY1x2)を出力する。
サーバ30は、補正画像情報(CATEGORY1x2)をユーザに提示する。
As shown in FIG. 28, the server 30 causes the generation model corresponding to the combination of a plurality of categories (“CATEGORY1” and “CATEGORY2”) specified by the user to output the design image information (CATEGORY1x2).
After presenting the design image information (CATEGORY1x2) to the user, the server 30 inputs the design image information (CATEGORY1x2) to the correction model based on the correction instruction specified by the user. The correction model outputs corrected image information (CATEGORY1x2).
The server 30 presents the corrected image information (CATEGORY1x2) to the user.

(3−4−3−2)デザイン画像生成処理
第3実施形態の変形例3のデザイン画像生成処理について説明する。
(3-4-3-2) Design Image Generation Process The design image generation process of Modification 3 of the third embodiment will be described.

サーバ30には、学習済の補正モデルが記憶されている。補正モデルは、複数のアイテム画像情報と、各アイテム画像情報に関連付けれた特徴情報と、画像処理フィルタと、を用いた深層学習により学習されている。補正モデルは、例えば、GAN又はDCGANである。 The learned correction model is stored in the server 30. The correction model is learned by deep learning using a plurality of item image information, feature information associated with each item image information, and an image processing filter. The correction model is, for example, GAN or DCGAN.

図24のステップS430において、サーバ30は、記憶装置31に記憶された補正モデルを用いて、デザイン画像情報を補正する。
具体的には、プロセッサ32は、ステップS430で選択した画像補正フィルタと、ステップS330で生成したデザイン画像情報と、を補正モデルに入力する。これにより、補正モデルから、補正リクエストデータに含まれるユーザ指示に応じた補正画像情報が出力される。
In step S430 of FIG. 24, the server 30 corrects the design image information by using the correction model stored in the storage device 31.
Specifically, the processor 32 inputs the image correction filter selected in step S430 and the design image information generated in step S330 into the correction model. As a result, the correction model outputs the correction image information according to the user instruction included in the correction request data.

第3実施形態の変形例3によれば、補正モデルが補正画像情報を出力する。これにより、より高精度に補正されたデザイン画像情報をユーザに提示することができる。 According to the third modification of the third embodiment, the correction model outputs the correction image information. As a result, the design image information corrected with higher accuracy can be presented to the user.

(4)第4実施形態
第4実施形態について説明する。第4実施形態は、ネットワーク上に保存されたアイテム画像情報に基づいてデザイン画像情報を生成する例である。
(4) Fourth Embodiment The fourth embodiment will be described. The fourth embodiment is an example of generating design image information based on item image information stored on the network.

(4−1)第4実施形態の概要
第4実施形態の概要について説明する。図29は、第4実施形態の概要の説明図である。
(4-1) Outline of Fourth Embodiment An outline of the fourth embodiment will be described. FIG. 29 is an explanatory diagram of an outline of the fourth embodiment.

図29のサーバ30には、複数のアイテム画像情報が記憶されている。
サーバ30は、ユーザ情報と、ユーザサイズ情報と、を取得する。
サーバ30は、複数のアイテム画像情報の中からユーザ情報と、ユーザサイズ情報と、に基づいて、ユーザに対して推奨されるレコメンドアイテムの画像情報(以下「レコメンド画像情報」という)を提示する。例えば、トップスのレコメンド画像情報(CATEGORY1)と、ボトムスのレコメンド画像情報(CATEGORY2)と、が提示される。
サーバ30は、所望のカテゴリ(CATEGORY1)に関するユーザ指示を取得する。
サーバ30は、ユーザ指示に対応するカテゴリ(CATEGORY1)に基づいて、生成モデル(CATEGORY1x2)のパラメータを調整する。
パラメータが調整された生成モデル(CATEGORY1x2)は、ユーザ指示に対応するカテゴリ(CATEGORy1)に対応するデザイン画像情報(CATEGORY1x2)を出力する。
サーバ30は、クライアント装置10を介して、生成モデル(CATEGORY1x2)から出力されたデザイン画像情報(CATEGORY1x2)をユーザに提示する。
A plurality of item image information is stored in the server 30 of FIG. 29.
The server 30 acquires the user information and the user size information.
The server 30 presents the image information of the recommended item recommended to the user (hereinafter referred to as "recommended image information") based on the user information and the user size information from the plurality of item image information. For example, tops recommended image information (CATEGORY1) and bottoms recommended image information (CATEGORY2) are presented.
The server 30 acquires a user instruction regarding a desired category (CATEGORY1).
The server 30 adjusts the parameters of the generative model (CATEGORY1x2) based on the category (CATEGORY1) corresponding to the user instruction.
The parameter-adjusted generative model (CATEGORY1x2) outputs design image information (CATEGORY1x2) corresponding to the category (CATEGORY1) corresponding to the user instruction.
The server 30 presents the design image information (CATEGORY1x2) output from the generation model (CATEGORY1x2) to the user via the client device 10.

(4−2)デザイン画像生成処理
第4実施形態のデザイン画像生成処理について説明する。図30は、第4実施形態のデザイン画像生成処理のシーケンス図である。図31は、図30の情報処理において表示される画面の例を示す図である。図32は、図30のデザイン画像の生成の詳細なフローチャートである。
(4-2) Design image generation process The design image generation process of the fourth embodiment will be described. FIG. 30 is a sequence diagram of the design image generation process of the fourth embodiment. FIG. 31 is a diagram showing an example of a screen displayed in the information processing of FIG. 30. FIG. 32 is a detailed flowchart of the generation of the design image of FIG.

図30に示すように、クライアント装置10は、ユーザ指示の受付(S510)を実行する。
具体的には、プロセッサ12は、画面P50(図31)をディスプレイに表示する。
As shown in FIG. 30, the client device 10 executes the reception of the user instruction (S510).
Specifically, the processor 12 displays the screen P50 (FIG. 31) on the display.

画面P50は、操作オブジェクトB500と、フィールドオブジェクトF500と、を含む。
フィールドオブジェクトF500は、ユーザIDを指定するためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB500は、フィールドオブジェクトF500への入力を確定させるためのユーザ指示を受け付けるオブジェクトである。
The screen P50 includes an operation object B500 and a field object F500.
The field object F500 is an object that receives a user instruction for designating a user ID.
The operation object B500 is an object that receives a user instruction for confirming the input to the field object F500.

ステップS510の後、クライアント装置10は、レコメンドリクエスト(S511)を実行する。
具体的には、ユーザがフィールドオブジェクトF500にユーザ指示を入力し、且つ、操作オブジェクトB500を操作すると、プロセッサ12は、レコメンドリクエストデータをサーバ30に送信する。レコメンドリクエストデータは、フィールドオブジェクトF500で指定されたユーザIDを含む。
After step S510, the client device 10 executes the recommendation request (S511).
Specifically, when the user inputs a user instruction to the field object F500 and operates the operation object B500, the processor 12 transmits the recommendation request data to the server 30. The recommendation request data includes the user ID specified by the field object F500.

ステップS511の後、サーバ30は、レコメンドアイテムの特定(S530)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(図18)を参照して、レコメンドリクエストデータに含まれるユーザIDに関連付けられたユーザ情報を特定する。
After step S511, the server 30 executes the identification of the recommended item (S530).
Specifically, the processor 32 refers to the user information database (FIG. 18) and identifies the user information associated with the user ID included in the recommendation request data.

プロセッサ32は、アイテム画像情報データベース(図4)及び特徴情報データベース(図14)を参照して、特定したユーザ情報に基づくレコメンドアイテムのアイテムIDを特定する。
一例として、記憶装置31には、複数のアイテムの好ましい組合せが定義されたコーディネートモデルが記憶されている。プロセッサ32は、レコメンドリクエストデータに含まれるユーザIDに関連付けられた「購入履歴」フィールドの情報を参照して、ユーザが所有する所有アイテムのアイテムIDを特定する。プロセッサ32は、所有アイテムのアイテムIDに関連付けられたカテゴリ情報及び特徴情報をコーディネートモデルに入力する。コーディネートモデルは、アイテム情報データベースに記憶されたアイテムIDの中から、所有アイテムとの組合せが好ましいレコメンドアイテムのアイテムIDを出力する。
The processor 32 identifies the item ID of the recommended item based on the specified user information with reference to the item image information database (FIG. 4) and the feature information database (FIG. 14).
As an example, the storage device 31 stores a coordination model in which a preferable combination of a plurality of items is defined. The processor 32 identifies the item ID of the owned item owned by the user by referring to the information in the "purchase history" field associated with the user ID included in the recommendation request data. The processor 32 inputs the category information and the feature information associated with the item ID of the owned item into the coordination model. The coordination model outputs the item ID of the recommended item, which is preferably combined with the owned item, from the item IDs stored in the item information database.

ステップS530の後、サーバ30は、レコメンドレスポンス(S531)を実行する。
具体的には、プロセッサ32は、レコメンドレスポンスデータをクライアント装置10に送信する。レコメンドレスポンスデータは、以下の情報を含む。
・ステップS530で特定されたアイテムID
・当該アイテムIDに関連付けられたアイテム画像情報(つまり、レコメンドアイテムのレコメンド画像情報)
After step S530, the server 30 executes the recommendation response (S531).
Specifically, the processor 32 transmits the recommendation response data to the client device 10. The recommendation response data includes the following information.
-Item ID specified in step S530
-Item image information associated with the item ID (that is, recommended image information of the recommended item)

ステップS531の後、クライアント装置10は、レコメンド画像の表示(S512)を実行する。
具体的には、プロセッサ12は、画面P51をディスプレイに表示する。
After step S531, the client device 10 executes the display of the recommended image (S512).
Specifically, the processor 12 displays the screen P51 on the display.

画面P51は、画像オブジェクトIMG510〜IMG513と、操作オブジェクトB510と、フィールドオブジェクトF510と、を含む。画像オブジェクトIMG510〜IMG513には、レコメンドアイテムのアイテムIDが割り当てられる。
画像オブジェクトIMG510は、カテゴリ「CATEGORY1」(例えば、タイプ「TOPS」)に対応するレコメンドアイテムのレコメンド画像情報である。
画像オブジェクトIMG511は、カテゴリ「CATEGORY2」(例えば、タイプ「BOTOMS」)に対応するレコメンドアイテムのレコメンド画像情報である。
画像オブジェクトIMG512は、カテゴリ「CATEGORY3」(例えば、タイプ「SHOES」)に対応するレコメンドアイテムのレコメンド画像情報である。
画像オブジェクトIMG513は、カテゴリ「CATEGORY4」(例えば、タイプ「WATCH」)に対応するレコメンドアイテムのレコメンド画像情報である。
フィールドオブジェクトF510は、所望のアイテムのタイプを指定するためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB510は、画像オブジェクトIMG510〜IMG513に対する操作、及び、フィールドオブジェクトF510への入力を確定させるためのオブジェクトである。
The screen P51 includes image objects IMG510 to IMG513, operation objects B510, and field objects F510. Item IDs of recommended items are assigned to the image objects IMG510 to IMG513.
The image object IMG510 is the recommended image information of the recommended item corresponding to the category “CATEGORY1” (for example, the type “TOPS”).
The image object IMG511 is the recommended image information of the recommended item corresponding to the category “CATEGORY2” (for example, the type “BOTOMS”).
The image object IMG512 is the recommended image information of the recommended item corresponding to the category “CATEGORY3” (for example, the type “SHOES”).
The image object IMG513 is the recommended image information of the recommended item corresponding to the category “CATEGORY4” (for example, the type “WATCH”).
The field object F510 is an object that receives a user instruction for designating a desired item type.
The operation object B510 is an object for confirming the operation on the image objects IMG510 to IMG513 and the input to the field object F510.

ステップS512の後、クライアント装置10は、デザインリクエスト(S513)を実行する。
具体的には、ユーザが画像オブジェクトIMG510〜IMG513の少なくとも2つを指定し、フィールドオブジェクトF510に所望のタイプを指定し、且つ、操作オブジェクトB510を操作すると、プロセッサ12は、デザインリクエストデータをサーバ30に送信する。デザインリクエストデータは、以下の情報を含む。
・ユーザによって指定された画像オブジェクトIMG510〜IMG513に割り当てられたアイテムID
・フィールドオブジェクトF510で指定されたユーザ指示(つまり、所望のタイプ)
After step S512, the client device 10 executes the design request (S513).
Specifically, when the user specifies at least two image objects IMG510 to IMG513, specifies a desired type for the field object F510, and operates the operation object B510, the processor 12 transmits the design request data to the server 30. Send to. The design request data includes the following information.
-Item ID assigned to the image objects IMG510 to IMG513 specified by the user.
-User instruction specified by field object F510 (that is, desired type)

ステップS513の後、サーバ30は、デザイン画像の生成(S530)を実行する。 After step S513, the server 30 executes the generation of the design image (S530).

図32に示すように、サーバ30は、生成モデルの選択(S5300)を実行する。
具体的には、プロセッサ32は、アイテム情報データベース(図4)を参照して、デザインリクエストデータに含まれるアイテムIDに関連付けられた「カテゴリ」フィールドの情報(例えば、「ブランド」フィールドの情報)を特定する。
プロセッサ32は、モデル情報データベース(図19)を参照して、特定したカテゴリフィールドの情報に関連付けられた「モデルID」フィールドの情報(つまり、モデルID)を特定する。特定されたモデルIDは、選択された生成モデルを識別する。
As shown in FIG. 32, the server 30 executes the selection of the generation model (S5300).
Specifically, the processor 32 refers to the item information database (FIG. 4) to obtain information in the "category" field (for example, information in the "brand" field) associated with the item ID included in the design request data. Identify.
The processor 32 refers to the model information database (FIG. 19) to identify the information in the "model ID" field (ie, the model ID) associated with the information in the identified category field. The identified model ID identifies the selected generative model.

ステップS5300の後、サーバ30は、パラメータの調整(S5301)を実行する。
具体的には、プロセッサ32は、デザインリクエストデータに含まれる所望のタイプに基づいて、ステップS5300で選択した生成モデルのパラメータを調整する。これにより、生成モデルから、所望のタイプのデザイン画像情報が生成される確率が上昇する。
After step S5300, the server 30 executes parameter adjustment (S5301).
Specifically, the processor 32 adjusts the parameters of the generative model selected in step S5300 based on the desired type contained in the design request data. This increases the probability that the generative model will generate the desired type of design image information.

ステップS5301の後、サーバ30は、図22と同様に、ステップS3302を実行する。 After step S5301, the server 30 executes step S3302 in the same manner as in FIG. 22.

ステップS530の後、サーバ30は、図6と同様に、ステップS131を実行する。
ステップS131の後、クライアント装置10は、図10と同様に、ステップS210を実行する。
After step S530, the server 30 executes step S131 in the same manner as in FIG.
After step S131, the client device 10 executes step S210 in the same manner as in FIG.

第4実施形態によれば、ユーザに対して提示されたレコメンドアイテムのレコメンド画像情報に基づいて、ユーザの所望のタイプのデザイン画像情報を提示する。これにより、ユーザに推奨されるレコメンドアイテムの個性を残しつつも斬新なデザインを提供することができる。 According to the fourth embodiment, the design image information of the desired type of the user is presented based on the recommended image information of the recommended item presented to the user. As a result, it is possible to provide a novel design while retaining the individuality of the recommended item recommended by the user.

(5)その他の変形例
その他の変形例について説明する。
(5) Other Modification Examples Other modification examples will be described.

記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

本実施形態では、クライアント装置10及びサーバ30の組合せにより情報処理を実現する例を示したが、上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れか、又は、ネットワーク上の複数の装置による分散環境でも実現可能である。このように、本実施形態は、例えば、サーバ30によって実現されるウェブサービス又はクライアント装置10にインストールされたプログラムのように、様々な形態に適用することができる。 In the present embodiment, an example in which information processing is realized by a combination of the client device 10 and the server 30 is shown, but each step of the above information processing is one of the client device 10 and the server 30, or a plurality of steps on the network. It can also be realized in a distributed environment with the above equipment. As described above, the present embodiment can be applied to various forms such as a web service realized by the server 30 or a program installed in the client device 10.

本実施形態では、通信インタフェース14及び34は、インターネットプロトコルを用いた通信だけでなく、有線又は無線によるバス接続、USB(登録商標)、又は、Bluetooth(登録商標)による通信をサポートしても良い。 In the present embodiment, the communication interfaces 14 and 34 may support not only communication using the Internet protocol but also communication by a wired or wireless bus connection, USB (registered trademark), or Bluetooth (registered trademark). ..

本実施形態では、アイテムがファッションアイテムである例を示した。しかし、本実施形態の「アイテム」はファッションアイテム以外のアイテムでも良い。つまり、本実施形態の「カテゴリ」は、ファッションブランドに限られない。ファッションアイテム以外のアイテムは、例えば、以下の少なくとも1つを含む。
・プロダクト(一例として、電子機器、又は、スポーツ用具)
・プロダクトパッケージ(一例として、プロダクトの包装、又は、容器)
In this embodiment, an example in which the item is a fashion item is shown. However, the "item" of this embodiment may be an item other than a fashion item. That is, the "category" of this embodiment is not limited to fashion brands. Items other than fashion items include, for example, at least one of the following.
・ Products (for example, electronic devices or sports equipment)
・ Product packaging (for example, product packaging or container)

本実施形態では、2つのカテゴリの組合せに対応するデザイン画像情報を提示する例を説明した。しかし、本実施形態はこれに限られない。本実施形態は、3つ以上のカテゴリの組合せに対応するデザイン画像情報を提示する場合にも適用可能である。 In this embodiment, an example of presenting design image information corresponding to a combination of two categories has been described. However, this embodiment is not limited to this. This embodiment is also applicable to the case of presenting design image information corresponding to a combination of three or more categories.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be improved or modified in various ways without departing from the spirit of the present invention. Moreover, the above-described embodiment and modification can be combined.

1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
1: Information processing system 10: Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 30: Server 31: Storage device 32: Processor 33: Input / output interface 34: Communication interface

Claims (10)

複数のカテゴリの組合せに対応する生成モデルを用いて前記組合せに対応するデザイン画像情報を生成する手段を備え、
前記生成モデルを用いて生成されたデザイン画像情報を記憶する手段を備え、
ユーザから複数のカテゴリの指定を受け付ける手段を備え、
前記記憶する手段によって記憶された複数のデザイン画像情報の中から、前記ユーザによって指定された複数のカテゴリの組合せに対応するデザイン画像情報を提示する手段を備える、
情報処理装置。
A means for generating design image information corresponding to the combination using a generation model corresponding to a combination of a plurality of categories is provided.
A means for storing the design image information generated by using the generative model is provided.
It has a means to accept the specification of multiple categories from the user.
A means for presenting design image information corresponding to a combination of a plurality of categories specified by the user from a plurality of design image information stored by the storage means is provided.
Information processing device.
前記提示する手段は、前記複数のデザイン画像情報の中から、前記ユーザによって指定された複数のカテゴリの組合せ及び前記ユーザの属性に関するユーザ属性情報に対応するデザイン画像情報を提示する、
請求項1に記載の情報処理装置。
The presenting means presents design image information corresponding to a combination of a plurality of categories designated by the user and user attribute information relating to the user's attributes from the plurality of design image information.
The information processing device according to claim 1.
ユーザから複数のカテゴリの指定を受け付ける手段を備え、
前記ユーザによって指定された複数のカテゴリのそれぞれに対応するアイテム画像情報を用いて、前記複数のカテゴリの組合せに対応する生成モデルを構築する手段を備え、
前記生成モデルを用いて、前記複数のカテゴリの組合せに対応する複数のデザイン画像情報を生成する手段を備え、
前記生成された複数のデザイン画像情報のうち少なくとも1つを提示する手段を備える、
情報処理装置。
It has a means to accept the specification of multiple categories from the user.
A means for constructing a generation model corresponding to a combination of the plurality of categories by using the item image information corresponding to each of the plurality of categories specified by the user is provided.
A means for generating a plurality of design image information corresponding to a combination of the plurality of categories by using the generation model is provided.
A means for presenting at least one of the plurality of generated design image information is provided.
Information processing device.
各アイテムのアイテム画像情報と、各アイテムの特徴に関する特徴情報と、を関連付けて記憶する手段を備え、
前記生成する手段は、複数のカテゴリのアイテム画像情報と、各アイテム画像情報に関連付けられた特徴情報と、を用いて、前記生成モデルを構築する、
請求項3に記載の情報処理装置。
It is provided with a means for associating and storing the item image information of each item and the feature information regarding the characteristics of each item.
The generation means constructs the generation model by using the item image information of a plurality of categories and the feature information associated with each item image information.
The information processing device according to claim 3.
前記特徴情報は、アイテムの対象性別、利用シーン、サイズ、色、テイスト、及び、シルエットの少なくとも1つに関する情報である、
請求項4に記載の情報処理装置。
The feature information is information on at least one of the target gender, usage scene, size, color, taste, and silhouette of the item.
The information processing device according to claim 4.
前記ユーザのユーザ指示に基づいて、前記生成モデルのパラメータを調整する手段を備える、
請求項4又は5に記載の情報処理装置。
A means for adjusting the parameters of the generative model based on the user instruction of the user.
The information processing device according to claim 4 or 5.
前記ユーザに関するユーザ情報に基づいて、前記生成モデルのパラメータを調整する手段を備え、
前記ユーザ情報は、前記ユーザの属性に関するユーザ属性情報、前記ユーザの嗜好に関するユーザ嗜好情報、ユーザが購入したアイテムの履歴に関する購入履歴情報、及び、ユーザのユーザ画像情報の少なくとも1つを含む、
請求項4〜6の何れかに記載の情報処理装置。
A means for adjusting the parameters of the generative model based on the user information about the user.
The user information includes at least one of user attribute information regarding the user's attributes, user preference information regarding the user's preference, purchase history information regarding the history of items purchased by the user, and user image information of the user.
The information processing device according to any one of claims 4 to 6.
前記デザイン画像情報を提示した後に、前記ユーザから補正指示を受け付ける手段を備え、
前記補正指示に基づいて前記デザイン画像情報を補正することにより、補正画像情報を生成する手段を備え、
前記提示する手段は、前記生成された補正画像情報を提示する、
請求項3〜7の何れかに記載の情報処理装置。
After presenting the design image information, a means for receiving a correction instruction from the user is provided.
A means for generating corrected image information by correcting the design image information based on the correction instruction is provided.
The presenting means presents the generated corrected image information.
The information processing device according to any one of claims 3 to 7.
前記カテゴリは、アイテムのブランドに関するブランド情報である、
請求項1〜8の何れかに記載の情報処理装置。
The category is brand information about the brand of the item.
The information processing device according to any one of claims 1 to 8.
コンピュータを、請求項1〜9の何れかに記載の各手段として機能させるためのプログラム。 A program for operating a computer as each means according to any one of claims 1 to 9.
JP2020541250A 2018-09-04 2019-09-03 Information processing equipment and programs Active JP6914569B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021112642A JP2021170363A (en) 2018-09-04 2021-07-07 Information processing device and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018165086 2018-09-04
JP2018165086 2018-09-04
PCT/JP2019/034671 WO2020050287A1 (en) 2018-09-04 2019-09-03 Information processing device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021112642A Division JP2021170363A (en) 2018-09-04 2021-07-07 Information processing device and program

Publications (2)

Publication Number Publication Date
JP6914569B2 true JP6914569B2 (en) 2021-08-04
JPWO2020050287A1 JPWO2020050287A1 (en) 2021-08-30

Family

ID=69722361

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020541250A Active JP6914569B2 (en) 2018-09-04 2019-09-03 Information processing equipment and programs
JP2021112642A Pending JP2021170363A (en) 2018-09-04 2021-07-07 Information processing device and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021112642A Pending JP2021170363A (en) 2018-09-04 2021-07-07 Information processing device and program

Country Status (2)

Country Link
JP (2) JP6914569B2 (en)
WO (1) WO2020050287A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331694A (en) * 2000-05-18 2001-11-30 Toray Syst Center:Kk Device and method for displaying wearing state and recording medium
JP2013196553A (en) * 2012-03-22 2013-09-30 Dainippon Printing Co Ltd Clothing management and recommendation device
JP7015514B2 (en) * 2016-09-06 2022-02-03 公紀 岩中 Virtual clothing output system and virtual clothing output method
JP6356774B2 (en) * 2016-12-20 2018-07-11 ヤフー株式会社 Selection device, selection method, and selection program

Also Published As

Publication number Publication date
JP2021170363A (en) 2021-10-28
JPWO2020050287A1 (en) 2021-08-30
WO2020050287A1 (en) 2020-03-12

Similar Documents

Publication Publication Date Title
US11599937B2 (en) Digital wardrobe
JP5605885B1 (en) Virtual try-on system and virtual try-on program
US20160180447A1 (en) Virtual shopping
US20150134495A1 (en) Omni-channel simulated digital apparel content display
JP6242768B2 (en) Virtual try-on device, virtual try-on method, and program
JP6338966B2 (en) Virtual try-on device, virtual try-on system, virtual try-on method, and program
JP6320237B2 (en) Virtual try-on device, virtual try-on method, and program
KR20160145732A (en) Fashion preference analysis
JP6215232B2 (en) Body part measurement
JP2016038811A (en) Virtual try-on apparatus, virtual try-on method and program
JP2018106736A (en) Virtual try-on apparatus, virtual try-on method and program
KR20220124361A (en) Artificial intelligence-based styling recommendation system for body parts and situations
US10217154B2 (en) Clothing measurement prediction system and method
JP2016024742A (en) Three-dimensional shape simulating system, try-on simulation system, sales support system, three-dimensional shape simulating method, try-on simulation method, sales support method, program of three-dimensional shape simulating method, try-on simulation method or sales support method, and recording medium recording the program
JP6914569B2 (en) Information processing equipment and programs
KR20240090299A (en) Systems and methods for automating clothing transactions
KR20220044715A (en) Method, apparatus and computer program for fashion item recommendation
JP2018113060A (en) Virtual try-on apparatus, virtual try-on system, virtual try-on method and program
US11282132B2 (en) Frameworks and methodologies configured to enable generation and utilisation of three-dimensional body scan data
JP7224315B2 (en) Information processing device, information processing method, and information processing program
JP2008052498A (en) Selling support system, selling support method, and selling support program
JP2012083904A (en) Server device, information processing method, information processing program and recording medium
KR20180079222A (en) Formatted data providing system for formating unformatted datat and method for using and applying thereof
JP7137450B2 (en) server and program
JP2015026186A (en) Method for creating three-dimensional computer graphics model and its image, system therefor, and virtual try-on method

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A801

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210318

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210318

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20210329

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R150 Certificate of patent or registration of utility model

Ref document number: 6914569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250