JP7553662B1 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7553662B1
JP7553662B1 JP2023115376A JP2023115376A JP7553662B1 JP 7553662 B1 JP7553662 B1 JP 7553662B1 JP 2023115376 A JP2023115376 A JP 2023115376A JP 2023115376 A JP2023115376 A JP 2023115376A JP 7553662 B1 JP7553662 B1 JP 7553662B1
Authority
JP
Japan
Prior art keywords
information
image
user
evaluator
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023115376A
Other languages
Japanese (ja)
Inventor
優伎 平川
侑輝 斎藤
良太郎 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zozo Inc
Original Assignee
Zozo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zozo Inc filed Critical Zozo Inc
Priority to JP2023115376A priority Critical patent/JP7553662B1/en
Application granted granted Critical
Publication of JP7553662B1 publication Critical patent/JP7553662B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】所定の被服に似合う身体的な特徴を利用者が把握する。【解決手段】本願に係る情報処理装置は、被服の画像に対する評価であって、当該被服が似合うか否かを示す複数の評価者からの評価に基づいて生成される分散表現空間であって、当該画像と、対象者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する推定部と、前記推定部により推定された身体的な特徴に関する情報を利用者に提供する提供部とを有することを特徴とする。【選択図】図15[Problem] A user grasps physical features that go well with a given piece of clothing. [Solution] The information processing device according to the present application is characterized by having an estimation unit that estimates physical features that go well with a given piece of clothing based on a distributed representation space that is generated based on evaluations of an image of clothing from a plurality of evaluators indicating whether the clothing looks good on the user, and a provision unit that provides a user with information on the physical features estimated by the estimation unit, based on the distributed representation space onto which the image and physical information indicating the physical features of the subject are projected. [Selected Figure] Figure 15

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

従来、入力された情報の分散表現を生成し、生成した分散表現同士の比較結果に基づいて、情報の関係性を判定する技術が知られている。このような技術の一例として、商品が備える特徴を表わす商品情報と、単語間の関係性を表す単語情報と、ユーザの嗜好に応じて行動の対象になった商品を表わす学習データとに基づいて、マップ空間上の位置を表わす隠れ特徴ベクトルを、ユーザおよび商品のそれぞれについて推定する技術が提供されている。 Conventionally, there is known a technique for generating distributed representations of input information and determining the relationship between information based on the results of comparing the generated distributed representations. One example of such a technique is a technique for estimating hidden feature vectors representing positions in map space for each user and product, based on product information representing the characteristics of the product, word information representing the relationships between words, and learning data representing products that have been the subject of actions based on the user's preferences.

国際公開第2021/044460号International Publication No. 2021/044460

しかしながら、上述した技術では、所定の被服に似合う身体的な特徴を利用者が把握することができるとは限らない。 However, the above-mentioned technology does not necessarily enable users to understand the physical characteristics that suit a particular outfit.

例えば、上述した技術では、ユーザの隠れ特徴ベクトルと商品の隠れ特徴ベクトルとの距離が、当該商品に対するユーザの嗜好を反映した距離となるように隠れ特徴ベクトルを推定しているに過ぎず、所定の被服に似合う身体的な特徴を利用者が把握することができるとは限らない。 For example, the above-mentioned technology merely estimates the hidden feature vector so that the distance between the user's hidden feature vector and the product's hidden feature vector reflects the user's preferences for the product, and does not necessarily enable the user to grasp the physical features that go well with a given piece of clothing.

本願は、上記に鑑みてなされたものであって、所定の被服に似合う身体的な特徴を利用者が把握することを目的とする。 This application was made in consideration of the above, and aims to enable users to understand the physical characteristics that suit a given piece of clothing.

本願に係る情報処理装置は、被服の画像に対する評価であって、当該被服が似合うか否かを示す複数の評価者からの評価に基づいて生成される分散表現空間であって、当該画像と、対象者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する推定部と、前記推定部により推定された身体的な特徴に関する情報を利用者に提供する提供部とを有することを特徴とする。 The information processing device according to the present application is characterized in that it has a distributed representation space generated based on evaluations of an image of clothing, which indicates whether the clothing looks good on the user, from a plurality of evaluators, an estimation unit that estimates physical characteristics that go well with a specific piece of clothing based on the distributed representation space onto which the image and physical information indicating the physical characteristics of the subject are projected, and a provision unit that provides a user with information on the physical characteristics estimated by the estimation unit.

実施形態の一態様によれば、所定の被服に似合う身体的な特徴を利用者が把握することができるという効果を奏する。 According to one aspect of the embodiment, the effect is that the user can understand the physical characteristics that suit a given outfit.

図1は、実施形態に係る情報処理システム1の構成例を示す図である。FIG. 1 is a diagram showing an example of the configuration of an information processing system 1 according to an embodiment. 図2は、実施形態に係る情報処理の一例を示す図(1)である。FIG. 2 is a diagram (1) showing an example of information processing according to the embodiment. 図3は、実施形態に係る分散表現空間の一例を示す図である。FIG. 3 is a diagram illustrating an example of a distributed representation space according to the embodiment. 図4は、実施形態に係る情報処理の一例を示す図(2)である。FIG. 4 is a diagram (2) showing an example of information processing according to the embodiment. 図5は、実施形態に係る情報処理装置10の構成例を示す図である。FIG. 5 is a diagram illustrating an example of the configuration of the information processing device 10 according to the embodiment. 図6は、実施形態に係る評価者情報データベース31の一例を示す図である。FIG. 6 is a diagram showing an example of the evaluator information database 31 according to the embodiment. 図7は、実施形態に係る利用者情報データベース32の一例を示す図である。FIG. 7 is a diagram showing an example of the user information database 32 according to the embodiment. 図8は、利用者端末100の画面の一例を示す図(1)である。FIG. 8 is a diagram (1) showing an example of a screen of the user terminal 100. 図9は、利用者端末100の画面の一例を示す図(2)である。FIG. 9 is a diagram (2) showing an example of a screen of the user terminal 100. 図10は、実施形態に係る情報処理の手順の一例を示すフローチャート(1)である。FIG. 10 is a flowchart (1) showing an example of a procedure of information processing according to the embodiment. 図11は、実施形態に係る情報処理の手順の一例を示すフローチャート(2)である。FIG. 11 is a flowchart (2) showing an example of the procedure of information processing according to the embodiment. 図12は、実施形態に係る情報処理の手順の一例を示すフローチャート(3)である。FIG. 12 is a flowchart (3) showing an example of the procedure of information processing according to the embodiment. 図13は、実施形態に係る情報処理システム1Aの構成例を示す図である。FIG. 13 is a diagram illustrating an example of the configuration of an information processing system 1A according to the embodiment. 図14は、実施形態に係る情報処理の一例を示す図(3)である。FIG. 14 is a diagram (3) showing an example of information processing according to the embodiment. 図15は、実施形態に係る情報処理装置10Aの構成例を示す図である。FIG. 15 is a diagram showing an example of the configuration of an information processing device 10A according to an embodiment. 図16は、実施形態に係る評価者情報データベース31Aの一例を示す図である。FIG. 16 is a diagram illustrating an example of the evaluator information database 31A according to the embodiment. 図17は、実施形態に係る利用者情報データベース32Aの一例を示す図である。FIG. 17 is a diagram showing an example of a user information database 32A according to the embodiment. 図18は、実施形態に係る情報処理の手順の一例を示すフローチャート(4)である。FIG. 18 is a flowchart (4) showing an example of the procedure of information processing according to the embodiment. 図19は、実施形態に係る情報処理の手順の一例を示すフローチャート(5)である。FIG. 19 is a flowchart (5) showing an example of the procedure of information processing according to the embodiment. 図20は、情報処理装置10Aの機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 20 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device 10A.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, the information processing device, information processing method, and information processing program according to the present application will be described in detail with reference to the drawings. Note that the information processing device, information processing method, and information processing program according to the present application are not limited to these embodiments. In addition, the same components in the following embodiments will be denoted by the same reference numerals, and duplicated descriptions will be omitted.

(第1の実施形態)
〔1.情報処理システムの構成〕
まず、実施形態に係る情報処理システム1について説明する。図1は、実施形態に係る情報処理システム1の構成例を示す図である。図1に示すように、情報処理システム1は、情報処理装置10と、利用者端末100と、評価者端末200とが含まれる。情報処理装置10と、利用者端末100と、評価者端末200とは所定の通信網(ネットワークN)を介して、有線または無線により通信可能に接続される。なお、図1に示した情報処理システム1には、複数台の情報処理装置10、複数台の利用者端末100及び複数台の評価者端末200が含まれてもよい。
First Embodiment
1. Configuration of the information processing system
First, an information processing system 1 according to an embodiment will be described. Fig. 1 is a diagram showing an example of the configuration of the information processing system 1 according to an embodiment. As shown in Fig. 1, the information processing system 1 includes an information processing device 10, a user terminal 100, and an evaluator terminal 200. The information processing device 10, the user terminal 100, and the evaluator terminal 200 are connected to each other via a predetermined communication network (network N) so as to be able to communicate with each other by wire or wirelessly. Note that the information processing system 1 shown in Fig. 1 may include a plurality of information processing devices 10, a plurality of user terminals 100, and a plurality of evaluator terminals 200.

情報処理装置10は、複数の被服(ファッションアイテムともいい、履物(シューズともいう)や帽子(キャップやハットなど)、装身具(アクセサリともいう)なども含む)の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者(アノテーター)から受け付け、受け付けられた評価に基づいて、当該画像と、前記評価者を示す評価者情報とを投影した分散表現空間を生成し、生成した分散表現空間を用いた情報処理を実現する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。 The information processing device 10 is an information processing device that evaluates an image of a wearer wearing a combination of multiple clothes (also called fashion items, including footwear (also called shoes), headwear (such as caps and hats), and ornaments (also called accessories)), receives evaluations from multiple evaluators (annotators) indicating whether the combination suits the wearer, generates a distributed representation space into which the image and evaluator information indicating the evaluators are projected based on the received evaluations, and realizes information processing using the generated distributed representation space, and is realized, for example, by a server device, a cloud system, etc.

また、例えば、情報処理装置10は、被服を提供(検索、販売等)する電子商取引サービスを提供する。また、情報処理装置10は、被服のコーディネートを示すコンテンツ(画像、動画、記事等)の投稿を利用者から受け付け、他の利用者に提供(検索、配信等)するコーディネートサービスを提供する。 For example, the information processing device 10 provides an electronic commerce service that provides (searches, sells, etc.) clothing. The information processing device 10 also provides a coordination service that accepts submissions of content (images, videos, articles, etc.) showing clothing coordination from users and provides (searches, distributes, etc.) to other users.

なお、情報処理装置10は、サービスに係るウェブサイトを提供するウェブサーバとしての機能を有していてもよい。また、情報処理装置10は、利用者端末100にインストールされた各種サービスに関するアプリケーションに表示する情報を、情報処理装置10に配信する装置であってもよい。また、情報処理装置10は、アプリケーションのデータそのものを配信する装置であってもよい。 The information processing device 10 may have a function as a web server that provides a website related to the service. The information processing device 10 may also be a device that distributes information to be displayed in applications related to various services installed in the user terminal 100 to the information processing device 10. The information processing device 10 may also be a device that distributes the application data itself.

また、情報処理装置10は、利用者端末100に制御情報を配信する配信装置として機能してもよい。ここで、制御情報は、例えば、JavaScript(登録商標)等のスクリプト言語やCSS(Cascading Style Sheets)等のスタイルシート言語により記述される。なお、情報処理装置10から配信されるアプリケーションそのものを制御情報とみなしてもよい。 The information processing device 10 may also function as a distribution device that distributes control information to the user terminal 100. Here, the control information is described, for example, in a script language such as JavaScript (registered trademark) or a style sheet language such as CSS (Cascading Style Sheets). Note that the application itself distributed from the information processing device 10 may be regarded as control information.

利用者端末100は、利用者によって利用される情報処理装置である。利用者端末100は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。また、利用者端末100は、情報処理装置10や、所定のサービスを提供するサーバ装置などによって配信される情報を、ウェブブラウザやアプリケーションにより表示する。なお、図2に示す例では、利用者端末100がスマートフォンである場合を示す。 The user terminal 100 is an information processing device used by a user. The user terminal 100 is realized, for example, by a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), etc. The user terminal 100 also displays information distributed by the information processing device 10 or a server device that provides a specified service, etc., using a web browser or an application. Note that the example shown in FIG. 2 shows a case where the user terminal 100 is a smartphone.

評価者端末200は、複数の被服の組み合わせを着用した着用者の画像に対する評価を行う評価者によって利用される情報処理装置である。評価者端末200は、例えば、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等により実現される。また、評価者端末200は、情報処理装置10や、所定のサービスを提供するサーバ装置などによって配信される情報を、ウェブブラウザやアプリケーションにより表示する。なお、図2に示す例では、評価者端末200がスマートフォンである場合を示す。 The evaluator terminal 200 is an information processing device used by an evaluator who evaluates images of a wearer wearing a combination of multiple clothes. The evaluator terminal 200 is realized, for example, by a smartphone, a tablet terminal, a notebook PC, a desktop PC, a mobile phone, a PDA, or the like. The evaluator terminal 200 also displays information distributed by the information processing device 10 or a server device that provides a specified service, using a web browser or an application. Note that the example shown in FIG. 2 shows a case where the evaluator terminal 200 is a smartphone.

〔2.情報処理の一例〕
次に、図2~4を用いて、本実施形態に係る情報処理装置等により実現される情報処理の一例について説明する。
2. An example of information processing
Next, an example of information processing implemented by the information processing device according to the present embodiment will be described with reference to FIGS.

〔2-1.第1の情報処理について〕
以下、図2を用いて、本実施形態に係る情報処理装置等により実現される第1の情報処理について説明する。図2は、実施形態に係る情報処理の一例を示す図(1)である。なお、以下の説明では、利用者端末100が、利用者ID「UID#1」により識別される利用者(利用者U1)により利用されるものとする。また、以下の説明では、利用者端末100を利用者U1と同一視する場合がある。すなわち、以下では、利用者U1を利用者端末100と読み替えることもできる。
[2-1. Regarding the first information processing]
The first information processing realized by the information processing device etc. according to this embodiment will be described below with reference to FIG. 2. FIG. 2 is a diagram (1) showing an example of information processing according to this embodiment. In the following description, it is assumed that the user terminal 100 is used by a user (user U1) identified by a user ID "UID#1". In addition, in the following description, the user terminal 100 may be regarded as the same as the user U1. In other words, in the following, the user U1 may also be read as the user terminal 100.

また、以下の説明では、評価者端末200を利用する評価者に応じて、評価者端末200-1~200-N(Nは任意の自然数)として説明する。例えば、評価者端末200-1は、評価者ID「AID#1」により識別される評価者(評価者A1)により使用される評価者端末200である。また、以下では、評価者端末200-1~200-Nについて、特に区別なく説明する場合には、評価者端末200と記載する。また、以下の説明では、評価者端末200を評価者と同一視する場合がある。すなわち、以下では、評価者を評価者端末200と読み替えることもできる。 In the following description, the evaluator terminals 200 are referred to as evaluator terminals 200-1 to 200-N (N is any natural number) depending on the evaluator using the evaluator terminal 200. For example, the evaluator terminal 200-1 is the evaluator terminal 200 used by the evaluator (evaluator A1) identified by the evaluator ID "AID#1". In the following description, the evaluator terminals 200-1 to 200-N are referred to as evaluator terminals 200 when there is no particular distinction between them. In the following description, the evaluator terminal 200 may be regarded as the same as the evaluator. That is, in the following description, the evaluator may be read as the evaluator terminal 200.

まず、情報処理装置10は、複数の被服の組み合わせ(コーディネート)を着用した着用者の画像に対する評価者の評価を、評価者端末200から受け付ける(ステップSa1)。例えば、情報処理装置10は、着用者のコーディネートが、着用者に似合っているか否かを示す評価を受け付ける。具体的な例を挙げると、情報処理装置10は、画像P1及びP2の組を評価者に提示し、2つの画像を比較して、いずれの画像のコーディネートが着用者に似合っており、いずれの画像のコーディネートが着用者に似合わないかを示す評価を受け付ける。 First, the information processing device 10 receives from the evaluator terminal 200 an evaluator's evaluation of an image of a wearer wearing a combination (outfit) of multiple clothes (step Sa1). For example, the information processing device 10 receives an evaluation indicating whether the wearer's outfit suits the wearer. As a specific example, the information processing device 10 presents a pair of images P1 and P2 to the evaluator, compares the two images, and receives an evaluation indicating which of the images suits the wearer and which of the images does not suit the wearer.

より具体的な例を挙げると、情報処理装置10は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているという評価、並びに、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合わないという評価(すなわち、画像P1に対する「似合う」という評価と、画像P2に対する「似合わない」という評価)を、評価者A1から受け付ける。なお、どちらの例においても似合っている場合に、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているという評価と、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合っているという評価とを比較したうえで、どちらの評価が相対的に高いか・低いかを判断してもよいし、反対にどちらの例においても似合わなかった場合に、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合わないという評価と、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合わないという評価とを比較したうえで、どちらの評価が相対的に高いか・低いかを判断してもよいものとする。以降の例では相対的に似合うと判断された場合を含めて単に似合うと表記し、同様に相対的に似合わないと判断された場合を含めて単に似合わないと表記する。また、情報処理装置10は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合わないという評価、並びに、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合っているという評価(すなわち、画像P1に対する「似合わない」という評価と、画像P2に対する「似合う」という評価)を、評価者A2から受け付ける。同様に、情報処理装置10は、他の評価者からも、画像P1及びP2の組に関する評価を受け付ける。また、情報処理装置10は、画像P3及びP4の組、画像P5及びP6の組、画像P1及びP3の組、画像P2及びP4の組、・・・といった他の組に関する評価を評価者から受け付ける。 To give a more specific example, the information processing device 10 receives from evaluator A1 an evaluation that outfit #1 shown in image P1 suits wearer #1 shown in image P1, and an evaluation that outfit #2 shown in image P2 does not suit wearer #2 shown in image P2 (i.e., an evaluation that "suits" image P1 and an evaluation that "does not suit" image P2). In addition, when both examples are good, the evaluation that the coordination #1 shown in the image P1 suits the wearer #1 shown in the image P1 and the evaluation that the coordination #2 shown in the image P2 suits the wearer #2 shown in the image P2 may be compared to determine which evaluation is relatively higher or lower, or conversely, when neither example is good, the evaluation that the coordination #1 shown in the image P1 does not suit the wearer #1 shown in the image P1 and the evaluation that the coordination #2 shown in the image P2 does not suit the wearer #2 shown in the image P2 may be compared to determine which evaluation is relatively higher or lower. In the following examples, the case where it is judged to be good relatively will be simply referred to as good, and the case where it is judged to be bad relatively will be simply referred to as bad. The information processing device 10 also receives from evaluator A2 an evaluation that outfit #1 shown in image P1 does not suit wearer #1 shown in image P1, and an evaluation that outfit #2 shown in image P2 suits wearer #2 shown in image P2 (i.e., an evaluation that "does not suit" image P1 and an evaluation that "suits" image P2). Similarly, the information processing device 10 also receives evaluations of the set of images P1 and P2 from other evaluators. The information processing device 10 also receives evaluations of other sets, such as the set of images P3 and P4, the set of images P5 and P6, the set of images P1 and P3, the set of images P2 and P4, and so on, from evaluators.

続いて、情報処理装置10は、画像に対する評価者の評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する(ステップSa2)。例えば、情報処理装置10は、VSE(Visual-Semantic Embedding)の技術を用いて、分散表現空間を生成する。具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1を投影した分散表現空間F1を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2を投影した分散表現空間F1を生成する。 Then, the information processing device 10 generates a distributed representation space in which the image and the evaluator information indicating the evaluator are projected based on the evaluator's evaluation of the image (step Sa2). For example, the information processing device 10 generates the distributed representation space using a technique of VSE (Visual-Semantic Embedding). As a specific example, the information processing device 10 generates a distributed representation space F1 in which the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". In addition, the information processing device 10 generates a distributed representation space F1 in which the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than to the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

なお、情報処理装置10は、画像に関する各種の情報や、評価者に関する各種の情報を示す評価者情報を投影した分散表現空間を生成してもよい。ここで、図3を用いて、情報処理装置10が生成する分散表現空間の例について説明する。図3は、実施形態に係る分散表現空間の一例を示す図である。 The information processing device 10 may generate a distributed representation space in which various information related to the image and evaluator information indicating various information related to the evaluator are projected. Here, an example of the distributed representation space generated by the information processing device 10 will be described with reference to FIG. 3. FIG. 3 is a diagram showing an example of a distributed representation space according to an embodiment.

例えば、画像が示すコーディネートに含まれる被服(アイテム)は、評価者が似合うと感じるか否かに寄与していることが推定される。したがって、情報処理装置10は、画像が示すコーディネートに含まれる被服の画像をさらに投影した分散表現空間F2を生成する。具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服I1の画像を投影した分散表現空間F2を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服I2の画像を投影した分散表現空間F2を生成する。 For example, it is estimated that the clothes (items) included in the outfit shown in the image contribute to whether the evaluator feels that the outfit suits the user. Therefore, the information processing device 10 generates a distributed representation space F2 onto which an image of the clothes included in the outfit shown in the image is further projected. As a specific example, the information processing device 10 generates a distributed representation space F2 onto which an image of the clothes I1 included in the outfit shown in the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". The information processing device 10 also generates a distributed representation space F2 onto which an image of the clothes I2 included in the outfit shown in the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than to the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

また、例えば、情報処理装置10は、画像が示すコーディネートに紐付けられた情報をさらに投影した分散表現空間F3を生成する。具体的な例を挙げると、情報処理装置10は、コーディネートの用途や、着用するシチュエーションなどを示すカテゴリをさらに投影した分散表現空間F3を生成する。より具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートのカテゴリT1(カジュアル)を投影した分散表現空間F3を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2のカテゴリT2(デート)を投影した分散表現空間F3を生成する。なお、情報処理装置10は、画像が示すコーディネートに含まれる被服の画像をさらに投影した散表現空間を生成する場合、当該被服に紐付けられた情報をさらに投影した分散表現空間を生成してもよい。 For example, the information processing device 10 generates a distributed representation space F3 in which information linked to the coordination shown by the image is further projected. As a specific example, the information processing device 10 generates a distributed representation space F3 in which a category indicating the purpose of the coordination, the situation in which it is worn, and the like is further projected. As a more specific example, the information processing device 10 generates a distributed representation space F3 in which the category T1 (casual) of the coordination shown by the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". In addition, the information processing device 10 generates a distributed representation space F3 in which the category T2 (date) of the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable". When the information processing device 10 generates a distributed representation space onto which an image of clothing included in the coordinated outfit shown in the image is further projected, the information processing device 10 may generate a distributed representation space onto which information associated with the clothing is further projected.

また、例えば、情報処理装置10は、評価者の属性情報を示す評価者情報を投影した分散表現空間F4を生成する。ここで、評価者A1の属性情報が「20代後半、東京在住」であり、評価者A2の属性情報が「20代前半、大阪在住」であるものとする。このような場合、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2の属性情報よりも、画像P1を「似合う」と評価した評価者A1の属性情報(例えば、属性情報B1(20代後半、東京在住)、属性情報B2(20代後半)及び属性情報B3(東京在住))の近くに、画像P1を投影した分散表現空間F4を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1の属性情報よりも、画像P2を「似合う」と評価した評価者A2の属性情報(例えば、属性情報B4(20代前半、大阪在住)、属性情報B5(大阪在住)及び属性情報B6(20代前半))の近くに、画像P2を投影した分散表現空間F4を生成する。 Also, for example, the information processing device 10 generates a distributed representation space F4 onto which evaluator information indicating the attribute information of the evaluators is projected. Here, it is assumed that the attribute information of evaluator A1 is "late 20s, living in Tokyo" and the attribute information of evaluator A2 is "early 20s, living in Osaka." In such a case, the information processing device 10 generates a distributed representation space F4 onto which image P1 is projected closer to the attribute information of evaluator A1 who evaluated image P1 as "suitable" (for example, attribute information B1 (late 20s, living in Tokyo), attribute information B2 (late 20s), and attribute information B3 (living in Tokyo)) who evaluated image P1 as "not suitable" than to the attribute information of evaluator A2 who evaluated image P1 as "not suitable." Furthermore, the information processing device 10 generates a distributed representation space F4 in which image P2 is projected closer to the attribute information of evaluator A2, who evaluated image P2 as "suitable" (for example, attribute information B4 (early 20s, living in Osaka), attribute information B5 (living in Osaka), and attribute information B6 (early 20s)), who evaluated image P2 as "not suitable" than to the attribute information of evaluator A1, who evaluated image P2 as "not suitable."

また、例えば、情報処理装置10は、「ファッションに自信がある?」や、「好きな街は?」といったアンケートに対する評価者の回答を示す評価者情報を投影した分散表現空間F5を生成する。ここで、上記のアンケートに対し、評価者A1が「ファッションに自信がない」、「渋谷が好き」と回答し、評価者A2が「ファッションに自信がある」、「原宿が好き」と回答したものとする。このような場合、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2の回答よりも、画像P1を「似合う」と評価した評価者A1の回答(例えば、回答C1(ファッションに自信がない、渋谷が好き)、回答C2(ファッションに自信がない)及び回答C3(渋谷が好き))の近くに、画像P1を投影した分散表現空間F5を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1の回答よりも、画像P2を「似合う」と評価した評価者A2の回答(例えば、回答C4(ファッションに自信がある、原宿が好き)、回答C5(ファッションに自信がある)及び回答C6(原宿が好き))の近くに、画像P2を投影した分散表現空間F5を生成する。 For example, the information processing device 10 generates a distributed representation space F5 in which evaluator information indicating the evaluator's responses to questionnaires such as "Are you confident in your fashion sense?" and "What is your favorite city?" is projected. Here, it is assumed that evaluator A1 responds to the above questionnaires with "I'm not confident in my fashion sense" and "I like Shibuya," and evaluator A2 responds with "I'm confident in my fashion sense" and "I like Harajuku." In such a case, the information processing device 10 generates a distributed representation space F5 in which image P1 is projected closer to the response of evaluator A1 who evaluated image P1 as "suitable" (for example, response C1 (not confident in fashion sense, likes Shibuya), response C2 (not confident in fashion sense), and response C3 (likes Shibuya)) than the response of evaluator A2 who evaluated image P1 as "not suitable." Furthermore, the information processing device 10 generates a distributed representation space F5 in which image P2 is projected closer to the answers of evaluator A2 who evaluated image P2 as "suitable" (e.g., answers C4 (confident in fashion, likes Harajuku), C5 (confident in fashion), and C6 (likes Harajuku)) than to the answers of evaluator A1 who evaluated image P2 as "not suitable."

なお、情報処理装置10が生成する分散表現空間は、上記の例に限定されない。例えば、情報処理装置10は、画像、コーディネートに含まれる被服の画像、コーディネートのカテゴリ、評価者の属性情報、並びに、アンケートに対する評価者の回答を投影した分散表現空間を生成してもよい。 The distributed representation space generated by the information processing device 10 is not limited to the above example. For example, the information processing device 10 may generate a distributed representation space projecting an image, an image of clothing included in the coordination, a coordination category, attribute information of the evaluator, and the evaluator's response to the questionnaire.

また、情報処理装置10が生成する分散表現空間に含まれる情報は、上記のような例に限定されず、任意の情報が投影されてもよい。例えば、情報処理装置10は、被服の提供元(例えば、ブランドや、被服を販売するショップなど)を示す情報を投影した分散表現空間を生成してもよい。具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。また、例えば、情報処理装置10は、着用者の身体的な情報(例えば、骨格や体格に関する特徴量)を投影した分散表現空間を生成してもよく、身体的な特徴量を抽出する際に非特許文献1(ViBE: Dressing for Diverse Body Shapes.Wei-Lin Hsiao,Kristen Grauman,Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 11059-11069.)の方法を用いてもよい。 In addition, the information included in the distributed representation space generated by the information processing device 10 is not limited to the above example, and any information may be projected. For example, the information processing device 10 may generate a distributed representation space in which information indicating the source of the clothes (for example, a brand, a shop selling the clothes, etc.) is projected. As a specific example, the information processing device 10 generates a distributed representation space in which information indicating the source of the clothes included in the coordination shown by the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". In addition, the information processing device 10 generates a distributed representation space in which information indicating the source of the clothes included in the coordination shown by the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable". In addition, for example, the information processing device 10 may generate a distributed representation space in which the wearer's physical information (for example, features related to the skeleton and physique) is projected, and when extracting the physical features, the method of non-patent document 1 (ViBE: Dressing for Diverse Body Shapes. Wei-Lin Hsiao, Kristen Grauman, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 11059-11069.) may be used.

また、例えば、情報処理装置10は、評価者の各種の属性情報(例えば、職業や、身長、体重、居住地、パーソナルカラー、収入、家賃)、評価者のアンケートの項目(例えば、お気に入りの提供元や、ファッションにかける金額、ファッションの参考に見ている媒体(よく読む雑誌、よく利用するWEBサービス等)、夢中になっていること(趣味等)、将来の夢、ファッションの参考にしている人(芸能人、インフルエンサー等)、なりたいイメージ、取り入れたいアイテム、好きな(憧れな)人のSNSに関する情報、体型の悩み、ファッションの悩みなど)に対する回答、画像が示すコーディネートに紐付けられた情報(例えば、アイテムタイプ、提供元、利用シーン、色、季節、着用の目的、売り文句、素材、サイズ、価格帯など)を示す情報などを投影した分散表現空間を生成してもよい。 In addition, for example, the information processing device 10 may generate a distributed representation space projecting information indicating various attribute information of the evaluator (e.g., occupation, height, weight, place of residence, personal color, income, rent), answers to questionnaire items of the evaluator (e.g., favorite providers, amount spent on fashion, media used for fashion inspiration (magazines often read, frequently used web services, etc.), obsessions (hobbies, etc.), dreams for the future, people used as inspiration for fashion (celebrities, influencers, etc.), desired image, items to incorporate, information on SNS of people you like (admire), body shape concerns, fashion concerns, etc.), and information linked to the coordination shown in the image (e.g., item type, provider, usage scene, color, season, purpose of wearing, selling point, material, size, price range, etc.).

図2に戻り説明を続ける。続いて、情報処理装置10は、電子商取引サービスや、コーディネートサービスを介した、利用者端末100からのコーディネートの提供要求に応じて、生成した分散表現空間と、利用者U1に関する情報とに基づき、利用者U1に似合うコーディネート(言い換えると、利用者が高く評価すると推定されるコーディネートや、利用者も似合うと評価すると推定されるコーディネート)を推定する(ステップSa3)。ここで、利用者U1の属性情報が、「20代後半」であるものとする。このような場合、情報処理装置10は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定する。 Returning to FIG. 2 for further explanation, the information processing device 10 then responds to a request for coordination from the user terminal 100 via an e-commerce service or a coordination service by estimating a coordination that would suit the user U1 (in other words, a coordination that the user is estimated to highly appreciate or that the user is estimated to evaluate as looking good on them) based on the generated distributed representation space and information about the user U1 (step Sa3). Here, it is assumed that the attribute information of user U1 is "late 20s." In such a case, the information processing device 10 estimates that the coordination shown by the image projected within a specified range from the attribute information B2 in the distributed representation space F4 is a coordination that would suit the user U1.

なお、情報処理装置10は、分散表現空間に投影された情報と、利用者U1に関する情報とに基づいて、利用者U1に関する情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、利用者U1に似合うコーディネートを推定してもよい。例えば、利用者U1の属性情報が、「20代後半、大阪在住」である場合、情報処理装置10は、分散表現空間F4において、属性情報B2及びB5の中間の位置が、分散表現空間F4において利用者U1に関する情報を投影した場合の位置であると推定し、当該位置から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定してもよい。 In addition, the information processing device 10 may estimate a position when the information about user U1 is projected into the distributed representation space based on the information projected into the distributed representation space and the information about user U1, and may estimate an outfit that suits user U1 based on the estimated position. For example, if the attribute information of user U1 is "late 20s, living in Osaka", the information processing device 10 may estimate that the midpoint between attribute information B2 and B5 in the distributed representation space F4 is the position when the information about user U1 is projected in the distributed representation space F4, and may estimate that the outfit shown by the image projected within a specified range from that position is the outfit that suits user U1.

ここで、図2の例において、情報処理装置10が、画像P1が示すコーディネート#1、画像P3が示すコーディネート#3、並びに、画像P4が示すコーディネート#4を、利用者U1に似合うコーディネートであると推定したものとする。このような場合、情報処理装置10は、コーディネート#1、#3及び#4に関する情報を利用者端末100に提供する(ステップSa4)。例えば、情報処理装置10は、分散表現空間F4において属性情報B2からより近い画像が示すコーディネートに関する情報ほど、利用者U1に似合う度合いが高いと推定し、優先度を高くして提供する。具体的な例を挙げると、情報処理装置10は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、電子商取引サービスにおいて提供する。また、情報処理装置10は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、コーディネートサービスにおいて提供する。このとき、情報処理装置10は、優先度が高い情報ほど、目立つ位置や、ランキングの上位として表示されるように提供してもよい。 In the example of FIG. 2, the information processing device 10 estimates that the coordination #1 shown in the image P1, the coordination #3 shown in the image P3, and the coordination #4 shown in the image P4 are coordinations that suit the user U1. In such a case, the information processing device 10 provides information on the coordination #1, #3, and #4 to the user terminal 100 (step Sa4). For example, the information processing device 10 estimates that the closer the information on the coordination shown in the image is to the attribute information B2 in the distributed representation space F4, the more suitable it is for the user U1, and provides it with a higher priority. As a specific example, the information processing device 10 provides information on the coordination #1, #3, and #4 and information on the clothes included in the coordination #1, #3, and #4 in the electronic commerce service. The information processing device 10 also provides information on the coordination #1, #3, and #4 and information on the clothes included in the coordination #1, #3, and #4 in the coordination service. At this time, the information processing device 10 may provide information so that the higher the priority, the more prominent the information is displayed or the higher it is ranked.

なお、情報処理装置10は、コーディネート#1、#3及び#4のうち、利用者U1に関する情報(属性情報、身体的な情報(身長、体重、体型、骨格、髪型、髪の色、肌の色、瞳の色等)等)や、コーディネートに関連する情報(例えば、現在の季節や、現在の流行)などに対応するコーディネートの情報を提供してもよい。例えば、利用者U1が男性である場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、男性向けのコーディネートの情報を提供する。例えば、利用者U1が男性である場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、着用者が男性であるコーディネートや、コーディネートに含まれる被服が男性向けであるコーディネートの情報を提供してもよい。例えば、現在の季節が秋である場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、秋や冬向けのコーディネートの情報を提供する。 In addition, the information processing device 10 may provide information on coordination among the coordinations #1, #3, and #4 that corresponds to information on the user U1 (attribute information, physical information (height, weight, body type, bone structure, hairstyle, hair color, skin color, eye color, etc.)) and information related to the coordination (for example, the current season or current fashion). For example, if the user U1 is male, the information processing device 10 may provide information on coordination for men among the coordinations #1, #3, and #4. For example, if the user U1 is male, the information processing device 10 may provide information on coordination for men among the coordinations #1, #3, and #4 that are worn by men or that include clothing for men. For example, if the current season is autumn, the information processing device 10 provides information on coordination for autumn or winter among the coordinations #1, #3, and #4.

また、情報処理装置10は、利用者U1が指定した条件に応じたコーディネートの情報を提供してもよい。例えば、利用者U1がカテゴリ「カジュアル」を条件として指定した場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、分散表現空間(例えば、分散表現空間F3)においてカテゴリT1からより近い位置に投影された画像が示すコーディネートの優先度を高くして提供する。 In addition, the information processing device 10 may provide information on coordination according to conditions specified by the user U1. For example, if the user U1 specifies the category "casual" as a condition, the information processing device 10 provides, among the coordinations #1, #3, and #4, the coordination indicated by the image projected at a position closer to the category T1 in the distributed representation space (for example, the distributed representation space F3), with a higher priority.

また、情報処理装置10は、利用者U1の被服に関する嗜好を学習したモデルを用いて、コーディネートの情報を提供してもよい。例えば、情報処理装置10は、被服に関する情報(例えば、画像)を入力した場合に、利用者U1がその被服を嗜好する度合いが高いほど高いスコアを出力するようモデルを学習しておく。そして、情報処理装置10は、そのモデルにコーディネート#1、#3及び#4に関する情報を入力し、出力されたスコアが高い順にコーディネート#1、#3及び#4の情報を利用者U1に提供する。 In addition, the information processing device 10 may provide coordination information using a model that has learned the clothing preferences of the user U1. For example, the information processing device 10 trains a model so that when information about clothing (e.g., an image) is input, the higher the degree to which the user U1 likes that clothing, the higher the score that is output. The information processing device 10 then inputs information about coordination #1, #3, and #4 into the model, and provides the information about coordination #1, #3, and #4 to the user U1 in descending order of the output scores.

続いて、情報処理装置10は、提供した情報に対して利用者U1が肯定的であったか否かを示すフィードバックを利用者端末100から取得する(ステップSa5)。例えば、情報処理装置10は、電子商取引サービスにおいて、利用者U1がコーディネート#1、#3及び#4に含まれる被服を購入したか否かや、レンタルの申込みを行ったか否かを示す情報(フィードバック)を取得する。また、情報処理装置10は、コーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4に対するお気に入り登録を行ったか否かを示す情報(フィードバック)か否かを示す情報を取得する。なお、提供した情報に対して利用者U1が肯定的であったか否かを示す情報は、電子商取引サービスやコーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4を閲覧したか否かや、電子商取引サービスやコーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4に含まれる被服を閲覧したか否かなどでもよく、上記の例に限定されない。 Next, the information processing device 10 obtains feedback from the user terminal 100 indicating whether the user U1 responded positively to the provided information (step Sa5). For example, the information processing device 10 obtains information (feedback) indicating whether the user U1 purchased clothes included in the outfits #1, #3, and #4 in the e-commerce service, or whether he/she applied to rent them. The information processing device 10 also obtains information (feedback) indicating whether the user U1 registered outfits #1, #3, and #4 as favorites in the coordination service. The information indicating whether the user U1 responded positively to the provided information is not limited to the above examples and may be information indicating whether the user U1 viewed outfits #1, #3, and #4 in the e-commerce service or coordination service, or whether the user U1 viewed clothes included in the outfits #1, #3, and #4 in the e-commerce service or coordination service.

続いて、情報処理装置10は、利用者U1からのフィードバックに基づいて、分散表現空間を更新する(ステップSa6)。例えば、利用者U1がコーディネート#1に対して肯定的である場合(例えば、電子商取引サービスにおいてコーディネート#1に含まれる被服を購入した場合や、コーディネートサービスにおいてコーディネート#1に対するお気に入り登録を行った場合)、情報処理装置10は、分散表現空間F4において、属性情報B2と画像P1とを所定の距離近づけるように更新する。一方、利用者U1がコーディネート#3に対して否定的である場合(例えば、電子商取引サービスや、コーディネートサービスにおいて提示したコーディネート#3の情報を閲覧しなかった場合)、情報処理装置10は、分散表現空間F4において、属性情報B2と画像P3とを所定の距離遠ざけるように更新する。なお、利用者U1からのフィードバックは、コーディネートを示す画像に対する似合うか否かの評価とも捉えられるので、画像に対する評価(フィードバック)を行った評価者(利用者U1)を示す評価者情報をさらに分散表現空間に投影してもよい。 Next, the information processing device 10 updates the distributed representation space based on the feedback from the user U1 (step Sa6). For example, if the user U1 is positive about the coordination #1 (for example, if the user U1 purchases the clothes included in the coordination #1 in the e-commerce service or registers the coordination #1 as a favorite in the coordination service), the information processing device 10 updates the attribute information B2 and the image P1 in the distributed representation space F4 to be closer to each other by a predetermined distance. On the other hand, if the user U1 is negative about the coordination #3 (for example, if the user U1 does not view the information on the coordination #3 presented in the e-commerce service or the coordination service), the information processing device 10 updates the attribute information B2 and the image P3 in the distributed representation space F4 to be farther apart by a predetermined distance. Note that the feedback from the user U1 can also be regarded as an evaluation of whether the image showing the coordination looks good, so evaluator information indicating the evaluator (user U1) who evaluated (gave feedback) on the image may be further projected into the distributed representation space.

以上のように、実施形態に係る情報処理装置10は、コーディネートを示す画像に対する似合うか否かの評価と、画像に対する評価を行った評価者を示す評価者情報とを投影した分散表現空間を生成する。 As described above, the information processing device 10 according to the embodiment generates a distributed representation space in which evaluations of whether an image showing an outfit looks good or not and evaluator information indicating the evaluator who evaluated the image are projected.

ここで、従来、コーディネートが着用者に「似合う」か否かは人それぞれの主観によって大きく異なり、定量化が困難であった。そこで、実施形態に係る情報処理装置10によれば、コーディネートを示す画像と、評価者の個性との近さを測れる空間を構成することにより、「似合う」を定量化することができるため、各評価者の主観から被服が着用者に似合っているかを把握することができる。 Here, in the past, whether or not an outfit "looks good" on a wearer varied greatly depending on each person's subjective opinion, making it difficult to quantify. Therefore, with the information processing device 10 according to the embodiment, by constructing a space that can measure the closeness between an image showing an outfit and the evaluator's personality, it is possible to quantify "looking good," and therefore it is possible to grasp whether the clothes look good on the wearer from the subjective opinion of each evaluator.

また、実施形態に係る情報処理装置10は、生成した分散表現空間を用いて、利用者と類似する評価者の評価に基づき、利用者に似合うと推定されるコーディネートに関する情報を提供する。これにより、実施形態に係る情報処理装置10は、所定の対象(利用者自身等)に似合う被服を利用者が把握することができるという効果を奏する。 The information processing device 10 according to the embodiment also uses the generated distributed representation space to provide information about outfits that are estimated to suit the user based on evaluations by evaluators similar to the user. This allows the information processing device 10 according to the embodiment to have the effect of allowing the user to understand what clothes suit a specific target (such as the user himself/herself).

〔2-2.第2の情報処理について〕
次に、図4を用いて、本実施形態に係る情報処理装置等により実現される第2の情報処理について説明する。図4は、実施形態に係る情報処理の一例を示す図(2)である。
[2-2. Regarding the second information processing]
Next, a second information processing executed by the information processing device according to the embodiment will be described with reference to Fig. 4. Fig. 4 is a diagram (2) showing an example of the information processing according to the embodiment.

まず、情報処理装置10は、複数の被服の組み合わせ(コーディネート)を着用した着用者の画像に対する評価を、評価者端末200から受け付ける(ステップSb1)。例えば、情報処理装置10は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているっているか否かを示す評価を受け付ける。 First, the information processing device 10 receives an evaluation of an image of a wearer wearing a combination (coordination) of multiple clothes from the evaluator terminal 200 (step Sb1). For example, the information processing device 10 receives an evaluation indicating whether or not the outfit #1 shown in the image P1 suits the wearer #1 shown in the image P1.

続いて、情報処理装置10は、画像に対する評価者の評価に基づいて、評価者や画像などの分散表現を生成するための畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))を生成する(ステップSb2)。例えば、情報処理装置10は、画像と、画像に対する評価者の評価と、評価者に関する評価者情報とを含む学習用データを用いてCNNを生成する。具体的な例を挙げると、情報処理装置10は、ある画像を入力した際に、その画像に対して「似合う」と評価した評価者の分散表現と類似する分散表現を出力し、その画像に対して「似合わない」と評価した評価者の分散表現と類似しない分散表現を出力するように、CNNの接続係数を修正する。 Then, the information processing device 10 generates a convolutional neural network (CNN) for generating distributed representations of evaluators, images, etc., based on the evaluators' ratings of the images (step Sb2). For example, the information processing device 10 generates a CNN using learning data including images, the evaluators' ratings of the images, and evaluator information related to the evaluators. As a specific example, when an image is input, the information processing device 10 corrects the connection coefficients of the CNN so that it outputs a distributed representation similar to the distributed representation of the evaluator who rated the image as "suitable" and outputs a distributed representation not similar to the distributed representation of the evaluator who rated the image as "not suitable."

ここで、情報処理装置10が、各評価者による評価に基づいて、CNNの学習を繰り返し行った場合、CNNは、各評価者がどの範囲に基づいて、似合うもしくは似合わないの評価を行ったかを推定し、推定結果に応じた各評価者および画像の分散表現を生成するようになる。例えば、CNNは、画像から分散表現を生成する場合、画像を複数の領域に分割し、分割した領域ごとの特徴を示すベクトル(以下、「領域ベクトル」と記載する場合がある。)を生成する。そして、CNNは、複数の領域ベクトルを統合することで、画像全体の特徴を示す分散表現を生成する。なお、CNNは、様々な大きさの領域や特徴について、同様の処理を繰り返し実行し、最終的な分散表現を生成する。また、画像全体を一つの領域とみなしてもよい。また、複数の領域ではなく、単一の領域に基づいて分散表現を生成してもよい。すなわち、必要であれば、画像上の部分的な領域に基づいて分散表現を生成するのではなく、画像全体を考慮した単一の特徴ベクトルを算出してもよい。また、領域の定義は使用するアプリケーションに基づいて任意に定めてもよい。例えば、Fully CNNを用いて特徴抽出することで得られる特徴ベクトルは、各次元が一つの画像上の領域に対応するものとして考えられるが、当該領域に対応する画像空間上のコンテンツに基づいてその領域ベクトルを使用するか否かを決めてもよい。具体的には、人体検出器などによって画像上の人物が存在する複数の領域を特定し、これらの領域ベクトルのAverage Poolingを算出することによって領域ベクトルの統合を行ってもよい。また、その他の例としても、画像上の意味的領域分割を行うことによって領域を特定してもよい。具体的には、例えば、画像上に撮像された人物が存在する画素において、どの部分がトップスまたはボトムスを含むかを特定することで、複数の意味的領域を得ることができる。これらの領域に対応する領域ベクトルを算出し、複数の領域ベクトルを固有の順番で結合(Concatenate処理)することで、対象の被写体の姿勢変動に比較的頑強な画像全体の特徴を示す分散表現を算出してもよい。この際、存在しない意味的領域がある場合(例えば被写体の足が撮像されていない場合にシューズの領域が存在しないなど)、当該の領域ベクトルを任意の特徴ベクトルで代用してもよく、例えば学習データ全体におけるシューズの領域ベクトルの平均ベクトルを用いてもよいし、0で埋めた特徴ベクトルを用いても良い。 Here, when the information processing device 10 repeatedly performs CNN learning based on the evaluations by each evaluator, the CNN estimates the range based on which each evaluator evaluated whether the image looked good or not, and generates a distributed representation of each evaluator and image according to the estimation result. For example, when generating a distributed representation from an image, the CNN divides the image into multiple regions and generates a vector (hereinafter, sometimes referred to as a "region vector") indicating the characteristics of each divided region. Then, the CNN generates a distributed representation indicating the characteristics of the entire image by integrating multiple region vectors. Note that the CNN repeatedly performs the same process for regions and features of various sizes to generate the final distributed representation. The entire image may be regarded as one region. Also, a distributed representation may be generated based on a single region instead of multiple regions. In other words, if necessary, a single feature vector considering the entire image may be calculated instead of generating a distributed representation based on a partial region on the image. Also, the definition of the region may be arbitrarily determined based on the application to be used. For example, a feature vector obtained by extracting features using a Fully CNN is considered to correspond to a region on one image in each dimension, but whether or not to use the region vector may be determined based on the content on the image space corresponding to the region. Specifically, a human body detector or the like may be used to identify multiple regions in which people exist on the image, and the region vectors may be integrated by calculating an average pooling of these region vectors. As another example, a region may be identified by performing semantic region division on the image. Specifically, for example, a plurality of semantic regions may be obtained by identifying which part includes the top or bottom in a pixel in which a person is captured on the image. A distributed representation indicating the characteristics of the entire image that is relatively robust to posture changes of the target subject may be calculated by calculating region vectors corresponding to these regions and concatenating (concatenating) the multiple region vectors in a unique order. In this case, if there is a semantic region that does not exist (for example, if the subject's feet are not captured in an image, the shoe region does not exist), the region vector in question may be substituted with any feature vector. For example, the average vector of the shoe region vectors in the entire training data may be used, or a feature vector filled with zeros may be used.

このようなCNNの学習を行う場合、情報処理装置10は、各評価者の位置を固定し、各画像について、似合うと評価した評価者の分散表現(例えば、属性情報等を示す評価者情報に基づく分散表現)と類似する分散表現を出力し、似合わないと評価した評価者の評価者情報の分散表現と類似しない分散表現を出力するように、CNNの学習を行う。このような学習を行った場合、CNNは、似合うと評価した評価者の評価者情報の分散表現と比較的類似する領域ベクトルを生成し、似合わないと評価した評価者の評価者情報の分散表現と比較的類似しない領域ベクトルを生成するように、接続係数等の調整が行われることとなる。このような学習処理を繰り返し行った場合、CNNは、ある領域について、その領域について似合うと評価した可能性が高い各評価者の分散表現と類似し、似合わないと評価した可能性が高い各評価者の分散表現と類似しない領域ベクトルを生成するようになる。 When such CNN training is performed, the information processing device 10 fixes the position of each evaluator, and trains the CNN so that for each image, it outputs a distributed representation similar to the distributed representation of the evaluator who evaluated the image as suitable (for example, a distributed representation based on evaluator information indicating attribute information, etc.) and outputs a distributed representation not similar to the distributed representation of the evaluator information of the evaluator who evaluated the image as unsuitable. When such training is performed, the connection coefficients, etc. are adjusted so that the CNN generates a region vector that is relatively similar to the distributed representation of the evaluator information of the evaluator who evaluated the image as suitable, and generates a region vector that is relatively not similar to the distributed representation of the evaluator information of the evaluator who evaluated the image as unsuitable. When such a training process is repeated, the CNN generates a region vector for a certain region that is similar to the distributed representation of each evaluator who is likely to have evaluated the region as suitable, and is not similar to the distributed representation of each evaluator who is likely to have evaluated the region as unsuitable.

そこで、情報処理装置10は、このような学習済みのCNNが生成した領域ベクトルを用いて、各評価者が似合うと判断した領域を推定し、推定した領域を示す情報、例えば、ヒートマップ等を提供する。 Therefore, the information processing device 10 uses the region vectors generated by such a trained CNN to estimate the regions that each evaluator judged to look good, and provides information indicating the estimated regions, such as a heat map.

例えば、情報処理装置10は、電子商取引サービスや、コーディネートサービスにおいて、コーディネートを示す画像を利用者U1に提供する際、生成したCNNと、利用者U1に関する情報とに基づき、当該画像の各領域が示す被服のそれぞれが利用者U1に似合う度合いを判定する(ステップSb3)。ここで、図4の例において、画像P1を利用者U1に提供するものとする。このような場合、情報処理装置10は、分散表現が、利用者U1の分散表現(例えば、属性情報等に基づく分散表現)と類似する評価者を特定する。そして、情報処理装置10は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、利用者U1に似合う度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、利用者U1に似合う度合いが低いと判定する。 For example, when the information processing device 10 provides an image showing a coordination to the user U1 in an electronic commerce service or a coordination service, the information processing device 10 determines the degree to which each of the clothes shown in each region of the image suits the user U1 based on the generated CNN and information about the user U1 (step Sb3). Here, in the example of FIG. 4, the image P1 is provided to the user U1. In such a case, the information processing device 10 identifies an evaluator whose distributed representation is similar to the distributed representation of the user U1 (for example, a distributed representation based on attribute information, etc.). Then, the information processing device 10 determines that the clothes shown in the region of the image P1 whose region vector is more similar to the distributed representation of the identified evaluator are more suitable for the user U1, and that the clothes shown in the region whose vector is less similar to the distributed representation of the evaluator are less suitable for the user U1.

なお、情報処理装置10が上述の処理に用いるために生成するものは、CNNに限定されず、分散表現(埋め込み表現)を獲得可能であれば任意のものが生成されてよい。 Note that what the information processing device 10 generates for use in the above-mentioned processing is not limited to CNN, and anything that can acquire distributed representations (embedded representations) may be generated.

続いて、情報処理装置10は、画像P1をステップSb3において判定した度合いに応じた態様で利用者端末100に出力する(ステップSb4)。例えば、情報処理装置10は、画像P1の各領域が示す被服が利用者U1に似合う度合いをヒートマップで示す画像を出力する。具体的な例を挙げると、ステップSb3において特定した評価者の分散表現と、画像P1のボトムスを示す領域の領域ベクトルが類似し、画像P1のトップスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、ボトムスを示す領域を濃い赤色で表示し、トップスを示す領域を濃い青色で表示する画像P1-1を出力する。また、ステップSb3において特定した評価者の分散表現と、画像P1のトップスを示す領域の領域ベクトルが類似し、画像P1のボトムスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、トップスを示す領域を濃い赤色で表示し、ボトムスを示す領域を濃い青色で表示する画像P1-2を出力する。 Then, the information processing device 10 outputs the image P1 to the user terminal 100 in a mode according to the degree determined in step Sb3 (step Sb4). For example, the information processing device 10 outputs an image showing the degree to which the clothes indicated by each region of the image P1 suit the user U1 in a heat map. As a specific example, if the region vector of the region indicating the bottoms of the image P1 is similar to the distributed representation of the evaluator identified in step Sb3, but the region vector of the region indicating the tops of the image P1 is not similar, the information processing device 10 outputs an image P1-1 in which the region indicating the bottoms of the image P1 is displayed in dark red and the region indicating the tops is displayed in dark blue. Also, if the region vector of the region indicating the tops of the image P1 is similar to the distributed representation of the evaluator identified in step Sb3, but the region vector of the region indicating the bottoms of the image P1 is not similar, the information processing device 10 outputs an image P1-2 in which the region indicating the tops of the image P1 is displayed in dark red and the region indicating the bottoms is displayed in dark blue.

なお、情報処理装置10は、画像を出力する際に、各領域の被服が利用者U1に似合う度合いに応じた情報とともに画像を出力してもよい。例えば、画像P1-1を出力する場合、情報処理装置10は、赤色で表示した領域に含まれる被服の購入を提案する情報や、青色で表示した領域に含まれる被服の着用を避けることを提案する旨の情報、赤色で表示した領域に含まれる被服を活かした他のコーディネートに関する情報などとともに、画像P1-1を出力する。 When outputting an image, the information processing device 10 may output the image together with information according to the degree to which the clothes in each area suit the user U1. For example, when outputting image P1-1, the information processing device 10 outputs image P1-1 together with information suggesting the purchase of the clothes included in the area displayed in red, information suggesting the avoidance of wearing the clothes included in the area displayed in blue, information regarding other coordinations that utilize the clothes included in the area displayed in red, etc.

以上のように、実施形態に係る情報処理装置10は、コーディネートのうち、評価者が似合うと評価した被服や、似合わないと評価した被服を示す領域を可視化することができるため、複数の被服の組み合わせのうち、いずれの被服が着用者に似合っているかを把握することができる。また、実施形態に係る情報処理装置10は、利用者が、自身と類似する属性を有する評価者が、コーディネートのうちいずれの被服を似合うと評価するかを把握することができるため、着用する被服の指針を利用者が得ることができる。 As described above, the information processing device 10 according to the embodiment can visualize areas showing clothes that the evaluator has evaluated as looking good and clothes that the evaluator has evaluated as not looking good in an outfit, so that it is possible to grasp which clothes out of multiple clothing combinations look good on the wearer. Furthermore, the information processing device 10 according to the embodiment allows the user to grasp which clothes out of an outfit an evaluator with similar attributes to the user has evaluated as looking good, so that the user can obtain guidelines for clothes to wear.

〔3.その他の処理例〕
なお、上述した処理は一例に過ぎず、情報処理装置10は、様々な情報を用いて様々な処理を行ってもよい。この点について、以下例示を列挙する。
[3. Other processing examples]
The above-described process is merely an example, and the information processing device 10 may perform various processes using various information. In this regard, examples are listed below.

〔3-1.利用者に関する情報に基づくコーディネートの推定について〕
図2の例において、情報処理装置10は、分散表現空間と、利用者U1が選択したカテゴリとに基づいて、利用者U1に似合うコーディネートを推定してもよい。例えば、利用者端末100からのコーディネートの提供要求とともに、利用者U1がカテゴリ「カジュアル」を選択したことを示す情報を受け付けた場合、情報処理装置10は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートであって、分散表現空間F3において、カテゴリT1から所定の範囲内に投影された画像が示すコーディネートを、カテゴリ「カジュアル」において利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。
[3-1. Predicting outfits based on user information]
In the example of Fig. 2, the information processing device 10 may estimate an outfit that suits the user U1 based on the distributed representation space and the category selected by the user U1. For example, when receiving information indicating that the user U1 selected the category "casual" together with a request for providing an outfit from the user terminal 100, the information processing device 10 estimates that an outfit shown by an image projected within a predetermined range from the attribute information B2 in the distributed representation space F4 and an image projected within a predetermined range from the category T1 in the distributed representation space F3 is an outfit that suits the user U1 in the category "casual", and provides information on the outfit that corresponds to information on the user U1 and information related to the outfit to the user terminal 100.

また、情報処理装置10は、分散表現空間と、アンケートに対する利用者U1の回答とに基づいて、利用者U1に似合うコーディネートを推定してもよい。例えば、「ファッションに自信がある?」といったアンケートに対し、利用者U1が「ファッションに自信がない」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate an outfit that would suit user U1 based on the distributed representation space and user U1's answers to a questionnaire. For example, if user U1 answers "I'm not confident in my fashion sense" to a questionnaire such as "Are you confident in your fashion sense?", the information processing device 10 estimates that the outfit shown by the image projected within a predetermined range from answer C2 in the distributed representation space F5 is an outfit that would suit user U1, and provides information about the outfit that corresponds to information about user U1 and information related to the outfit to the user terminal 100.

なお、情報処理装置10は、利用者U1に関する情報に基づいて、コーディネートの提案を行ってもよい。例えば、「ファッションに自信がある?」といったアンケートに対し、利用者U1が「ファッションに自信がない」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C2及び5間の所定の位置(例えば、中間の位置)から所定の範囲内に投影された画像が示すコーディネートを、「ファッションに自信を持つために挑戦してみませんか?」といったコメントと共に提案する。すなわち、情報処理装置10は、利用者U1の将来に関する情報に基づいて、コーディネートの提案を行ってもよい。 The information processing device 10 may also suggest outfits based on information about the user U1. For example, if the user U1 answers "I'm not confident in my fashion sense" to a questionnaire such as "Are you confident in your fashion sense?", the information processing device 10 will suggest an outfit shown in an image projected within a specified range from a specified position (e.g., an intermediate position) between answers C2 and 5 in the distributed representation space F5, together with a comment such as "Why not try this to gain confidence in your fashion sense?" In other words, the information processing device 10 may suggest outfits based on information about the future of the user U1.

〔3-2.対象者に関する情報に基づくコーディネートの推定について〕
図2の例において、情報処理装置10は、分散表現空間と、利用者U1と所定の関係性を有する対象者(例えば、利用者U1が会う相手)に関する情報とに基づいて、対象者が利用者U1に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間と、対象者の属性とに基づいて、対象者が利用者U1に似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、対象者の属性情報が、「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。
[3-2. Estimating outfit coordination based on information about the subject]
In the example of FIG. 2, the information processing device 10 may estimate an outfit that the target person evaluates as looking good on the user U1 based on the distributed representation space and information about a target person having a predetermined relationship with the user U1 (for example, a person that the user U1 meets). For example, the information processing device 10 may estimate an outfit that the target person evaluates as looking good on the user U1 based on the distributed representation space and the attributes of the target person. To give a specific example, when the attribute information of the target person is "early 20s", the information processing device 10 estimates that the outfit shown in the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is the outfit that the target person evaluates as looking good on, and provides information about the outfit that corresponds to information about the user U1 and information related to the outfit to the user terminal 100.

また、例えば、情報処理装置10は、分散表現空間と、アンケートに対する対象者の回答とに基づいて、対象者が似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 For example, the information processing device 10 may estimate an outfit that the subject evaluates as looking good on the subject based on the distributed representation space and the subject's responses to a questionnaire. As a specific example, if the subject responds "I'm confident in my fashion sense" to a questionnaire such as "Are you confident in your fashion sense?", the information processing device 10 estimates that the outfit shown in the image projected within a predetermined range from the answer C5 in the distributed representation space F5 is the outfit that the subject evaluates as looking good on the subject, and provides the user terminal 100 with information about the outfit that corresponds to information about the user U1 and information related to the outfit.

また、情報処理装置10は、分散表現空間に投影された情報と、対象者に関する情報とに基づいて、対象者に関する情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、対象者が利用者に似合うと評価するコーディネートを推定してもよい。例えば、対象者の属性情報が、「20代前半、東京在住」である場合、情報処理装置10は、分散表現空間F4において、属性情報B3及びB6の中間の位置が、分散表現空間F4において対象者に関する情報を投影した場合の位置であると推定する。そして、情報処理装置10は、推定した位置から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate a position when the information about the target person is projected into the distributed representation space based on the information projected into the distributed representation space and the information about the target person, and estimate an outfit that the target person evaluates as looking good on the user based on the estimated position. For example, if the attribute information of the target person is "Early 20s, living in Tokyo", the information processing device 10 estimates that the midpoint between attribute information B3 and B6 in the distributed representation space F4 is the position when the information about the target person is projected in the distributed representation space F4. The information processing device 10 then estimates that the outfit shown in the image projected within a predetermined range from the estimated position is the outfit that the target evaluates as looking good on the user, and provides information about the outfit that corresponds to the information about the user and information related to the outfit to the user terminal 100.

これにより、例えば、対象者が利用者に似合うと評価するコーディネートを推定することができるため、これから会う人の好印象を持ってもらうために何を着ればいいかを利用者が把握することができる。 This allows, for example, the system to estimate what outfits the subject will evaluate as suiting the user, allowing the user to know what to wear to make a good impression on people they will meet.

なお、対象者が利用者U1に似合うと評価するコーディネートに関する情報を提供した場合、情報処理装置10は、当該コーディネートに対する対象者からのフィードバックを取得してもよい。例えば、情報処理装置10は、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。そして、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的である場合、情報処理装置10、分散表現空間において、対象者に対応する情報(例えば、属性情報や、アンケートに対する回答など)と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が否定的である場合、情報処理装置10は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。なお、対象者からのフィードバックは、コーディネートを示す画像に対する似合うか否かの評価とも捉えられるので、画像に対する評価(フィードバック)を行った評価者(対象者)を示す評価者情報をさらに分散表現空間に投影してもよい。 In addition, when the subject provides information on a coordination that the user U1 evaluates as suiting the user U1, the information processing device 10 may obtain feedback from the subject on the coordination. For example, the information processing device 10 obtains information (feedback) indicating whether the subject was positive about the user U1 wearing the coordination indicated by the provided information from the user terminal 100 or a terminal device used by the subject. Then, when the subject is positive about the user U1 wearing the coordination indicated by the provided information, the information processing device 10 updates the information corresponding to the subject (for example, attribute information, answers to a questionnaire, etc.) and the image showing the coordination in the distributed representation space so as to bring them closer by a predetermined distance. On the other hand, when the subject is negative about the user U1 wearing the coordination indicated by the provided information, the information processing device 10 updates the information corresponding to the subject and the image showing the coordination in the distributed representation space so as to move them apart by a predetermined distance. In addition, since the feedback from the subject can also be regarded as an evaluation of whether the image showing the coordination looks good, evaluator information indicating the evaluator (subject) who performed the evaluation (feedback) on the image may be further projected into the distributed representation space.

また、情報処理装置10は、分散表現空間と、利用者に関する情報と、利用者と所定の関係性を有する対象者に関する情報とに基づいて、利用者が自身に似合うと評価し、かつ、対象者が利用者に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間において、利用者に関する情報から所定の範囲に投影され、かつ、対象者に関する情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、情報処理装置10は、分散表現空間において、アンケートに対する利用者の回答を示す情報から所定の範囲に投影され、かつ、アンケートに対する対象者の回答を示す情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate an outfit that the user evaluates as looking good on the user and that the target evaluates as looking good on the user, based on the distributed representation space, information about the user, and information about a target person having a predetermined relationship with the user. For example, the information processing device 10 estimates that an outfit shown in an image projected into a predetermined range from information about the user and projected into a predetermined range from information about the target person in the distributed representation space is an outfit that both the user and the target evaluate as looking good, and provides information about the outfit corresponding to information about the user and information related to the outfit, etc., among the outfits. The information processing device 10 also estimates that an outfit shown in an image projected into a predetermined range from information showing the user's response to a questionnaire and projected into a predetermined range from information showing the target person's response to the questionnaire in the distributed representation space is an outfit that both the user and the target evaluate as looking good, and provides information about the outfit corresponding to information about the user and information related to the outfit, etc., among the outfits.

また、情報処理装置10は、分散表現空間に投影された情報と、利用者に関する情報と、対象者に関する情報とに基づいて、利用者と対象者の両者に基づく情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、利用者が自身に似合うと評価し、かつ、対象者が利用者に似合うと評価するコーディネートを推定してもよい。例えば、利用者の属性情報が「20代後半」であり、対象者の属性情報が「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B2及びB5の中間の位置が、分散表現空間F4において利用者と対象者の両者に対応する情報を投影した場合の位置であると推定し、当該位置から所定の範囲内に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定する。そして、情報処理装置10は、推定したコーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate a position when information based on both the user and the target is projected into the distributed representation space based on the information projected into the distributed representation space, the information about the user, and the information about the target, and estimate an outfit that the user evaluates as looking good on the user and that the target evaluates as looking good on the user based on the estimated position. For example, if the user's attribute information is "late 20s" and the target's attribute information is "early 20s", the information processing device 10 estimates that the midpoint between attribute information B2 and B5 in the distributed representation space F4 is the position when information corresponding to both the user and the target is projected in the distributed representation space F4, and estimates that the outfit shown by the image projected within a predetermined range from that position is the outfit that both the user and the target evaluate as looking good. Then, the information processing device 10 provides the user terminal 100 with information about the outfit that corresponds to the information about the user and the information related to the outfit, among the estimated outfits.

〔3-3.対象者に似合うコーディネートの推定について〕
図2の例において、情報処理装置10は、分散表現空間と、利用者U1と所定の関係性を有する対象者(例えば、利用者U1がプレゼントを贈る相手)に関する情報とに基づいて、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間と、対象者の属性とに基づいて、対象者が自身に似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、対象者の属性情報が、「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報(属性情報、身体的な情報(身長、体重、体型、骨格、髪型、髪の色、肌の色、瞳の色等)等)や、コーディネートに関連する情報などに対応するコーディネート(例えば、対象者が女性である場合には、女性向けのコーディネート)に関する情報を利用者端末100に提供する。
[3-3. Estimating the best outfit for the subject]
In the example of FIG. 2, the information processing device 10 may estimate an outfit that the target person evaluates as looking good on the user U1 based on the distributed representation space and information about a target person having a predetermined relationship with the user U1 (for example, a person to whom the user U1 gives a present). For example, the information processing device 10 may estimate an outfit that the target person evaluates as looking good on the target person based on the distributed representation space and the attributes of the target person. To give a specific example, when the attribute information of the target person is "early 20s", the information processing device 10 estimates that the outfit shown by the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is an outfit that the target person evaluates as looking good on, and provides the user terminal 100 with information about the outfit (attribute information, physical information (height, weight, body type, bone structure, hairstyle, hair color, skin color, eye color, etc.)) and information related to the outfit (for example, if the target person is a woman, an outfit for women) corresponding to the outfit.

また、例えば、情報処理装置10は、分散表現空間と、アンケートに対する対象者の回答とに基づいて、対象者が自身に似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 For example, the information processing device 10 may estimate an outfit that the subject evaluates as looking good on the subject based on the distributed representation space and the subject's responses to a questionnaire. As a specific example, if the subject responds "I'm confident in my fashion sense" to a questionnaire such as "Are you confident in your fashion sense?", the information processing device 10 estimates that the outfit shown in the image projected within a predetermined range from the answer C5 in the distributed representation space F5 is the outfit that the subject evaluates as looking good on the subject, and provides information about the outfit that corresponds to information about the subject and information related to the outfit to the user terminal 100.

また、情報処理装置10は、分散表現空間に投影された情報と、対象者に関する情報とに基づいて、対象者に関する情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、対象者の属性情報が、「20代前半、東京在住」である場合、情報処理装置10は、分散表現空間F4において、属性情報B3及びB6の中間の位置が、分散表現空間F4において対象者に関する情報を投影した場合の位置であると推定する。そして、情報処理装置10は、推定した位置から所定の範囲内に投影された画像が示すコーディネートを、対象者が自身に似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate a position when the information about the subject is projected into the distributed representation space based on the information projected into the distributed representation space and the information about the subject, and estimate an outfit that the subject evaluates as suiting the subject based on the estimated position. For example, if the attribute information of the subject is "Early 20s, living in Tokyo", the information processing device 10 estimates that the midpoint between attribute information B3 and B6 in the distributed representation space F4 is the position when the information about the subject is projected in the distributed representation space F4. The information processing device 10 then estimates that the outfit shown in the image projected within a predetermined range from the estimated position is the outfit that the subject evaluates as suiting the subject, and provides information about the outfit that corresponds to the information about the subject and information related to the outfit to the user terminal 100.

なお、対象者が自身に似合うと評価するコーディネートに関する情報を提供した場合、情報処理装置10は、当該コーディネートに対する対象者からのフィードバックを取得してもよい。例えば、情報処理装置10は、提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際に、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。そして、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が肯定的である場合、情報処理装置10は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が否定的である場合、情報処理装置10は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。なお、対象者からのフィードバックは、コーディネートを示す画像に対する似合うか否かの評価とも捉えられるので、画像に対する評価(フィードバック)を行った評価者(対象者)を示す評価者情報をさらに分散表現空間に投影してもよい。 In addition, when the subject provides information on a coordination that the subject evaluates as suiting the subject, the information processing device 10 may obtain feedback from the subject on the coordination. For example, the information processing device 10 obtains information (feedback) indicating whether the subject was positive or not when the user U1 presented the subject with clothes included in the coordination indicated by the provided information from the user terminal 100 or a terminal device used by the subject. Then, when the user U1 presented the subject with clothes included in the coordination indicated by the information provided to the user U1, if the subject was positive, the information processing device 10 updates the information corresponding to the subject and the image showing the coordination in the distributed representation space so as to bring them closer by a predetermined distance. On the other hand, when the user U1 presented the subject with clothes included in the coordination indicated by the information provided to the user U1, if the subject was negative, the information processing device 10 updates the information corresponding to the subject and the image showing the coordination in the distributed representation space so as to move them apart by a predetermined distance. In addition, since feedback from the subject can be interpreted as an evaluation of whether or not an image showing an outfit looks good, evaluator information indicating the evaluator (subject) who evaluated (gave feedback to) the image may be further projected into the distributed representation space.

また、情報処理装置10は、分散表現空間と、利用者に関する情報と、利用者と所定の関係性を有する対象者に関する情報とに基づいて、利用者が対象者に似合うと評価し、かつ、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間において、利用者に関する情報から所定の範囲に投影され、かつ、対象者に関する情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、情報処理装置10は、分散表現空間において、アンケートに対する利用者の回答を示す情報から所定の範囲に投影され、かつ、アンケートに対する対象者の回答を示す情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate, based on the distributed representation space, information about the user, and information about a subject having a predetermined relationship with the user, an outfit that the user evaluates as looking good on the subject and that the subject evaluates as looking good on the subject. For example, the information processing device 10 estimates that an outfit shown in an image projected from information about the user and from information about the subject in the distributed representation space to a predetermined range is an outfit that both the user and the subject evaluate as looking good, and provides the user terminal 100 with information about the outfit that corresponds to information about the subject and information related to the outfit, among the outfits. The information processing device 10 also estimates that an outfit shown in an image projected from information indicating the user's response to a questionnaire to a predetermined range and from information indicating the subject's response to the questionnaire to a predetermined range is an outfit that both the user and the subject evaluate as looking good, and provides the user terminal 100 with information about the outfit that corresponds to information about the subject and information related to the outfit, among the outfits.

また、情報処理装置10は、分散表現空間に投影された情報と、利用者に関する情報と、対象者に関する情報とに基づいて、利用者と対象者の両者に基づく情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、利用者が対象者に似合うと評価し、かつ、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、利用者の属性情報が「20代後半」であり、対象者の属性情報が「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B2及びB5の中間の位置が、分散表現空間F4において利用者と対象者の両者に対応する情報を投影した場合の位置であると推定し、当該位置から所定の範囲内に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定する。そして、情報処理装置10は、推定したコーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate the position of information based on both the user and the target person projected into the distributed representation space based on the information projected into the distributed representation space, the information about the user, and the information about the target person, and estimate an outfit that the user evaluates as looking good on the target person and that the target person evaluates as looking good on himself/herself based on the estimated position. For example, if the user's attribute information is "late 20s" and the target person's attribute information is "early 20s", the information processing device 10 estimates that the midpoint between attribute information B2 and B5 in the distributed representation space F4 is the position of information corresponding to both the user and the target person projected in the distributed representation space F4, and estimates that the outfit shown by the image projected within a predetermined range from that position is the outfit that both the user and the target person evaluate as looking good on them. Then, the information processing device 10 provides the user terminal 100 with information about the outfit that corresponds to the information about the target person and information related to the outfit, among the estimated outfits.

〔3-4.着用者及び利用者の画像に基づくコーディネートの推定について〕
図2の例において、情報処理装置10は、着用者の顔を示す画像を投影した分散表現空間と、所定の対象(利用者、対象者など)の顔の画像とに基づいて、当該対象に似合うコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、顔の特徴量が、利用者U1の顔の特徴量と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。
3-4. Estimating outfit coordination based on images of the wearer and user
In the example of Fig. 2, the information processing device 10 may estimate an outfit that suits a specific target (user, target person, etc.) based on the distributed representation space onto which an image showing the wearer's face is projected and an image of the face of the target. For example, the information processing device 10 estimates that, among the outfits #1, #3, and #4 estimated based on the distributed representation space F4 and the attribute information of user U1, an outfit worn by a wearer whose facial features are similar to those of user U1 is an outfit that suits the user.

また、情報処理装置10は、着用者の体型を示す画像を投影した分散表現空間と、所定の対象の体型を示す画像とに基づいて、当該対象に似合うコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、体型(例えば、細め、太め)が利用者U1の体型と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。 In addition, the information processing device 10 may estimate an outfit that suits a specific target based on a distributed representation space onto which an image showing the wearer's body type is projected and an image showing the body type of the target. For example, the information processing device 10 estimates that, among the outfits #1, #3, and #4 estimated based on the distributed representation space F4 and the attribute information of user U1, the outfit worn by a wearer whose body type (e.g., thin, chubby) is similar to that of user U1 is the outfit that suits the user.

〔3-5.対象者に関する情報に基づく態様での画像の出力について〕
図4の例において、情報処理装置10は、CNNと、利用者U1と所定の関係性を有する対象者(例えば、利用者U1が会う相手)に関する情報とに基づく態様で、コーディネートを示す画像を出力してもよい。例えば、画像P1を利用者U1に提供する場合、情報処理装置10は、対象者の分散表現(例えば、属性情報等に基づく分散表現)と類似する評価者を特定する。そして、情報処理装置10は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが低いと判定し、判定した度合いに応じた態様で画像P1を出力する。
[3-5. Output of images based on information about the subject]
In the example of FIG. 4, the information processing device 10 may output an image showing a coordination in a manner based on the CNN and information on a subject having a predetermined relationship with the user U1 (e.g., a person the user U1 meets). For example, when providing the image P1 to the user U1, the information processing device 10 identifies an evaluator who is similar to the distributed representation of the subject (e.g., a distributed representation based on attribute information, etc.). Then, the information processing device 10 determines that the subject evaluates the clothes as being suitable for the user U1 to a higher degree as indicated by the region in which the region vector is more similar to the distributed representation of the identified evaluator, and determines that the subject evaluates the clothes as being suitable for the user U1 to a lower degree as indicated by the region in which the region vector is less similar to the distributed representation of the evaluator, and outputs the image P1 in a manner according to the degree determined.

なお、情報処理装置10は、画像P1を出力する際に、各領域の被服を、対象者が利用者U1に似合うと評価する度合いに応じた情報とともに画像P1を出力してもよい。例えば、対象者が利用者U1に似合うと評価する度合いが高い領域が示す被服の購入を提案する情報や、当該度合いが低い領域に含まれる被服の着用を避けることを提案する旨の情報、当該度合いが高い領域に含まれる被服を活かした他のコーディネートに関する情報などとともに、画像P1-1を出力する。 When outputting image P1, information processing device 10 may output image P1 together with information according to the degree to which the subject evaluates that the clothes in each region suit user U1. For example, image P1-1 may be output together with information suggesting the purchase of clothes indicated by regions that the subject evaluates highly as suiting user U1, information suggesting the avoidance of wearing clothes included in regions with a low degree of evaluation, information on other coordinations that utilize clothes included in regions with a high degree of evaluation, etc.

〔4.情報処理装置の構成〕
次に、図5を用いて、情報処理装置10の構成について説明する。図5は、実施形態に係る情報処理装置10の構成例を示す図である。図5に示すように、情報処理装置10は、通信部20と、記憶部30と、制御部40とを有する。
4. Configuration of information processing device
Next, the configuration of the information processing device 10 will be described with reference to Fig. 5. Fig. 5 is a diagram showing an example of the configuration of the information processing device 10 according to an embodiment. As shown in Fig. 5, the information processing device 10 has a communication unit 20, a storage unit 30, and a control unit 40.

(通信部20について)
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、利用者端末100、評価者端末200等との間で情報の送受信を行う。
(Regarding communication unit 20)
The communication unit 20 is realized by, for example, a network interface card (NIC) etc. The communication unit 20 is connected to the network N by wire or wirelessly, and transmits and receives information between the user terminal 100, the evaluator terminal 200, etc.

(記憶部30について)
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部30は、評価者情報データベース31と、利用者情報データベース32とを有する。
(Regarding the storage unit 30)
The storage unit 30 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 3, the storage unit 30 has an evaluator information database 31 and a user information database 32.

(評価者情報データベース31について)
評価者情報データベース31は、評価者に関する各種の情報を記憶する。ここで、図6を用いて、評価者情報データベース31が記憶する情報の一例を説明する。図6は、実施形態に係る評価者情報データベース31の一例を示す図である。図6の例において、評価者情報データベース31は、「評価者ID」、「属性情報」、「アンケート情報」、「評価情報」といった項目を有する。
(Regarding the evaluator information database 31)
The evaluator information database 31 stores various types of information related to evaluators. An example of information stored in the evaluator information database 31 will now be described with reference to Fig. 6. Fig. 6 is a diagram showing an example of the evaluator information database 31 according to an embodiment. In the example of Fig. 6, the evaluator information database 31 has items such as "evaluator ID", "attribute information", "questionnaire information", and "evaluation information".

「評価者ID」は、評価者を識別するための識別情報を示す。「属性情報」は、評価者の属性情報を示す。「アンケート情報」は、所定のアンケートに対する評価者の回答を示す。「評価情報」は、評価者による評価に関する情報を示し、「対象ID」、「画像情報」、「被服情報」、「着用者情報」、「評価」といった項目を有する。 "Evaluator ID" indicates identification information for identifying the evaluator. "Attribute information" indicates attribute information of the evaluator. "Survey information" indicates the evaluator's response to a specified questionnaire. "Evaluation information" indicates information regarding the evaluation by the evaluator, and has items such as "Subject ID," "Image information," "Clothing information," "Wearer information," and "Evaluation."

「対象ID」は、評価の対象(画像)を識別するための識別情報を示す。「画像情報」は、評価の対象である画像を示す。「被服情報」は、画像が示すコーディネートに含まれる被服に関する情報を示し、例えば、被服を識別するための識別情報等が格納される。「着用者情報」は、画像が示す着用者に関する情報を示し、例えば、着用者を識別するための識別情報や、着用者の属性情報や身体的な情報などといった情報が格納される。「評価」は、画像に対する評価者の評価を示す。 "Subject ID" indicates identification information for identifying the subject (image) of evaluation. "Image information" indicates the image that is the subject of evaluation. "Clothing information" indicates information about the clothes included in the outfit shown in the image, and for example, identification information for identifying the clothes is stored. "Wearer information" indicates information about the wearer shown in the image, and for example, identification information for identifying the wearer, attribute information and physical information of the wearer are stored. "Evaluation" indicates the evaluator's evaluation of the image.

すなわち、図6では、評価者ID「AID#1」により識別される評価者の属性情報が「属性情報#1」、アンケート情報が「アンケート情報#1」、対象ID「DID#1」により識別される評価の対象の画像情報が「画像情報#1」、被服情報が「被服情報#1」、着用者情報が「着用者情報#1」、評価が「評価#1」である例を示す。 In other words, Figure 6 shows an example in which the attribute information of the evaluator identified by the evaluator ID "AID#1" is "attribute information #1", the questionnaire information is "questionnaire information #1", the image information of the evaluation target identified by the target ID "DID#1" is "image information #1", the clothing information is "clothing information #1", the wearer information is "wearer information #1", and the evaluation is "evaluation #1".

(利用者情報データベース32について)
利用者情報データベース32は、利用者に関する各種の情報を記憶する。ここで、図7を用いて、利用者情報データベース32が記憶する情報の一例を説明する。図7は、実施形態に係る利用者情報データベース32の一例を示す図である。図7の例において、利用者情報データベース32は、「利用者ID」、「属性情報」、「アンケート情報」、「利用者画像」、「フィードバック情報」といった項目を有する。
(Regarding the user information database 32)
The user information database 32 stores various types of information related to users. An example of information stored in the user information database 32 will now be described with reference to Fig. 7. Fig. 7 is a diagram showing an example of the user information database 32 according to the embodiment. In the example of Fig. 7, the user information database 32 has items such as "user ID", "attribute information", "survey information", "user image", and "feedback information".

「利用者ID」は、利用者を識別するための識別情報を示す。「属性情報」は、利用者の属性情報を示す。「アンケート情報」は、所定のアンケートに対する利用者の回答を示す。「利用者画像」は、利用者の顔や体型を示す画像を示す。「フィードバック情報」は、利用者に提供した情報に対する利用者からのフィードバックに関する情報を示す。 "User ID" indicates identification information for identifying a user. "Attribute information" indicates the user's attribute information. "Survey information" indicates the user's response to a specific survey. "User image" indicates an image showing the user's face and body type. "Feedback information" indicates information regarding feedback from the user regarding information provided to the user.

すなわち、図7では、利用者ID「UID#1」により識別される利用者の属性情報が「属性情報#11」、アンケート情報が「アンケート情報#11」、利用者画像が「利用者画像#1」、フィードバック情報が「フィードバック情報#1」である例を示す。 In other words, Figure 7 shows an example in which the attribute information of a user identified by user ID "UID#1" is "attribute information #11", the survey information is "survey information #11", the user image is "user image #1", and the feedback information is "feedback information #1".

(制御部40について)
制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部40は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。実施形態に係る制御部40は、図5に示すように、受付部41と、生成部42と、推定部43と、提供部44と、判定部45と、出力部46と、取得部47と、更新部48とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
(Regarding the control unit 40)
The control unit 40 is a controller, and is realized, for example, by a central processing unit (CPU) or a micro processing unit (MPU) executing various programs stored in a storage device inside the information processing device 10 using a RAM as a working area. The control unit 40 is also a controller, and is realized, for example, by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). As shown in FIG. 5, the control unit 40 according to the embodiment has a reception unit 41, a generation unit 42, an estimation unit 43, a provision unit 44, a determination unit 45, an output unit 46, an acquisition unit 47, and an update unit 48, and realizes or executes the functions and actions of information processing described below.

(受付部41について)
受付部41は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける。例えば、図2の例において、受付部41は、画像P1及びP2の組を評価者に提示し、2つの画像を比較して、いずれの画像のコーディネートが着用者に似合っており、いずれの画像のコーディネートが着用者に似合わないかを示す評価を受け付け、評価者情報データベース31に格納する。
(Regarding the reception unit 41)
The receiving unit 41 receives, from a plurality of evaluators, evaluations of an image of a wearer wearing a combination of a plurality of clothes, indicating whether the combination suits the wearer. For example, in the example of Fig. 2, the receiving unit 41 presents a pair of images P1 and P2 to the evaluators, compares the two images, and receives evaluations indicating which of the images suits the wearer and which of the images does not suit the wearer, and stores the evaluations in the evaluator information database 31.

また、受付部41は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付けてもよい。例えば、図4の例において、受付部41は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているっているか否かを示す評価を受け付ける。 The reception unit 41 may also receive evaluations from multiple evaluators of an image of a wearer wearing a combination of multiple clothes, indicating whether the combination suits the wearer. For example, in the example of FIG. 4, the reception unit 41 receives evaluations indicating whether outfit #1 shown in image P1 suits wearer #1 shown in image P1.

(生成部42について)
生成部42は、受付部41により受け付けられた評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する。例えば、図2の例において、生成部42は、評価者情報データベース31を参照し、VSEの技術を用いて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する。
(Regarding the generation unit 42)
The generating unit 42 generates a distributed representation space onto which the image and the evaluator information indicating the evaluator are projected, based on the evaluation received by the receiving unit 41. For example, in the example of Fig. 2, the generating unit 42 refers to the evaluator information database 31 and uses the VSE technology to generate a distributed representation space onto which the image and the evaluator information indicating the evaluator are projected.

また、生成部42は、評価者が、組み合わせが着用者に似合っていると高く評価するほど、分散表現空間において画像と、評価者情報とをより近い位置に投影し、評価者が、組み合わせが着用者に似合っていないと低く評価するほど、分散表現空間において画像と、評価者情報とをより遠い位置に投影してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1を投影した分散表現空間F1を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2を投影した分散表現空間F1を生成する。 The generation unit 42 may project the image and the evaluator information closer to the distributed representation space as the evaluator evaluates the combination as being suitable for the wearer, and may project the image and the evaluator information farther away in the distributed representation space as the evaluator evaluates the combination as being unsuitable for the wearer. For example, in the example of FIG. 2, the generation unit 42 generates a distributed representation space F1 in which the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". The generation unit 42 also generates a distributed representation space F1 in which the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

また、生成部42は、評価に基づいて、さらに組み合わせに含まれる被服を示す情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服I1の画像を投影した分散表現空間F2を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服I2の画像を投影した分散表現空間F2を生成する。 The generating unit 42 may also generate a distributed representation space in which information indicating the clothes included in the combination is further projected based on the evaluation. For example, in the example of FIG. 2, the generating unit 42 generates a distributed representation space F2 in which an image of the clothes I1 included in the outfit shown by the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". The generating unit 42 also generates a distributed representation space F2 in which an image of the clothes I2 included in the outfit shown by the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than to the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

また、生成部42は、評価に基づいて、さらに組み合わせが属するカテゴリを示す情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートのカテゴリT1(カジュアル)を投影した分散表現空間F3を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2のカテゴリT2(デート)を投影した分散表現空間F3を生成する。 The generating unit 42 may also generate a distributed representation space in which information indicating a category to which the combination belongs is further projected based on the evaluation. For example, in the example of FIG. 2, the generating unit 42 generates a distributed representation space F3 in which the category T1 (casual) of the coordination indicated by the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". The generating unit 42 also generates a distributed representation space F3 in which the category T2 (date) of the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than to the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

また、生成部42は、評価に基づいて、さらに組み合わせに含まれる被服を提供する提供元を示す情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。 The generating unit 42 may also generate a distributed representation space in which information indicating the source of the clothes included in the combination is projected based on the evaluation. For example, in the example of FIG. 2, the generating unit 42 generates a distributed representation space in which information indicating the source of the clothes included in the coordination shown by the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". The generating unit 42 also generates a distributed representation space in which information indicating the source of the clothes included in the coordination shown by the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than to the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

また、生成部42は、評価者の属性を示す評価者情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2の属性情報よりも、画像P1を「似合う」と評価した評価者A1の属性情報の近くに、画像P1を投影した分散表現空間F4を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1の属性情報よりも、画像P2を「似合う」と評価した評価者A2の属性情報の近くに、画像P2を投影した分散表現空間F4を生成する。 The generating unit 42 may also generate a distributed representation space in which evaluator information indicating the attributes of the evaluators is projected. For example, in the example of FIG. 2, the generating unit 42 generates a distributed representation space F4 in which the image P1 is projected closer to the attribute information of the evaluator A1 who evaluated the image P1 as "suitable" than to the attribute information of the evaluator A2 who evaluated the image P1 as "unsuitable". The generating unit 42 also generates a distributed representation space F4 in which the image P2 is projected closer to the attribute information of the evaluator A2 who evaluated the image P2 as "suitable" than to the attribute information of the evaluator A1 who evaluated the image P2 as "unsuitable".

また、生成部42は、所定のアンケートに対する評価者の回答を示す評価者情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2の回答よりも、画像P1を「似合う」と評価した評価者A1の回答の近くに、画像P1を投影した分散表現空間F5を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1の回答よりも、画像P2を「似合う」と評価した評価者A2の回答の近くに、画像P2を投影した分散表現空間F5を生成する。 The generating unit 42 may also generate a distributed representation space in which evaluator information indicating the evaluator's responses to a predetermined questionnaire is projected. For example, in the example of FIG. 2, the generating unit 42 generates a distributed representation space F5 in which the image P1 is projected closer to the response of the evaluator A1 who evaluated the image P1 as "suitable" than to the response of the evaluator A2 who evaluated the image P1 as "not suitable". The generating unit 42 also generates a distributed representation space F5 in which the image P2 is projected closer to the response of the evaluator A2 who evaluated the image P2 as "suitable" than to the response of the evaluator A1 who evaluated the image P2 as "not suitable".

また、生成部42は、受付部41により受け付けられた評価に基づいて、畳み込みニューラルネットワークを生成してもよい。例えば、図4の例において、生成部42は、画像と、画像に対する評価者の評価と、評価者に関する評価者情報とを含む学習用データを用いてCNNを生成する。 The generating unit 42 may generate a convolutional neural network based on the evaluations received by the receiving unit 41. For example, in the example of FIG. 4, the generating unit 42 generates a CNN using learning data including images, evaluators' evaluations of the images, and evaluator information related to the evaluators.

(推定部43について)
推定部43は、分散表現空間と、利用者に関する情報とに基づいて、当該利用者に似合う複数の被服の組み合わせを推定する。例えば、図2の例において、推定部43は、電子商取引サービスや、コーディネートサービスを介した、利用者端末100からのコーディネートの提供要求に応じて、利用者情報データベース32を参照し、生成された分散表現空間と、利用者U1に関する情報とに基づき、利用者U1に似合うコーディネートを推定する。
(Regarding the estimation unit 43)
The estimation unit 43 estimates a combination of multiple clothes that suits the user based on the distributed representation space and information about the user. For example, in the example of Fig. 2, the estimation unit 43 refers to the user information database 32 in response to a request for coordination from the user terminal 100 via an electronic commerce service or a coordination service, and estimates a coordination that suits the user U1 based on the generated distributed representation space and information about the user U1.

また、推定部43は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う複数の被服の組み合わせを推定してもよい。例えば、図2の例において、推定部43は、電子商取引サービスや、コーディネートサービスを介した、利用者端末100からのコーディネートの提供要求に応じて、生成された分散表現空間に基づき、利用者U1に似合うコーディネートを推定する。 The estimation unit 43 may also estimate a combination of multiple clothes that suits a specific target based on a distributed representation space in which an image of a wearer wearing a combination of multiple clothes is projected and evaluator information indicating the evaluators is projected, the image being generated based on evaluations of the image of a wearer wearing a combination of multiple clothes, the evaluations being based on evaluations from multiple evaluators indicating whether the combination suits the wearer. For example, in the example of FIG. 2, the estimation unit 43 estimates a coordination that suits user U1 based on the generated distributed representation space in response to a request for coordination from user terminal 100 via an electronic commerce service or a coordination service.

また、推定部43は、分散表現空間と、利用者に関する情報とに基づいて、利用者に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、生成された分散表現空間と、利用者U1に関する情報とに基づき、利用者U1に似合うコーディネートを推定する。 The estimation unit 43 may also estimate a combination that suits a user based on the distributed representation space and information about the user. For example, in the example of FIG. 2, the estimation unit 43 estimates an outfit that suits user U1 based on the generated distributed representation space and information about user U1.

また、推定部43は、利用者の属性、利用者が選択した被服のカテゴリ、所定のアンケートに対する利用者の回答のうち少なくともいずれかに基づいて、利用者に似合う組み合わせを推定してもよい。例えば、図2の例において、利用者U1の属性情報が、「20代後半」である場合、推定部43は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、利用者U1がカテゴリ「カジュアル」を選択したことを示す情報を受け付けた場合、推定部43は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートであって、分散表現空間F3において、カテゴリT1から所定の範囲内に投影された画像が示すコーディネートを、カテゴリ「カジュアル」において利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1の属性情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、「ファッションに自信がある?」といったアンケートに対し、利用者U1が「ファッションに自信がない」と回答した場合、推定部43は、分散表現空間F5において、回答C2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The estimation unit 43 may also estimate a combination that suits the user based on at least one of the user's attributes, the category of clothing selected by the user, and the user's response to a predetermined questionnaire. For example, in the example of FIG. 2, when the attribute information of user U1 is "late 20s", the estimation unit 43 estimates that the coordination shown by the image projected within a predetermined range from the attribute information B2 in the distributed representation space F4 is a coordination that suits the user U1, and provides the user terminal 100 with information on the coordination corresponding to the information on the user U1 and information related to the coordination among the coordination. Furthermore, when information indicating that user U1 has selected the category "casual" is received, the estimation unit 43 estimates that the coordination shown by the image projected within a predetermined range from the attribute information B2 in the distributed representation space F4 and the image projected within a predetermined range from the category T1 in the distributed representation space F3 is a coordination that suits the user U1 in the category "casual", and provides the user terminal 100 with information on the coordination corresponding to the attribute information of user U1 and information related to the coordination among the coordination. Furthermore, if user U1 responds "I'm not confident in my fashion sense" to a questionnaire such as "Are you confident in your fashion sense?", the estimation unit 43 estimates that the coordination shown in the image projected within a predetermined range from the answer C2 in the distributed representation space F5 is a coordination that suits user U1, and provides information about the coordination that corresponds to information about user U1 and information related to the coordination to the user terminal 100.

また、推定部43は、分散表現空間と、対象者に関する情報とに基づいて、当該対象者が利用者に似合うと評価する組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間と、利用者U1と所定の関係性を有する対象者に関する情報とに基づいて、対象者が利用者U1に似合うと評価するコーディネートを推定する。 The estimation unit 43 may also estimate a combination that the subject evaluates as suiting the user based on the distributed representation space and information about the subject. For example, in the example of FIG. 2, the estimation unit 43 estimates an outfit that the subject evaluates as suiting user U1 based on the distributed representation space and information about a subject who has a predetermined relationship with user U1.

また、推定部43は、対象者の属性、所定のアンケートに対する対象者の回答のうち少なくともいずれかに基づいて、対象者が利用者に似合うと評価する組み合わせを推定してもよい。例えば、図2の例において、対象者の属性情報が、「20代前半」である場合、推定部43は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、推定部43は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The estimation unit 43 may estimate a combination that the subject evaluates as looking good on the user based on at least one of the subject's attributes and the subject's response to a predetermined questionnaire. For example, in the example of FIG. 2, when the subject's attribute information is "early 20s", the estimation unit 43 estimates that the coordination shown by the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is the coordination that the subject evaluates as looking good on the user, and provides the user terminal 100 with information on the coordination corresponding to the information on the user U1 and information related to the coordination among the coordination. In addition, when the subject responds to a questionnaire such as "Are you confident in your fashion sense?" with "I am confident in my fashion sense", the estimation unit 43 estimates that the coordination shown by the image projected within a predetermined range from the response C5 in the distributed representation space F5 is the coordination that the subject evaluates as looking good on the user, and provides the user terminal 100 with information on the coordination corresponding to the information on the user U1 and information related to the coordination among the coordination.

また、推定部43は、分散表現空間と、対象者に関する情報とに基づいて、当該対象者に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間と、利用者U1と所定の関係性を有する対象者に関する情報とに基づいて、対象者が自身に似合うと評価するコーディネートを推定する。 The estimation unit 43 may also estimate a combination that suits the subject based on the distributed representation space and information about the subject. For example, in the example of FIG. 2, the estimation unit 43 estimates an outfit that the subject evaluates as suiting the subject based on the distributed representation space and information about the subject who has a predetermined relationship with user U1.

また、推定部43は、対象者の属性、所定のアンケートに対する対象者の回答のうち少なくともいずれかに基づいて、対象者に似合う組み合わせを推定してもよい。例えば、図2の例において、対象者の属性情報が、「20代前半」である場合、推定部43は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、推定部43は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The estimation unit 43 may estimate a combination that suits the subject based on at least one of the subject's attributes and the subject's response to a predetermined questionnaire. For example, in the example of FIG. 2, if the subject's attribute information is "early 20s", the estimation unit 43 estimates that the coordination shown in the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is a coordination that the subject evaluates as looking good on the subject, and provides the user terminal 100 with information on the coordination corresponding to the information on the subject and information related to the coordination. In addition, if the subject responds to a questionnaire such as "Are you confident in your fashion sense?" with "I am confident in my fashion sense", the estimation unit 43 estimates that the coordination shown in the image projected within a predetermined range from the response C5 in the distributed representation space F5 is a coordination that the subject evaluates as looking good on the subject, and provides the user terminal 100 with information on the coordination corresponding to the information on the subject and information related to the coordination.

また、推定部43は、着用者の顔を示す画像を投影した分散表現空間と、所定の対象の顔を示す画像とに基づいて、所定の対象に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、顔の特徴量が、利用者U1の顔の特徴量と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。 The estimation unit 43 may also estimate a combination that suits a specific target based on the distributed representation space onto which an image showing the wearer's face is projected and an image showing the face of the specific target. For example, in the example of FIG. 2, the estimation unit 43 estimates that, of the coordinations #1, #3, and #4 estimated based on the distributed representation space F4 and the attribute information of user U1, the coordination worn by a wearer whose facial features are similar to the facial features of user U1 is the coordination that suits the user.

また、推定部43は、着用者の体型を示す画像を投影した分散表現空間と、所定の対象の体型を示す画像とに基づいて、所定の対象に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、体型が利用者U1の体型と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。 The estimation unit 43 may also estimate a combination that suits a specific target based on the distributed representation space onto which an image showing the wearer's body type is projected and an image showing the body type of the specific target. For example, in the example of FIG. 2, the estimation unit 43 estimates that of the coordinations #1, #3, and #4 estimated based on the distributed representation space F4 and the attribute information of user U1, the coordination worn by a wearer whose body type is similar to that of user U1 is the coordination that suits the user.

また、推定部43は、組み合わせが所定の対象に似合う度合いをさらに推定してもよい。例えば、図4の例において、推定部43は、分散表現空間F4において属性情報B2からより近い画像が示すコーディネートに関する情報ほど、利用者U1に似合う度合いが高いと推定する。 The estimation unit 43 may further estimate the degree to which the combination suits a specific target. For example, in the example of FIG. 4, the estimation unit 43 estimates that the closer the information on the coordination indicated by the image in the distributed representation space F4 is to the attribute information B2, the more the combination suits the user U1.

(提供部44について)
提供部44は、推定部43により推定された組み合わせに関する組み合わせ情報を利用者に提供する。例えば、図2の例において、提供部44は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、電子商取引サービスにおいて提供する。また、提供部44は、コーディネート#1、#3及び#4の情報を、コーディネートサービスにおいて提供する。
(Regarding the providing unit 44)
The providing unit 44 provides the user with combination information regarding the combination estimated by the estimating unit 43. For example, in the example of Fig. 2, the providing unit 44 provides information on coordination #1, #3, and #4 and information on the clothes included in coordination #1, #3, and #4 in the electronic commerce service. The providing unit 44 also provides information on coordination #1, #3, and #4 in the coordination service.

また、提供部44は、推定部43により推定された組み合わせに関する情報を利用者に提供してもよい。例えば、図2の例において、提供部44は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、電子商取引サービスにおいて提供する。また、提供部44は、コーディネート#1、#3及び#4の情報を、コーディネートサービスにおいて提供する。 The providing unit 44 may also provide information on the combinations estimated by the estimating unit 43 to the user. For example, in the example of FIG. 2, the providing unit 44 provides information on outfits #1, #3, and #4, and information on the clothes included in outfits #1, #3, and #4, in the e-commerce service. The providing unit 44 also provides information on outfits #1, #3, and #4 in the coordination service.

また、提供部44は、組み合わせを度合いに応じた態様で提供してもよい。例えば、図2の例において、提供部44は、分散表現空間F4において属性情報B2からより近い画像が示すコーディネートに関する情報ほど、利用者U1に似合う度合いが高いと推定し、優先度を高くして提供する。 The providing unit 44 may also provide combinations in a manner according to the degree of suitability. For example, in the example of FIG. 2, the providing unit 44 estimates that the closer the information on the coordination shown by an image in the distributed representation space F4 is to the attribute information B2, the more suitable the information is for the user U1, and provides the information with a higher priority.

ここで、図8及び9を用いて、被服の組み合わせに関する情報を利用者端末100に提供する際の態様について説明する。まず、図8を用いて、電子商取引サービスにおいて被服の組み合わせに関する情報を提供する態様について説明する。図8は、利用者端末100の画面の一例を示す図(1)である。 Now, using Figures 8 and 9, we will explain how information on clothing combinations is provided to the user terminal 100. First, using Figure 8, we will explain how information on clothing combinations is provided in an electronic commerce service. Figure 8 is a diagram (1) showing an example of a screen of the user terminal 100.

図8に示すように、提供部44は、電子商取引サービスにおいて利用者U1が入力した検索クエリ「Tシャツ」若しくは「カットソー」に対応する検索結果を示す画面SC1を提供する。例えば、提供部44は、Tシャツ若しくはカットソーが含まれるコーディネートを示す画像を、画像が示すコーディネートが利用者U1に似合う度合いが高い順に示す画面SC1(言い換えると、プルダウンを示す領域AR1において、利用者U1に似合う順に表示することが指定された画面SC1)を提供する。また、提供部44は、領域AR1のプルダウンに表示される情報(すなわち、検索結果の絞り込みの条件)として、「対象者があなた(利用者U1)に似合うと評価する順」や、「対象者が自身に似合うと評価する順」などといった情報を指定可能に表示する。 As shown in FIG. 8, the providing unit 44 provides a screen SC1 showing search results corresponding to the search query "T-shirt" or "cut and sew" entered by the user U1 in the e-commerce service. For example, the providing unit 44 provides a screen SC1 showing images of outfits including T-shirts or cut and sews in order of how well the outfits shown in the images look on the user U1 (in other words, a screen SC1 in which the order of how well the items look on the user U1 is specified in the area AR1 showing the pull-down menu). The providing unit 44 also displays information such as "the order in which the subject evaluates that the items look good on you (user U1)" or "the order in which the subject evaluates that the items look good on themselves" in a manner that allows the user to specify information to be displayed in the pull-down menu of area AR1 (i.e., conditions for narrowing down the search results).

例えば、「対象者があなたに似合うと評価する順」が領域AR1において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順(言い換えると、対象者が利用者U1に似合うと評価する度合いが高い順)に表示する画面SC1を提供する。なお、このような場合、情報処理装置10は、電子商取引サービスにおいて対象者を識別するための情報(言い換えると、対象者に関する情報と紐付けられた対象者ID)や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC1を提供する。 For example, when "in order of how the target person evaluates that it suits you" is specified in area AR1, the providing unit 44 provides a screen SC1 that displays images showing coordinations corresponding to information about the user U1 and information related to the coordination, among images projected within a predetermined range from information about the target person in the distributed representation space, in the order of how close the images are to the target person (in other words, in order of how highly the target person evaluates that it suits user U1). Note that in such a case, the information processing device 10 may receive information for identifying the target person in the electronic commerce service (in other words, a target person ID linked to information about the target person) and information about the target person from the user U1. The providing unit 44 then provides the screen SC1 based on the information received from the user U1.

また、「対象者が自身に似合うと評価する順」が領域AR1において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順(言い換えると、対象者が利用者U1に似合うと評価する度合いが高い順)に表示する画面SC1を提供する。なお、このような場合、情報処理装置10は、電子商取引サービスにおいて対象者を識別するための情報や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC1を提供する。 Furthermore, when "the order in which the subject evaluates that it suits him/her" is specified in area AR1, the providing unit 44 provides a screen SC1 that displays images projected within a predetermined range from information about the subject in the distributed representation space, the images showing coordination corresponding to information about the subject or information related to the coordination, in the order in which they are projected closer to the position in the information about the subject (in other words, in order of the degree to which the subject evaluates that it suits the user U1). Note that in such a case, the information processing device 10 may receive information for identifying the subject in the electronic commerce service and information about the subject from the user U1. The providing unit 44 then provides the screen SC1 based on the information received from the user U1.

次に、図9を用いて、コーディネートサービスにおいて被服の組み合わせに関する情報を提供する態様について説明する。図9は、利用者端末100の画面の一例を示す図(2)である。 Next, a mode of providing information on clothing combinations in a coordinated service will be described with reference to FIG. 9. FIG. 9 is a diagram (2) showing an example of a screen of the user terminal 100.

図9に示すように、提供部44は、コーディネートサービスにおいて利用者U1が入力した検索クエリに対応する検索結果を示す画面SC2を提供する。例えば、提供部44は、利用者U1が入力した検索クエリに対応するコーディネートを示す画像を、画像が示すコーディネートが利用者U1に似合う度合いが高い順に示す画面SC2(言い換えると、プルダウンを示す領域AR2において、利用者U1に似合う順に表示することが指定された画面SC2)を提供する。また、提供部44は、領域AR2のプルダウンに表示される情報として、「対象者があなた(利用者U1)に似合うと評価する順」や、「対象者が自身に似合うと評価する順」などといった情報を指定可能に表示する。 As shown in FIG. 9, the providing unit 44 provides a screen SC2 showing search results corresponding to a search query entered by the user U1 in the coordination service. For example, the providing unit 44 provides a screen SC2 showing images of coordinations corresponding to the search query entered by the user U1 in order of how well the coordinations shown in the images suit the user U1 (in other words, a screen SC2 in which the order of how well the coordinations suit the user U1 is specified in the area AR2 showing the pull-down menu). The providing unit 44 also displays information such as "the order in which the subject evaluates that the coordinations suit you (user U1)" or "the order in which the subject evaluates that the coordinations suit themselves" in a manner that allows the user to specify the information to be displayed in the pull-down menu of the area AR2.

例えば、「対象者があなたに似合うと評価する順」が領域AR2において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順に表示する画面SC2を提供する。なお、このような場合、情報処理装置10は、コーディネートサービスにおいて対象者を識別するための情報や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC2を提供する。 For example, if "in order of how the target person evaluates that it suits you" is specified in area AR2, the providing unit 44 provides a screen SC2 that displays, among images projected within a predetermined range from information about the target person in the distributed representation space, images showing coordination corresponding to information about the user U1 and information related to the coordination, in the order in which they were projected closer to the position from the information about the target person. Note that in such a case, the information processing device 10 may receive information for identifying the target person in the coordination service and information about the target person from the user U1. The providing unit 44 then provides the screen SC2 based on the information received from the user U1.

また、「対象者が自身に似合うと評価する順」が領域AR2において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順に表示する画面SC2を提供する。なお、このような場合、情報処理装置10は、コーディネートサービスにおいて対象者を識別するための情報や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC2を提供する。 Furthermore, when "the order in which the subject evaluates that it suits the subject" is specified in area AR2, the providing unit 44 provides a screen SC2 that displays, among images projected within a predetermined range from information about the subject in the distributed representation space, images showing coordination corresponding to information about the subject or information related to the coordination, in the order in which they are projected closer to the position from the information about the subject. Note that in such a case, the information processing device 10 may receive information for identifying the subject in the coordination service and information about the subject from user U1. Then, the providing unit 44 provides the screen SC2 based on the information received from user U1.

なお、図8及び9において、提供部44は、CNNが生成した領域ベクトルを用いて、各画像が示すコーディネートのうち、各評価者が似合うと判断した領域(言い換えると、コーディネートのうちポイントとなる被服)を推定し、推定した領域をヒートマップで示す画像を提供してもよい。 In addition, in Figures 8 and 9, the providing unit 44 may use the area vectors generated by the CNN to estimate the areas of the outfits shown in each image that each evaluator judges to look good (in other words, the key clothing in the outfits), and provide an image showing the estimated areas in a heat map.

なお、上記の例においては、特定の検索クエリに基づいて似合うと評価する順で商品などの情報を表示する例を示したが、本発明の範囲はその場合に限られない。例えば、提供部44は、商品カテゴリに関する検索クエリが存在しない場合であっても、任意の商品カテゴリを含む商品群に対して当該の利用者に対する似合う度合いの評価を行い、推薦結果として利用者に提供しても良い。 In the above example, information on products and the like is displayed in order of suitability based on a specific search query, but the scope of the present invention is not limited to this case. For example, even if there is no search query related to a product category, the providing unit 44 may evaluate the degree to which a group of products including an arbitrary product category suits the user, and provide this to the user as a recommendation result.

また、検索クエリ以外であっても、似合う度合いの評価結果に対して様々なフィルタや他の評価結果を組み合わせて利用者に表示することが可能である。例えば、推薦システムにおいて、利用者に対して推薦するに値するアイテムの候補およびそれらに対する推薦度合いの評価結果をあらかじめ特定しておくとする。そして、これらの推薦候補のアイテムに対して似合う度合いの評価を行い、推薦度合いおよび似合う度合いに応じて順序付けたアイテムを利用者に対して表示することができる。このようにして、似合う度合いを他の要素と複合的に組み合わせた結果を用いて利用者にアイテム(商品)やコーディネートの情報を提供することが可能である。 In addition, even if it is not a search query, it is possible to combine the suitability evaluation results with various filters and other evaluation results and display them to the user. For example, in a recommendation system, candidate items worthy of recommendation to the user and the evaluation results of their recommendation degree are specified in advance. The suitability of these recommended candidate items can then be evaluated, and items ranked according to the recommendation degree and suitability degree can be displayed to the user. In this way, it is possible to provide the user with information on items (products) and outfits using the results of a complex combination of suitability degree with other elements.

(判定部45について)
判定部45は、分散表現における複数の領域と、利用者に関する情報とに基づいて、領域に含まれる被服のそれぞれが当該利用者に似合う度合いを判定する。例えば、図4の例において、判定部45は、分散表現が、利用者U1の分散表現と類似する評価者を特定する。そして、判定部45は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、利用者U1に似合う度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、利用者U1に似合う度合いが低いと判定する。
(Regarding the determination unit 45)
The determination unit 45 determines the degree to which each of the clothes included in the regions suits the user based on the multiple regions in the distributed representation and the information on the user. For example, in the example of Fig. 4, the determination unit 45 identifies an evaluator whose distributed representation is similar to the distributed representation of the user U1. The determination unit 45 then determines that the clothes indicated by the regions of the image P1 whose region vectors are more similar to the distributed representation of the identified evaluator are more suitable for the user U1, and determines that the clothes indicated by the regions whose region vectors are less similar to the distributed representation of the evaluator are less suitable for the user U1.

また、判定部45は、分散表現における複数の領域と、対象者に関する情報とに基づいて、領域に含まれる被服のそれぞれを当該対象者が利用者に似合うと評価する度合いを判定してもよい。例えば、図4の例において、判定部45は、対象者の分散表現と類似する評価者を特定する。そして、判定部45は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが低いと判定する。 The determination unit 45 may also determine the degree to which the subject evaluates each of the clothes included in the region as looking good on the user based on multiple regions in the distributed representation and information about the subject. For example, in the example of FIG. 4, the determination unit 45 identifies an evaluator who is similar to the distributed representation of the subject. Then, the determination unit 45 determines that the subject evaluates the clothes as looking good on the user U1 to a higher degree for an area of the image P1 whose area vector is more similar to the distributed representation of the identified evaluator, and determines that the subject evaluates the clothes as looking good on the user U1 to a lower degree for an area whose area vector is less similar to the distributed representation of the evaluator.

(出力部46について)
出力部46は、生成部42により生成された畳み込みニューラルネットワークが画像の領域ごとに生成する分散表現に基づく態様で画像を出力する。例えば、図4の例において、出力部46は、CNNが生成した領域ベクトルを用いて、各評価者が似合うと判断した領域を推定し、推定した領域を示すヒートマップを出力する。
(Regarding the output unit 46)
The output unit 46 outputs the image in a form based on the distributed representation generated for each region of the image by the convolutional neural network generated by the generation unit 42. For example, in the example of Fig. 4, the output unit 46 estimates the regions that each evaluator judged to look good using the region vectors generated by the CNN, and outputs a heat map showing the estimated regions.

また、出力部46は、分散表現における複数の領域と、評価者を示す評価者情報とに基づく態様で画像を出力してもよい。例えば、図4の例において、出力部46は、各画像について、似合うと評価した評価者の分散表現と類似する分散表現を出力し、似合わないと評価した評価者の評価者情報の分散表現と類似しない分散表現を出力するように学習が行われたCNNが生成する領域ベクトルを用いて、各評価者が似合うと判断した領域を推定し、推定した領域を示すヒートマップを出力する。 The output unit 46 may also output images in a manner based on multiple regions in the distributed representation and evaluator information indicating the evaluator. For example, in the example of FIG. 4, the output unit 46 estimates the regions that each evaluator judged to look good using region vectors generated by a CNN that has been trained to output distributed representations similar to the distributed representations of the evaluators who evaluated each image as looking good, and distributed representations that are not similar to the distributed representations of the evaluator information of the evaluators who evaluated each image as not looking good, and outputs a heat map indicating the estimated regions.

また、出力部46は、分散表現が評価者情報の分散表現と類似する領域ほど強調の度合いを高くし、評価者情報の分散表現と類似しない領域ほど強調の度合いを低くした画像を出力してもよい。例えば、図4の例において、出力部46は、分散表現が評価者情報の分散表現と類似する領域ほど赤色の度合いを高くし、評価者情報の分散表現と類似しない領域ほど青色の度合いを高くしたヒートマップを出力する。 The output unit 46 may also output an image in which the degree of emphasis is increased in areas where the distributed representation is more similar to the distributed representation of the evaluator information, and the degree of emphasis is decreased in areas where the distributed representation is less similar to the distributed representation of the evaluator information. For example, in the example of FIG. 4, the output unit 46 outputs a heat map in which the degree of red is increased in areas where the distributed representation is more similar to the distributed representation of the evaluator information, and the degree of blue is increased in areas where the distributed representation is less similar to the distributed representation of the evaluator information.

また、出力部46は、判定部45により判定された利用者に似合う度合いに応じた態様で領域を表示する画像を利用者に出力してもよい。例えば、図4の例において、出力部46は、ステップSb3において特定した評価者の分散表現と、画像P1のボトムスを示す領域の領域ベクトルが類似し、画像P1のトップスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、ボトムスを示す領域を濃い赤色で表示し、トップスを示す領域を濃い青色で表示する画像P1-1を出力する。また、出力部46は、ステップSb3において特定した評価者の分散表現と、画像P1のトップスを示す領域の領域ベクトルが類似し、画像P1のボトムスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、トップスを示す領域を濃い赤色で表示し、ボトムスを示す領域を濃い青色で表示する画像P1-2を出力する。 The output unit 46 may also output to the user an image that displays the area in a manner according to the degree of suitability for the user as determined by the determination unit 45. For example, in the example of FIG. 4, if the area vector of the area showing the bottoms of the image P1 is similar to the distributed representation of the evaluator identified in step Sb3, but the area vector of the area showing the tops of the image P1 is not similar, the information processing device 10 outputs an image P1-1 in which the area showing the bottoms of the image P1 is displayed in dark red and the area showing the tops is displayed in dark blue. If the area vector of the area showing the tops of the image P1 is similar to the distributed representation of the evaluator identified in step Sb3, but the area vector of the area showing the bottoms of the image P1 is not similar, the information processing device 10 outputs an image P1-2 in which the area showing the tops of the image P1 is displayed in dark red and the area showing the bottoms is displayed in dark blue.

また、出力部46は、判定部45により判定された対象者が利用者に似合うと評価する度合いに応じた態様で領域を表示する画像を利用者に出力してもよい。例えば、図4の例において、出力部46は、画像P1の各領域のうち、領域ベクトルが、対象者の分散表現と類似する評価者の分散表現と類似する度合いが高い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが低いと判定し、判定した度合いに応じた態様で画像P1を出力する。 The output unit 46 may also output to the user an image that displays the regions in a manner according to the degree to which the subject, as determined by the determination unit 45, evaluates that the subject evaluates that the user U1 is suitable for the clothing indicated by the region in which the region vector is more similar to the distributed representation of the evaluator who is similar to the distributed representation of the subject, and determines that the subject evaluates that the subject is less suitable for the clothing indicated by the region in which the region vector is less similar to the distributed representation of the evaluator, and outputs the image P1 in a manner according to the degree of the evaluation.

(取得部47について)
取得部47は、提供部44により提供された組み合わせ情報に対する、利用者、若しくは、利用者と所定の関係を有する他の利用者からのフィードバックを取得する。例えば、図2の例において、取得部47は、電子商取引サービスにおいて、利用者U1がコーディネート#1、#3及び#4に含まれる被服を購入したか否かや、レンタルの申込みを行ったか否かを示す情報(フィードバック)を取得し、利用者情報データベース32に格納する。また、取得部47は、コーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4に対するお気に入り登録を行ったか否かを示す情報(フィードバック)を取得する。また、取得部47は、提供された情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。また、取得部47は、提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際に、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。
(Regarding the Acquisition Unit 47)
The acquisition unit 47 acquires feedback from the user or other users having a predetermined relationship with the user with respect to the combination information provided by the provision unit 44. For example, in the example of FIG. 2, the acquisition unit 47 acquires information (feedback) indicating whether the user U1 has purchased clothes included in the coordination #1, #3, and #4 in the electronic commerce service or whether he/she has applied for rental, and stores the information in the user information database 32. The acquisition unit 47 also acquires information (feedback) indicating whether the user U1 has registered the coordination #1, #3, and #4 as favorites in the coordination service. The acquisition unit 47 also acquires information (feedback) indicating whether the target person was positive about the user U1 wearing the coordination indicated by the provided information from the user terminal 100, a terminal device used by the target person, or the like. The acquisition unit 47 also acquires information (feedback) indicating whether the target person was positive about the user U1 who wore the coordination indicated by the provided information, from the user terminal 100, a terminal device used by the target person, or the like, when the user U1 presented the clothing included in the coordination indicated by the provided information to the target person.

(更新部48について)
更新部48は、取得部47により取得されたフィードバックに基づいて、分散表現空間を更新する。利用者U1がコーディネート#1に対して肯定的である場合、更新部48は、分散表現空間F4において、属性情報B2と画像P1とを所定の距離近づけるように更新する。一方、利用者U1がコーディネート#3に対して否定的である場合、更新部48は、分散表現空間F4において、属性情報B2と画像P3とを所定の距離遠ざけるように更新する。
(Regarding the update unit 48)
The update unit 48 updates the distributed representation space based on the feedback acquired by the acquisition unit 47. When the user U1 is positive about the coordination #1, the update unit 48 updates the attribute information B2 and the image P1 in the distributed representation space F4 so as to bring them closer to each other by a predetermined distance. On the other hand, when the user U1 is negative about the coordination #3, the update unit 48 updates the attribute information B2 and the image P3 in the distributed representation space F4 so as to move them apart by a predetermined distance.

また、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的である場合、更新部48は、分散表現空間において、対象者に対応する情報(例えば、属性情報や、アンケートに対する回答など)と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が否定的である場合、更新部48は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。 In addition, if the target person has a positive opinion of user U1 wearing the outfit indicated by the provided information, the update unit 48 updates the information corresponding to the target person (e.g., attribute information, responses to a questionnaire, etc.) and the image showing the outfit in the distributed representation space so as to bring them closer together by a predetermined distance. On the other hand, if the target person has a negative opinion of user U1 wearing the outfit indicated by the provided information, the update unit 48 updates the information corresponding to the target person and the image showing the outfit in the distributed representation space so as to move them apart by a predetermined distance.

また、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が肯定的である場合、更新部48は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が否定的である場合、更新部48は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。 In addition, when user U1 presents to a target person clothing included in the coordination indicated by the information provided to user U1, if the target person is positive, the update unit 48 updates the information corresponding to the target person and the image showing the coordination to move them closer together by a predetermined distance in the distributed representation space. On the other hand, when user U1 presents to a target person clothing included in the coordination indicated by the information provided to user U1, if the target person is negative, the update unit 48 updates the information corresponding to the target person and the image showing the coordination to move them apart by a predetermined distance in the distributed representation space.

〔5.情報処理のフロー〕
図10を用いて、実施形態に係る情報処理装置10の情報処理の手順(1)について説明する。図10は、実施形態に係る情報処理の手順の一例を示すフローチャート(1)である。
5. Information Processing Flow
The information processing procedure (1) of the information processing device 10 according to the embodiment will be described with reference to Fig. 10. Fig. 10 is a flowchart (1) showing an example of the information processing procedure according to the embodiment.

図10に示すように、情報処理装置10は、複数の被服の組み合わせを着用した着用者の画像に対する評価を受け付けたか否かを判定する(ステップS101)。評価を受け付けていない場合(ステップS101;No)、情報処理装置10は、評価を受け付けるまで待機する。 As shown in FIG. 10, the information processing device 10 determines whether or not an evaluation has been received for an image of a wearer wearing a combination of multiple clothes (step S101). If an evaluation has not been received (step S101; No), the information processing device 10 waits until an evaluation is received.

一方、評価を受け付けた場合(ステップS101;Yes)、情報処理装置10は、評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成し(ステップS102)、処理を終了する。 On the other hand, if an evaluation has been received (step S101; Yes), the information processing device 10 generates a distributed representation space into which the image and evaluator information indicating the evaluator are projected based on the evaluation (step S102), and ends the process.

次に、図11を用いて、実施形態に係る情報処理装置10の情報処理の手順(2)について説明する。図11は、実施形態に係る情報処理の手順の一例を示すフローチャート(2)である。 Next, the information processing procedure (2) of the information processing device 10 according to the embodiment will be described with reference to FIG. 11. FIG. 11 is a flowchart (2) showing an example of the information processing procedure according to the embodiment.

図11に示すように、情報処理装置10は、複数の被服の組み合わせを着用した着用者の画像に対する評価を受け付けたか否かを判定する(ステップS201)。評価を受け付けていない場合(ステップS201;No)、情報処理装置10は、評価を受け付けるまで待機する。 As shown in FIG. 11, the information processing device 10 determines whether or not an evaluation has been received for an image of a wearer wearing a combination of multiple clothes (step S201). If an evaluation has not been received (step S201; No), the information processing device 10 waits until an evaluation is received.

一方、評価を受け付けた場合(ステップS201;Yes)、情報処理装置10は、評価に基づいて、畳み込みニューラルネットワークを生成する(ステップS202)。続いて、情報処理装置10は、畳み込みニューラルネットワークが画像の領域ごとに生成する分散表現に基づく態様で画像を出力し(ステップS203)、処理を終了する。 On the other hand, if an evaluation has been received (step S201; Yes), the information processing device 10 generates a convolutional neural network based on the evaluation (step S202). Next, the information processing device 10 outputs the image in a manner based on the distributed representation generated by the convolutional neural network for each region of the image (step S203), and ends the process.

次に、図12を用いて、実施形態に係る情報処理装置10の情報処理の手順(3)について説明する。図12は、実施形態に係る情報処理の手順の一例を示すフローチャート(3)である。 Next, the information processing procedure (3) of the information processing device 10 according to the embodiment will be described with reference to FIG. 12. FIG. 12 is a flowchart (3) showing an example of the information processing procedure according to the embodiment.

図12に示すように、情報処理装置10は、被服の組み合わせの提供要求を受け付けたか否かを判定する(ステップS301)。提供要求を受け付けていない場合(ステップS301;No)、情報処理装置10は、提供要求を受け付けるまで待機する。 As shown in FIG. 12, the information processing device 10 determines whether or not a request to provide a clothing combination has been received (step S301). If a request to provide a clothing combination has not been received (step S301; No), the information processing device 10 waits until a request to provide a clothing combination is received.

一方、提供要求を受け付けた場合(ステップS301;Yes)、情報処理装置10は、評価者からの評価に基づいて生成される、複数の被服の組み合わせを着用した着用者の画像と、評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う複数の被服の組み合わせを推定する(ステップ3202)。続いて、情報処理装置10は、推定された組み合わせに関する情報を利用者に提供し(ステップS303)、処理を終了する。 On the other hand, if a request for provision is received (step S301; Yes), the information processing device 10 estimates a combination of multiple clothes that suits a specific target based on a distributed representation space into which an image of a wearer wearing a combination of multiple clothes, generated based on the evaluations from the evaluators, and evaluator information indicating the evaluators are projected (step 3202). Next, the information processing device 10 provides information on the estimated combination to the user (step S303), and ends the process.

〔6.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
6. Modifications
The above-described embodiment is merely an example, and various modifications and applications are possible.

〔6-1.評価者に対する情報の提供について〕
上述の実施形態において、情報処理装置10は、評価者による画像に対する評価に基づいて、コーディネートに関する情報を提供してもよい。例えば、情報処理装置10は、評価者が似合うと評価した画像に対応するコーディネートに関する情報を、電子商取引サービスや、コーディネートサービスにおいて提供する。
[6-1. Provision of information to evaluators]
In the above-described embodiment, the information processing device 10 may provide information on coordination based on the evaluation of the image by the evaluator. For example, the information processing device 10 provides information on coordination corresponding to the image evaluated as looking good by the evaluator in an electronic commerce service or a coordination service.

〔6-2.対象者について〕
上述の実施形態において、対象者が、利用者が会う相手や、プレゼントを贈る相手である例を示したが、対象者はこのような例に限定されない。例えば、対象者は、ショップの店員やコーディネーターである利用者が接客する相手であってもよい。このような場合、情報処理装置10は、分散表現空間と、利用者が接客する対象者に関する情報とに基づいて、対象者が自身に似合うと評価するコーディネート(言い換えると、対象者が気に入るコーディネート)を推定し、推定したコーディネートに関する情報を利用者に出力する。また、情報処理装置10は、CNNと、利用者が接客する対象者に関する情報とに基づく態様で、コーディネートを示す画像(例えば、コーディネートのうちいずれの被服を対象者が気に入るかを示す画像)を出力する。
[6-2. About the target people]
In the above embodiment, the target person is a person whom the user meets or a person to whom a gift is given, but the target person is not limited to such examples. For example, the target person may be a person served by the user who is a shop clerk or a coordinator. In such a case, the information processing device 10 estimates an outfit that the target person evaluates as suiting the target person (in other words, an outfit that the target person likes) based on the distributed representation space and information about the target person served by the user, and outputs information about the estimated outfit to the user. In addition, the information processing device 10 outputs an image showing the outfit (for example, an image showing which clothes of the outfit the target person likes) in a manner based on the CNN and information about the target person served by the user.

なお、情報処理装置10は、ショップの店員やコーディネーターである利用者と、顧客である対象者とのマッチングを行ってもよい。例えば、情報処理装置10は、各利用者に関する情報と、各対象者に関する情報とに基づき、各利用者及び各対象者を分散表現空間に投影した場合の位置を推定し、投影した位置から所定の範囲内に所在する利用者及び対象者に関する情報を、利用者及び対象者のそれぞれに提供する。 The information processing device 10 may also match users who are shop clerks or coordinators with target individuals who are customers. For example, the information processing device 10 estimates the position of each user and each target individual when projected into a distributed representation space based on information about each user and information about each target individual, and provides each user and target individual with information about the users and targets who are located within a specified range from the projected position.

〔6-3.被服のデザインに関する情報の提供について〕
上述の実施形態において、情報処理装置10は、製造元がデザインした被服のデータに対する評価者の評価を受け付け、当該評価に基づく情報を製造元に提供してもよい。例えば、情報処理装置10は、製造元がデザインした被服を着用した着用者を示すデータ(例えば、CADデータ)と、当該データに対する評価者の評価と、評価者に関する評価者情報とを含む学習用データを用いてCNNを生成する。具体的な例を挙げると、情報処理装置10は、データが示す被服のある領域について、その領域について似合うと評価した可能性が高い各評価者の分散表現と類似し、似合わないと評価した可能性が高い各評価者の分散表現と類似しない領域ベクトル(データが示す被服を複数の領域に分割し、分割した領域ごとの特徴を示すベクトル)を生成するよう学習したCNNを生成する。そして、情報処理装置10は、このような学習済みのCNNが生成した領域ベクトルを用いて、各評価者が似合うと判断した領域(言い換えると、襟や裾などといった被服の部位)を推定し、推定した領域を示すヒートマップを出力する。
[6-3. Providing information on clothing designs]
In the above embodiment, the information processing device 10 may receive the evaluator's evaluation of the data of the clothing designed by the manufacturer, and provide the manufacturer with information based on the evaluation. For example, the information processing device 10 generates a CNN using learning data including data (e.g., CAD data) showing a wearer wearing the clothing designed by the manufacturer, the evaluator's evaluation of the data, and evaluator information on the evaluator. As a specific example, the information processing device 10 generates a CNN that has been trained to generate region vectors (the clothing shown in the data is divided into a plurality of regions, and a vector showing the characteristics of each divided region) that are similar to the distributed representations of the evaluators who are likely to have evaluated the region as looking good and dissimilar to the distributed representations of the evaluators who are likely to have evaluated the region as not looking good, for a certain region of the clothing shown in the data. Then, the information processing device 10 uses the region vectors generated by such a trained CNN to estimate the regions that each evaluator judged to look good (in other words, parts of the clothing such as the collar and hem), and outputs a heat map showing the estimated regions.

より具体的な例を挙げると、情報処理装置10は、CNNと、所定の利用者(例えば、被服の購買層)に関する情報とに基づき、当該データの各領域が示す被服の部位のそれぞれについて、利用者が似合うと評価する度合いを判定し、判定した度合いをヒートマップで示すデータを製造元に出力する。 To give a more specific example, the information processing device 10 uses CNN and information about a specific user (e.g., a clothing purchasing demographic) to determine the degree to which the user evaluates that each part of the clothing indicated by each area of the data looks good on the user, and outputs data showing the determined degrees in the form of a heat map to the manufacturer.

これにより、情報処理装置10は、デザイン中の被服のどの部位が、利用者に似合うと評価されるかを把握し、どの部位が似合わないと評価されるかを把握することを可能とするため、被服のデザインにおける利便性を向上させることができる。 This allows the information processing device 10 to determine which parts of the clothing being designed are evaluated as looking good on the user, and which parts are evaluated as not looking good on the user, thereby improving convenience in designing clothing.

〔6-4.処理態様について〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
6-4. Processing Mode
Among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, and conversely, all or part of the processes described as being performed manually can be performed automatically by a known method. In addition, the information including the processing procedures, specific names, various data and parameters shown in the above text and drawings can be changed arbitrarily unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 In addition, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.

また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-mentioned embodiments can be combined as appropriate to the extent that the processing content is not contradictory.

〔6-5.評価の対象について〕
上述の実施形態において、情報処理装置10が、被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成する例を示したが、評価の対象は被服の組み合わせに限定されず、任意のものであってもよい。例えば、情報処理装置10は、複数の家具の組み合わせを示す画像に対する評価であって、当該組み合わせが似合っているか否かを示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成してもよい。具体的な例を挙げると、情報処理装置10は、評価者から受け付けられた評価に基づいて、家具の組み合わせを示す画像や、画像が示す家具に関する情報(例えば、家具タイプ、ブランド、ショップ名、製造地、利用シーン、色、カテゴリ(カジュアル等)、売り文句、素材、サイズ、価格帯など)、評価者に関する情報などを投影した分散表現空間を生成し、利用者が似合うと評価する家具の組み合わせに関する情報を利用者に提供する。また、情報処理装置10は、評価者から受け付けられた評価に基づいてCNNを生成し、CNNが家具の組み合わせを示す画像の領域ごとに生成する分散表現に基づく態様で、家具の組み合わせを示す画像を出力する。
[6-5. About the subject of evaluation]
In the above embodiment, the information processing device 10 receives evaluations from multiple evaluators on an image of a wearer wearing a combination of clothes, indicating whether the combination suits the wearer, and generates a distributed representation space and a CNN based on the received evaluations. However, the subject of the evaluation is not limited to a combination of clothes, and may be any. For example, the information processing device 10 may receive evaluations from multiple evaluators on an image showing a combination of multiple pieces of furniture, indicating whether the combination suits the wearer, and generate a distributed representation space and a CNN based on the received evaluations. As a specific example, the information processing device 10 generates a distributed representation space in which an image showing a combination of furniture, information about the furniture shown in the image (for example, furniture type, brand, shop name, manufacturing location, usage scene, color, category (casual, etc.), selling point, material, size, price range, etc.), information about the evaluator, etc. are projected based on the evaluations received from the evaluators, and provides the user with information about the combination of furniture that the user evaluates as looking good. In addition, the information processing device 10 generates a CNN based on the evaluations received from the evaluators, and outputs an image showing the furniture combination in a manner based on the distributed representation that the CNN generates for each region of the image showing the furniture combination.

また、例えば、情報処理装置10は、複数の料理の組み合わせ(例えば、献立)を示す画像に対する評価であって、当該組み合わせが適切か否か(例えば、見た目や、味の組み合わせが適切か否か)を示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成してもよい。具体的な例を挙げると、情報処理装置10は、評価者から受け付けられた評価に基づいて、料理の組み合わせを示す画像や、画像が示す料理に関する情報(例えば、料理名や、食材、料理のジャンル、旬の季節、味の特徴、価格帯など)、評価者に関する情報などを投影した分散表現空間を生成し、利用者が適切と評価する料理の組み合わせに関する情報を利用者に提供する。また、情報処理装置10は、評価者から受け付けられた評価に基づいてCNNを生成し、CNNが料理の組み合わせを示す画像の領域ごとに生成する分散表現に基づく態様で、料理の組み合わせを示す画像を出力する。 For example, the information processing device 10 may receive evaluations from multiple evaluators on an image showing a combination of multiple dishes (e.g., a menu), indicating whether the combination is appropriate (e.g., whether the combination of appearance and taste is appropriate), and generate a distributed representation space and a CNN based on the received evaluations. As a specific example, the information processing device 10 generates a distributed representation space that projects an image showing the combination of dishes, information about the dishes shown in the image (e.g., the name of the dish, ingredients, genre of the dish, season, taste characteristics, price range, etc.), information about the evaluator, etc., based on the evaluations received from the evaluators, and provides the user with information about the combination of dishes that the user evaluates as appropriate. The information processing device 10 also generates a CNN based on the evaluations received from the evaluators, and outputs an image showing the combination of dishes in a manner based on the distributed representations generated by the CNN for each region of the image showing the combination of dishes.

また、例えば、情報処理装置10は、複数の花の組み合わせ(例えば、花束)を示す画像に対する評価であって、当該組み合わせが適切か否かを示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成してもよい。具体的な例を挙げると、情報処理装置10は、評価者から受け付けられた評価に基づいて、花の組み合わせを示す画像や、画像が示す花に関する情報(例えば、利用シーン、個々の花の名前、色、季節、目的、カテゴリ(カジュアル等)、売り文句、産地、価格帯など)、評価者に関する情報などを投影した分散表現空間を生成し、利用者が適切と評価する花の組み合わせに関する情報を利用者に提供する。また、情報処理装置10は、評価者から受け付けられた評価に基づいてCNNを生成し、CNNが花の組み合わせを示す画像の領域ごとに生成する分散表現に基づく態様で、花の組み合わせを示す画像を出力する。 For example, the information processing device 10 may receive evaluations from multiple evaluators on an image showing a combination of multiple flowers (e.g., a bouquet), indicating whether the combination is appropriate or not, and generate a distributed representation space and a CNN based on the received evaluations. As a specific example, the information processing device 10 generates a distributed representation space in which an image showing a combination of flowers, information about the flowers shown in the image (e.g., usage scene, name, color, season, purpose, category (casual, etc.), selling point, place of origin, price range, etc.), and information about the evaluator are projected based on the evaluations received from the evaluators, and provides the user with information about the combination of flowers that the user evaluates as appropriate. The information processing device 10 also generates a CNN based on the evaluations received from the evaluators, and outputs an image showing the combination of flowers in a manner based on the distributed representations generated by the CNN for each region of the image showing the combination of flowers.

〔6-6.画像について〕
上述の実施形態において、情報処理装置10が、複数の被服の組み合わせを着用した着用者の画像に対する処理について記載したが、実施形態はこれに限定されるものではなく、1つの被服を着用した着用者の画像に対して同様の処理を行ってもよい。
[6-6. About Images]
In the above embodiment, the information processing device 10 has been described as processing an image of a wearer wearing a combination of multiple pieces of clothing, but the embodiment is not limited to this, and similar processing may be performed on an image of a wearer wearing a single piece of clothing.

〔6-7.利用者の自称する身体的な特徴を加味した被服の推定について〕
上述の実施形態において、情報処理装置10は、利用者が自称する身体的な特徴を示す身体情報(利用者自称身体情報)に基づいて、利用者に似合う被服を推定してもよい。また、情報処理装置10は、利用者の身体的な特徴を示す身体情報(利用者身体情報)と、利用者自称身体情報とに基づいて、利用者に似合う被服を推定してもよい。例えば、情報処理装置10は、被服を着用した着用者の画像に対する評価であって、被服が着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される分散表現空間であって、画像と、着用者の身体的な特徴を示す着用者身体情報とを投影した分散表現空間に基づいて、所定の対象者に似合う被服を推定する推定部43と、推定部43により推定された被服に関する情報を利用者に提供する提供部44とを有し、推定部43は、分散表現空間と、所定の対象者の身体的な特徴を示す対象者身体情報と、所定の対象者が自称する身体的な特徴を示す対象者自称身体情報とに基づいて、所定の対象者に似合う被服を推定してもよい。また、例えば、情報処理装置10は、被服を着用した着用者の画像に対する評価であって、被服が着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される分散表現空間であって、画像と、着用者の身体的な特徴を示す着用者身体情報と、評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象者に似合う被服を推定する推定部43と、推定部43により推定された被服に関する情報を利用者に提供する提供部44とを有し、推定部43は、分散表現空間と、所定の対象者の身体的な特徴を示す対象者身体情報と、所定の対象者が自称する身体的な特徴を示す対象者自称身体情報とに基づいて、所定の対象者に似合う前記被服を推定してもよい。また、例えば、情報処理装置10は、被服の画像に対する評価であって、被服が自身に似合うか否かを示す複数の評価者からの評価に基づいて生成される分散表現空間であって、画像と、評価者の身体的な特徴を示す評価者身体情報とを投影した分散表現空間に基づいて、所定の対象者に似合う被服を推定する推定部43と、推定部43により推定された被服に関する情報を利用者に提供する提供部44とを有し、推定部43は、分散表現空間と、所定の対象者の身体的な特徴を示す対象者身体情報と、所定の対象者が自称する身体的な特徴を示す対象者自称身体情報とに基づいて、所定の対象者に似合う前記被服を推定してもよい。また、例えば、情報処理装置10は、被服の画像に対する評価であって、被服が自身に似合うか否かを示す複数の評価者からの評価に基づいて生成される分散表現空間であって、画像と、評価者の身体的な特徴を示す評価者身体情報と、評価者を示す評価者情報(評価者身体情報を除く)とを投影した分散表現空間に基づいて、所定の対象者に似合う被服を推定する推定部43と、推定部43により推定された被服に関する情報を利用者に提供する提供部44とを有し、推定部43は、分散表現空間と、所定の対象者の身体的な特徴を示す対象者身体情報と、所定の対象者が自称する身体的な特徴を示す対象者自称身体情報とに基づいて、所定の対象者に似合う被服を推定してもよい。また、推定部43は、画像と、対象者身体情報と、対象者自称身体情報との位置関係に基づいて、所定の対象者に似合う被服を推定してもよい。また、推定部43は、画像と、対象者情報と、対象者自称身体情報とを結んだ空間の面積に基づいて、所定の対象者に似合う被服を推定してもよい。また、推定部43は、画像と、対象者身体情報と、対象者自称身体情報と、評価者情報との位置関係に基づいて、所定の対象者に似合う被服を推定してもよい。また、推定部43は、画像と、対象者情報と、対象者自称身体情報と、評価者情報とを結んだ空間の面積に基づいて、所定の対象者に似合う被服を推定してもよい。これにより、情報処理装置10は、利用者が自己認識している体型を加味して、利用者に似合う被服に関する情報を、電子商取引サービスや、コーディネートサービスにおいて提供することができる。例えば、利用者の実際の体型が「やせ型」であっても、利用者の自己認識している体型が「やせ型」ではなく「やや太り目」の場合もあり得る。このような場合に、利用者の自己認識している体型に関係なく利用者の体型に似合う被服を提案すればよいとは限らない。つまり、利用者の実際の体型が「やせ型」であっても、利用者の自己認識している体型が「やや太り目」である場合には、「やせ型」の体型に似合う被服を提案すればよいとは限らない。利用者の自己認識している体型を加味することで、より利用者に合った被服を提案することができる。この際、情報処理装置10は、利用者自称身体情報と利用者身体情報との重みを変更して(例えば、どちらかの重みを高くして)、利用者に似合う被服を推定してもよい。なお、利用者自称身体情報と利用者身体情報との重み(又は重みの比率等)はどのように設定されてもよく、利用者からのフィードバック等に応じて適宜変更されてもよい。
[6-7. Estimation of clothing based on the user's self-declared physical characteristics]
In the above embodiment, the information processing device 10 may estimate clothes that suit a user based on physical information (user self-proclaimed physical information) indicating the physical characteristics of the user that the user claims to be. The information processing device 10 may also estimate clothes that suit a user based on physical information (user physical information) indicating the physical characteristics of the user and the user self-proclaimed physical information. For example, the information processing device 10 has an estimation unit 43 that estimates clothes that suit a specific target based on a distributed representation space in which an image of a wearer wearing clothes is projected and wearer physical information indicating the physical characteristics of the wearer is projected, and a provision unit 44 that provides the user with information about the clothes estimated by the estimation unit 43, and the estimation unit 43 may estimate clothes that suit a specific target based on the distributed representation space, target physical information indicating the physical characteristics of the specific target, and target self-proclaimed physical information indicating the physical characteristics of the specific target. Further, for example, the information processing device 10 has an estimation unit 43 that estimates clothes that suit a specific subject based on a distributed representation space onto which an image of a wearer wearing clothes is projected, the distributed representation space being generated based on evaluations from a plurality of evaluators indicating whether the clothes suit the wearer, and the image, wearer physical information indicating the physical characteristics of the wearer, and evaluator information indicating the evaluator, and a provision unit 44 that provides a user with information about the clothes estimated by the estimation unit 43, and the estimation unit 43 may estimate the clothes that suit a specific subject based on the distributed representation space, subject physical information indicating the physical characteristics of the specific subject, and subject self-declared physical information indicating the physical characteristics self-declared by the specific subject. Further, for example, the information processing device 10 has an estimation unit 43 that estimates clothes that suit a specified subject based on a distributed representation space into which an image of clothing is evaluated and which is generated based on evaluations from a plurality of evaluators indicating whether the clothing suits the subject, and into which an image and evaluator physical information indicating the physical characteristics of the evaluators are projected, and a provision unit 44 that provides a user with information about the clothing estimated by the estimation unit 43, and the estimation unit 43 may estimate the clothes that suit a specified subject based on the distributed representation space, subject physical information indicating the physical characteristics of the specified subject, and subject self-declared physical information indicating the physical characteristics self-declared by the specified subject. For example, the information processing device 10 includes an estimation unit 43 that estimates clothes that suit a specific subject based on a distributed representation space generated based on evaluations from multiple evaluators indicating whether the clothes suit the subject, the image, the evaluator physical information indicating the physical characteristics of the evaluator, and the evaluator information indicating the evaluator (excluding the evaluator physical information), projected into the distributed representation space, and a provision unit 44 that provides a user with information about the clothes estimated by the estimation unit 43. The estimation unit 43 may estimate clothes that suit a specific subject based on the distributed representation space, subject physical information indicating the physical characteristics of the specific subject, and subject self-proclaimed physical information indicating the physical characteristics that the specific subject claims. The estimation unit 43 may also estimate clothes that suit a specific subject based on the positional relationship between the image, the subject physical information, and the subject self-proclaimed physical information. The estimation unit 43 may also estimate clothes that suit a specific subject based on the area of the space connecting the image, the subject information, and the subject self-proclaimed physical information. The estimation unit 43 may estimate clothes that suit a specific subject based on the positional relationship between the image, the subject's body information, the subject's self-reported body information, and the evaluator information. The estimation unit 43 may estimate clothes that suit a specific subject based on the area of a space connecting the image, the subject's information, the subject's self-reported body information, and the evaluator information. This allows the information processing device 10 to provide information on clothes that suit a user in an electronic commerce service or a coordination service, taking into account the user's self-recognized body type. For example, even if the user's actual body type is "slim," the user's self-recognized body type may be "slightly overweight" rather than "slim." In such a case, it is not necessarily sufficient to suggest clothes that suit the user's body type regardless of the user's self-recognized body type. In other words, even if the user's actual body type is "slim," if the user self-identifies that their body type is "slightly overweight," it is not necessarily the case that clothes that suit a "slim" body type should be suggested. By taking into account the user's self-identified body type, it is possible to suggest clothes that suit the user better. In this case, the information processing device 10 may estimate clothes that suit the user by changing the weights of the user's self-proclaimed physical information and the user's physical information (for example, by increasing the weight of one of them). Note that the weights (or the weight ratio, etc.) of the user's self-proclaimed physical information and the user's physical information may be set in any manner, and may be changed as appropriate in response to feedback from the user, etc.

(第2の実施形態)
続いて、第2の実施形態について説明する。なお、第1の実施形態と同様の説明は適宜省略する。また、以下実施形態において、身体情報は、体型情報に限らず、身体的な特徴を示す情報であれば、どのような情報を含んでもよい。例えば、身体情報は、顔や頭や目や耳や鼻や口の形、肌色(例えば、イエベ・ブルべなど)、髪色(例えば、黒髪、茶髪など)、髪型、顔型、骨格の系統、手の長さ、首の太さなどに関する情報を含んでもよい。また、例えば、身体情報は、年齢、性別、身長、体重、人種、国籍などの属性に関する情報を含んでもよい。また、例えば、身体情報は、眼鏡の有無、眼鏡の形、メイクの有無、メイクの傾向などに関する付加情報を含んでもよい。また、評価者の評価は、アイテム単体(例えば、被服単体)に対する評価でもよいし、アイテムの組み合わせ(例えば、コーディネート)に対する評価であってもよい。また、評価者の評価は、アイテム単体又は組み合わせの着こなしに対する評価であってもよい。例えば、着こなしのバリエーションをコーディネートの学習の際のデータセットに含めて学習させてもよい。例えば、一つのコーディネートの中に着こなしのバリエーションのデータがある場合はそのデータを学習させてもよい。これにより、どのコーディネートのどの着こなしがクエリに近いかなどを提案することができる。
Second Embodiment
Next, a second embodiment will be described. The same description as in the first embodiment will be omitted as appropriate. In the following embodiments, the physical information is not limited to body type information, and may include any information indicating physical characteristics. For example, the physical information may include information on the shape of the face, head, eyes, ears, nose, and mouth, skin color (e.g., warm skin, cool skin, etc.), hair color (e.g., black hair, brown hair, etc.), hairstyle, face type, skeletal system, hand length, neck thickness, etc. For example, the physical information may include information on attributes such as age, sex, height, weight, race, and nationality. For example, the physical information may include additional information on the presence or absence of glasses, the shape of glasses, the presence or absence of makeup, and makeup tendencies. The evaluator's evaluation may be an evaluation of an item alone (e.g., clothing alone) or an evaluation of a combination of items (e.g., coordination). The evaluator's evaluation may be an evaluation of the wearing of an item alone or a combination. For example, a variation of the wearing may be included in a data set when learning coordination and learning it. For example, if there is data on variations in the way a single outfit is worn, the data can be trained. This makes it possible to suggest which outfits in which outfits are closest to the query.

〔7.情報処理システムの構成〕
まず、実施形態に係る情報処理システム1Aについて説明する。図13は、実施形態に係る情報処理システム1Aの構成例を示す図である。図13に示すように、情報処理システム1Aは、情報処理装置10Aと、利用者端末100と、評価者端末200とが含まれる。情報処理装置10Aと、利用者端末100と、評価者端末200とは所定の通信網(ネットワークN)を介して、有線または無線により通信可能に接続される。なお、図13に示した情報処理システム1Aには、複数台の情報処理装置10A、複数台の利用者端末100及び複数台の評価者端末200が含まれてもよい。
7. Configuration of Information Processing System
First, an information processing system 1A according to an embodiment will be described. FIG. 13 is a diagram showing a configuration example of the information processing system 1A according to an embodiment. As shown in FIG. 13, the information processing system 1A includes an information processing device 10A, a user terminal 100, and an evaluator terminal 200. The information processing device 10A, the user terminal 100, and the evaluator terminal 200 are connected to each other via a predetermined communication network (network N) so as to be able to communicate with each other by wire or wirelessly. Note that the information processing system 1A shown in FIG. 13 may include a plurality of information processing devices 10A, a plurality of user terminals 100, and a plurality of evaluator terminals 200.

情報処理装置10Aは、複数の画像(画像の少なくとも一部に被服を含む画像)に対する評価であって、被服が似合うか否かを示す評価を複数の評価者から受け付け、受け付けられた評価に基づいて、画像と、対象者(被服の着用者、若しくは、評価者自身)の身体的な特徴を示す身体情報とを投影した分散表現空間を生成し、生成した分散表現空間を用いた情報処理を実現する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。なお、例えば、評価者が画像に対してアノテーション(例えば、評価を示すアノテーション)を付与することで画像に関する評価が行われる。例えば、評価者が「似合う」を示すアノテーションを付与すると、画像の被服が対象者に似合うと評価され、「似合わない」を示すアノテーションを付与すると、画像の被服が対象者に似合わないと評価される。このため、評価者は、アノテーションの付与を行ったものと解してもよい。また、画像には、例えば、投稿者のタグ(例えば、投稿者が投稿時に入力する情報)が含まれており、投稿者のタグから着用者の身体情報が取得可能である。また、着用者や評価者の身体情報として、身体計測デバイスを用いたより詳細な身体計測値を取得してもよい。例えば、身体計測用被服や身体計測用眼鏡を着用した着用者の撮像画像に基づいて計測された身体計測値を取得してもよい。 The information processing device 10A is an information processing device that receives evaluations from multiple evaluators on multiple images (images that include clothing in at least a part of the image) indicating whether the clothing looks good on the subject, generates a distributed representation space in which the image and physical information indicating the physical characteristics of the subject (the wearer of the clothing or the evaluator himself/herself) are projected based on the received evaluations, and realizes information processing using the generated distributed representation space, and is realized, for example, by a server device or a cloud system. Note that, for example, an evaluator evaluates an image by adding an annotation (for example, an annotation indicating an evaluation) to the image. For example, if an evaluator adds an annotation indicating "looks good", the clothing in the image is evaluated as looking good on the subject, and if an evaluator adds an annotation indicating "does not look good", the clothing in the image is evaluated as not looking good on the subject. For this reason, the evaluator may be considered to have added the annotation. In addition, the image includes, for example, a poster's tag (for example, information entered by the poster when posting), and the wearer's physical information can be obtained from the poster's tag. In addition, more detailed body measurements may be obtained using a body measurement device as body information of the wearer or evaluator. For example, body measurements may be obtained based on captured images of the wearer wearing body measurement clothing or body measurement glasses.

また、例えば、情報処理装置10Aは、被服を提供する電子商取引サービスを提供する。また、情報処理装置10Aは、被服を示すコンテンツ(コーディネートを示すコンテンツでもよい)の投稿を利用者から受け付け、他の利用者に提供するサービス(コーディネートサービスでもよい)を提供する。 For example, the information processing device 10A provides an electronic commerce service that provides clothing. The information processing device 10A also provides a service (which may be a coordination service) that accepts posts of content showing clothing (which may be content showing outfits) from users and provides the content to other users.

なお、情報処理装置10Aは、サービスに係るウェブサイトを提供するウェブサーバとしての機能を有していてもよい。また、情報処理装置10Aは、利用者端末100にインストールされた各種サービスに関するアプリケーションに表示する情報を、利用者端末100に配信する装置であってもよい。また、情報処理装置10Aは、アプリケーションのデータそのものを配信する装置であってもよい。 In addition, the information processing device 10A may have a function as a web server that provides a website related to the service. Furthermore, the information processing device 10A may be a device that distributes information to be displayed in applications related to various services installed in the user terminal 100 to the user terminal 100. Furthermore, the information processing device 10A may be a device that distributes the application data itself.

また、情報処理装置10Aは、利用者端末100に制御情報を配信する配信装置として機能してもよい。ここで、制御情報は、例えば、JavaScript等のスクリプト言語やCSS等のスタイルシート言語により記述される。なお、情報処理装置10Aから配信されるアプリケーションそのものを制御情報とみなしてもよい。 In addition, the information processing device 10A may function as a distribution device that distributes control information to the user terminal 100. Here, the control information is described, for example, in a script language such as JavaScript or a style sheet language such as CSS. Note that the application itself distributed from the information processing device 10A may be regarded as control information.

利用者端末100は、利用者によって利用される情報処理装置である。また、利用者端末100は、情報処理装置10Aや、所定のサービスを提供するサーバ装置などによって配信される情報を、ウェブブラウザやアプリケーションにより表示する。なお、図14に示す例では、利用者端末100がスマートフォンである場合を示す。 The user terminal 100 is an information processing device used by a user. The user terminal 100 also displays information distributed by the information processing device 10A or a server device that provides a specified service, using a web browser or an application. Note that the example shown in FIG. 14 shows a case where the user terminal 100 is a smartphone.

評価者端末200は、被服(複数の被服の組み合わせでもよい)を着用した着用者の画像に対する評価(被服が着用者に似合っているか否かを示す評価)を行う評価者によって利用される情報処理装置である。また、評価者端末200は、被服(複数の被服の組み合わせでもよい)が評価者自身に似合うか否かを示す評価(例えば、被服を着用した評価者自身の姿をイメージした際に評価者自身に似合うか否かを示す評価)を行う評価者によって利用される情報処理装置である。また、評価者端末200は、情報処理装置10Aや、所定のサービスを提供するサーバ装置などによって配信される情報を、ウェブブラウザやアプリケーションにより表示する。なお、図14に示す例では、評価者端末200がスマートフォンである場合を示す。評価者は、画像に対してアノテーションを付与することで評価を行う。評価者が評価を行うと、評価者端末200は、評価情報を送信する。そして、例えば、後述の評価者情報データベース31Aに格納される。 The evaluator terminal 200 is an information processing device used by an evaluator who evaluates an image of a wearer wearing clothes (or a combination of multiple clothes) (evaluation indicating whether the clothes look good on the wearer). The evaluator terminal 200 is also an information processing device used by an evaluator who evaluates whether the clothes (or a combination of multiple clothes) look good on the evaluator himself (e.g., evaluation indicating whether the clothes look good on the evaluator when imagining the evaluator himself wearing the clothes). The evaluator terminal 200 displays information distributed by the information processing device 10A or a server device that provides a predetermined service, using a web browser or application. Note that the example shown in FIG. 14 shows a case where the evaluator terminal 200 is a smartphone. The evaluator performs evaluation by adding annotations to the image. When the evaluator performs evaluation, the evaluator terminal 200 transmits evaluation information. Then, for example, the information is stored in the evaluator information database 31A described later.

〔8.情報処理の一例〕
次に、図14を用いて、本実施形態に係る情報処理装置等により実現される情報処理の一例について説明する。
8. An example of information processing
Next, an example of information processing implemented by the information processing device according to the present embodiment will be described with reference to FIG.

以下、図14を用いて、本実施形態に係る情報処理装置等により実現される第3の情報処理について説明する。図14は、実施形態に係る情報処理の一例を示す図である。 Below, the third information processing implemented by the information processing device etc. according to this embodiment will be described with reference to FIG. 14. FIG. 14 is a diagram showing an example of the information processing according to this embodiment.

まず、情報処理装置10Aは、被服(コーディネートでもよい)の画像に対する評価者の評価を、評価者端末200から受け付ける(ステップSc1)。例えば、情報処理装置10Aは、画像の被服が、その被服の着用者に似合っているか否かを示す評価を受け付ける。具体的な例を挙げると、情報処理装置10Aは、「似合っている」及び「似合っていない」の組を評価者に提示し、被服が着用者に似合っているか似合っていないかを示す評価を受け付ける。なお、評価は、「丈をまくったほうがよい」、「背が高い人であれば丈をまくったほうがよい」、「背が低い人であればまくらないほうがよい」などの着こなしに関する評価であってもよい。また、評価は、他のアイテムとのコーディネートの着こなしに関する評価であってもよい。 First, the information processing device 10A receives an evaluator's evaluation of an image of clothing (or a coordinated outfit) from the evaluator terminal 200 (step Sc1). For example, the information processing device 10A receives an evaluation indicating whether the clothing in the image suits the wearer of the clothing. As a specific example, the information processing device 10A presents the evaluator with a pair of "suits" and "doesn't suit" and receives an evaluation indicating whether the clothing suits the wearer. The evaluation may be an evaluation regarding the style of the outfit, such as "it would be better to roll up the length," "if the person is tall, it is better to roll up the length," or "if the person is short, it is better not to roll up the length." The evaluation may also be an evaluation regarding the style of the outfit when coordinated with other items.

また、情報処理装置10Aは、被服の着用者に似合っているか否かを示す評価に限られず、評価者自身に似合うか否かを示す評価を受け付ける。例えば、情報処理装置10Aは、画像に被服の着用者が含まれるか否かを判定し、着用者が含まれない場合は、被服(コーディネートでもよい)が、評価者自身に似合うか否かを示す評価を受け付ける。この場合は、情報処理装置10Aは、「似合う」及び「似合わない」の組を評価者に提示し、被服が評価者自身に似合うか否かを示す評価を受け付ける。例えば、評価を示すアノテーションを画像に付与することで評価を受け付ける。なお、評価は、「自身であれば丈をまくったほうがよい」、「自身であればまくらないほうがよい」などの着こなしに関する評価であってもよい。また、評価は、他のアイテムとのコーディネートの着こなしに関する評価であってもよい。 In addition, the information processing device 10A is not limited to an evaluation indicating whether the clothes look good on the wearer, but also accepts an evaluation indicating whether the clothes look good on the evaluator himself. For example, the information processing device 10A determines whether the image includes a person wearing the clothes, and if the image does not include a wearer, accepts an evaluation indicating whether the clothes (or a coordinated outfit) look good on the evaluator himself. In this case, the information processing device 10A presents the evaluator with a pair of "looks good" and "doesn't look good" and accepts an evaluation indicating whether the clothes look good on the evaluator himself. For example, the evaluation is accepted by adding an annotation indicating the evaluation to the image. The evaluation may be an evaluation regarding the style of the outfit, such as "if it were me, I would roll up the length" or "if it were me, I would not roll up the length". The evaluation may also be an evaluation regarding the style of the outfit in coordination with other items.

このように、情報処理装置10Aは、評価者自身に似合うか否かを示す評価を受け付けてもよい。以下、説明の便宜上、被服の着用者に似合っているか否かを示す評価を受け付ける場合を例に挙げて説明する。 In this way, the information processing device 10A may accept an evaluation indicating whether or not the evaluator himself/herself looks good. For ease of explanation, the following will be described using an example of accepting an evaluation indicating whether or not the clothing looks good on the wearer.

情報処理装置10Aは、画像P1が示す被服(コーディネートでもよい)#1が、画像P1が示す着用者#1に似合っているという評価、並びに、画像P2が示す被服#2が、画像P2が示す着用者#2に似合わないという評価(すなわち、画像P1に対する「似合う」という評価と、画像P2に対する「似合わない」という評価)を、評価者A1から受け付ける。なお、どちらの例においても似合っている場合は、画像P1が示す被服#1が、画像P1が示す着用者#1に似合っているという評価と、画像P2が示す被服#2が、画像P2が示す着用者#2に似合っているという評価とを受け付け、反対にどちらの例においても似合わなかった場合は、画像P1が示す被服#1が、画像P1が示す着用者#1に似合わないという評価と、画像P2が示す被服#2が、画像P2が示す着用者#2に似合わないという評価とを受け付ける。また、情報処理装置10Aは、画像P1が示す被服#1が、画像P1が示す着用者#1に似合わないという評価、並びに、画像P2が示す被服#2が、画像P2が示す着用者#2に似合っているという評価(すなわち、画像P1に対する「似合わない」という評価と、画像P2に対する「似合う」という評価)を、評価者A2から受け付ける。同様に、情報処理装置10Aは、他の評価者からも、画像P1及びP2に関する評価を受け付ける。また、情報処理装置10Aは、画像P1及びP2に限られず、他の画像(画像P3やP4など)に関する評価を受け付けてもよい。 The information processing device 10A accepts from the evaluator A1 an evaluation that the clothing (or outfit) #1 shown in the image P1 suits the wearer #1 shown in the image P1, and an evaluation that the clothing #2 shown in the image P2 does not suit the wearer #2 shown in the image P2 (i.e., an evaluation that it "suits" the image P1 and an evaluation that it "does not suit" the image P2). If it suits in both examples, the information processing device 10A accepts an evaluation that the clothing #1 shown in the image P1 suits the wearer #1 shown in the image P1 and an evaluation that the clothing #2 shown in the image P2 suits the wearer #2 shown in the image P2. Conversely, if it does not suit in either example, the information processing device 10A accepts an evaluation that the clothing #1 shown in the image P1 does not suit the wearer #1 shown in the image P1 and an evaluation that the clothing #2 shown in the image P2 does not suit the wearer #2 shown in the image P2. Furthermore, information processing device 10A receives from evaluator A2 an evaluation that clothing #1 shown in image P1 does not suit wearer #1 shown in image P1, and an evaluation that clothing #2 shown in image P2 suits wearer #2 shown in image P2 (i.e., an evaluation that "does not suit" image P1 and an evaluation that "suits" image P2). Similarly, information processing device 10A receives evaluations of images P1 and P2 from other evaluators. Furthermore, information processing device 10A may receive evaluations of other images (images P3, P4, etc.) without being limited to images P1 and P2.

続いて、情報処理装置10Aは、画像に対する評価者の評価に基づいて、画像と、対象者(着用者に対する評価を行った場合は着用者が対象者であり、評価者自身に対する評価を行った場合は評価者が対象者である)の身体的な特徴を示す身体情報とを投影した分散表現空間を生成する(ステップSc2)。分散表現空間には、例えば、着用者に対する評価を行った画像と着用者の身体情報との組と、評価者自身に対する評価を行った画像と評価者の身体情報との組とが含まれる。例えば、情報処理装置10Aは、VSEの技術を用いて、分散表現空間を生成する。具体的な例を挙げると、情報処理装置10Aは、評価者A1が「似合わない」と評価した着用者#2の身体情報E2よりも、評価者A1が「似合う」と評価した着用者#1の身体情報E1の近くに、画像P1を投影した分散表現空間F6を生成する。また、情報処理装置10Aは、評価者A2が「似合わない」と評価した着用者#1の身体情報E1よりも、評価者A2が「似合う」と評価した着用者#2の身体情報E2の近くに、画像P2を投影した分散表現空間F6を生成する。なお、情報処理装置10Aは、画像に関する各種の情報や、着用者の身体に関する各種の情報を示す身体情報を投影した分散表現空間を生成してもよい。 Next, the information processing device 10A generates a distributed representation space in which the image and the physical information indicating the physical characteristics of the subject (when the evaluation is performed on the wearer, the wearer is the subject, and when the evaluation is performed on the evaluator himself, the evaluator is the subject) are projected based on the evaluator's evaluation of the image (step Sc2). The distributed representation space includes, for example, a pair of the image and the physical information of the wearer in which the evaluation is performed on the wearer, and a pair of the image and the physical information of the evaluator in which the evaluation is performed on the evaluator himself. For example, the information processing device 10A generates a distributed representation space using the VSE technology. As a specific example, the information processing device 10A generates a distributed representation space F6 in which the image P1 is projected closer to the physical information E1 of the wearer #1 evaluated as "suitable" by the evaluator A1 than the physical information E2 of the wearer #2 evaluated as "not suitable" by the evaluator A1. Furthermore, the information processing device 10A generates a distributed representation space F6 in which the image P2 is projected closer to the physical information E2 of the wearer #2, who the evaluator A2 evaluated as "suitable," than to the physical information E1 of the wearer #1, who the evaluator A2 evaluated as "unsuitable." The information processing device 10A may also generate a distributed representation space in which various information related to the image and physical information indicating various information related to the wearer's body are projected.

続いて、情報処理装置10Aは、電子商取引サービスや、コーディネートサービスを介して、利用者端末100から所定の情報の提供要求を受け付ける(ステップSc3)。具体的には、情報処理装置10Aは、所定の被服(コーディネートでもよい)に似合う身体的な特徴に関する情報の提供要求を受け付ける。例えば、情報処理装置10Aは、電子商取引サービスや、コーディネートサービスなどのサービス上で利用者U1が被服を指定すると、利用者端末100から被服の指定情報を取得し、その被服に似合う身体的な特徴に関する情報の提供要求を受け付ける。 Next, the information processing device 10A receives a request for specific information from the user terminal 100 via an e-commerce service or a coordination service (step Sc3). Specifically, the information processing device 10A receives a request for information on physical features that go well with specific clothing (or a coordination). For example, when user U1 specifies clothing on a service such as an e-commerce service or a coordination service, the information processing device 10A obtains the specified clothing information from the user terminal 100 and receives a request for information on physical features that go well with the clothing.

そして、情報処理装置10Aは、提供要求に応じて、生成した分散表現空間と、利用者U1が指定した被服に関する情報とに基づき、指定された被服に似合う身体的な特徴を推定する(ステップSc4)。なお、情報処理装置10Aは、分散表現空間に投影された情報と、利用者U1が指定した被服に関する情報とに基づいて、利用者U1が指定した被服に関する情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、指定された被服に似合う身体的な特徴を推定してもよい。 Then, in response to the provision request, the information processing device 10A estimates physical features that go well with the specified clothes based on the generated distributed representation space and the information about the clothes specified by user U1 (step Sc4). Note that the information processing device 10A may estimate a position when the information about the clothes specified by user U1 is projected into the distributed representation space based on the information projected into the distributed representation space and the information about the clothes specified by user U1, and estimate physical features that go well with the specified clothes based on the estimated position.

ここで、図14の例において、情報処理装置10Aは、推定した位置が、画像P1が示す被服#1、画像P3が示す被服#3、並びに、画像P4が示す被服#4の位置に近いと特定したものとする。このような場合、情報処理装置10Aは、被服#1、#3及び#4に関する情報に基づいて、指定された被服に似合う身体的な特徴に関する情報を利用者端末100に提供する(ステップSc5)。 In the example of FIG. 14, the information processing device 10A has determined that the estimated position is close to the positions of clothing #1 shown in image P1, clothing #3 shown in image P3, and clothing #4 shown in image P4. In such a case, the information processing device 10A provides the user terminal 100 with information on physical characteristics that suit the specified clothing, based on the information on clothing #1, #3, and #4 (step Sc5).

(利用者に提供する情報について)
ステップSc5において、情報処理装置10Aは、利用者U1に提供する情報として、例えば、体型に関する情報に限らず、肌色、髪色、髪型、顔型、メイクなどの情報も含めて利用者U1に提供してもよい。また、情報処理装置10Aは、分散表現空間上で最も近いもの(例えば、各項目から一つずつ)を特定して情報を提供してもよいし、分散表現空間上で所定の範囲に含まれるもの全てを特定して情報を提供してもよい(なお、分散表現空間上で近いものから順に優劣をつけて情報を提供してもよいし、分散空間上で所定の範囲に含まれるものは全て同等として情報を提供してもよい)。また、情報処理装置10Aは、推定した身体的な特徴に関する情報に応じた情報を提供することで更なるサービスを行ってもよい。
(Information provided to users)
In step Sc5, the information processing device 10A may provide the user U1 with information including, for example, information on skin color, hair color, hairstyle, face shape, makeup, and the like, as well as information on body type. The information processing device 10A may provide information by identifying the closest items in the distributed representation space (for example, one from each item), or may provide information by identifying all items included in a predetermined range in the distributed representation space (note that information may be provided in order of priority from the closest items in the distributed representation space, or information may be provided for all items included in a predetermined range in the distributed space as equal). The information processing device 10A may also provide further services by providing information according to information on the estimated physical features.

ここで、パーソナルカラー、骨格タイプ、顔タイプなどの身体的特徴を示す指標を、以下適宜、「身体的特徴軸」とする。また、身体的特徴軸に対応する具体的な値を、以下適宜、「身体的特徴値」とする。例えば、利用者U1の「骨格タイプ」の身体的特徴軸に対応する身体的特徴値は「ストレート」であるとする。また、スナップ画像あるいはコーディネートを構成する複数のアイテムのアイテム単体画像(単一のアイテム単体画像でもよい)を、以下適宜、「コーディネート画像」とする。情報処理装置10Aは、利用者U1が電子商取引サービスやコーディネートサービスなどのサービス上でコーディネート画像を指定した際にコーディネート画像に似合う身体的特徴を出力するサービスを提供してもよい。この際、身体的特徴は、身体的特徴軸と身体的特徴値との組で表現されてもよい。また、身体的特徴軸は、想定される身体的特徴値の集合と表現されてもよい。 Here, indices indicating physical features such as personal color, skeletal type, and face type are hereinafter referred to as "physical feature axes" as appropriate. Specific values corresponding to the physical feature axes are hereinafter referred to as "physical feature values" as appropriate. For example, the physical feature value corresponding to the physical feature axis of user U1's "skeletal type" is "straight." A snap image or an individual item image of multiple items constituting an outfit (or an individual item image) is hereinafter referred to as a "coordinate image" as appropriate. Information processing device 10A may provide a service that outputs physical features that suit an outfit image when user U1 specifies the outfit image on a service such as an e-commerce service or a coordinate service. In this case, the physical features may be expressed as a pair of a physical feature axis and a physical feature value. The physical feature axis may be expressed as a set of expected physical feature values.

イメージコンサルティング理論におけるタイプ診断に基づき、パーソナルカラーを「スプリング、サマー、オータム、ウィンター」と分類し、骨格タイプを「ストレート、ウェーブ、ナチュラル」と分類し、顔タイプを「クール、クールカジュアル、フレッシュ、ソフトエレガント、エレガント、キュート、アクティブキュート、フェミニン」と分類することで身体的特徴値を設定する。なお、上述のイメージコンサルティング理論などによる「身体的特徴軸」や「身体的特徴値」の設計はあくまで一例であり、必要に応じて適宜追加又は変更されてもよい。また、髪色やメイクの系統についても、所定の情報に基づき分類することで身体的特徴値を設定する。なお、身体的特徴値は、分類に基づく場合に限られず、連続値であってもよい。また、身体的特徴軸に対応する身体的特徴値が分布として出力されてもよい。例えば、「骨格タイプ」の身体的特徴軸に対して「ストレート:70%、ウェーブ:20%、ナチュラル:10%」などの情報が出力されてもよい。例えば、情報処理装置10Aは、分散表現空間上での画像と、身体的な特徴(各身体的特徴値)との近さに応じてこのような情報を提供してもよい。これにより、利用者はサービスの利用を通じて自身の身体的特徴に合致する商品を探すという目的に加え、どのようなファッションアイテムの組み合わせがどのような身体的特徴を有する利用者に合致するのかを学習することができる。それゆえ、利用者がより自身の身体的特徴に合致したファッションについて理解を深めることができるため、ファッションに対する苦手意識が払拭され、購買意欲の促進に貢献できると考えられ得る。また、所定のサービス上でコーディネートを閲覧している場合や、メール配信などで商品やコーディネートの推奨を行う場合などにおいても、閲覧対象や推奨対象のアイテム又はコーディネートに似合う身体的特徴などの情報が出力されてもよい。 Based on the type diagnosis in the image consulting theory, the personal color is classified as "spring, summer, autumn, winter", the bone structure type is classified as "straight, wavy, natural", and the face type is classified as "cool, cool casual, fresh, soft elegant, elegant, cute, active cute, feminine" to set the physical feature value. The design of the "physical feature axis" and "physical feature value" according to the image consulting theory and the like described above is merely an example, and may be added or changed as necessary. The physical feature value is also set by classifying the hair color and makeup style based on predetermined information. The physical feature value is not limited to being based on a classification, and may be a continuous value. The physical feature value corresponding to the physical feature axis may be output as a distribution. For example, information such as "straight: 70%, wavy: 20%, natural: 10%" may be output for the physical feature axis of "bone structure type". For example, the information processing device 10A may provide such information according to the closeness between the image in the distributed representation space and the physical feature (each physical feature value). In this way, by using the service, users can not only find products that match their own physical characteristics, but also learn what combinations of fashion items suit users with certain physical characteristics. This allows users to gain a deeper understanding of fashion that matches their own physical characteristics, which may help to eliminate aversion to fashion and promote purchasing motivation. In addition, when viewing outfits on a specific service or when products or outfits are recommended through email distribution, information such as the items being viewed or recommended, or physical characteristics that go well with the outfit may be output.

(利用者が今までにないコーディネートを指定した場合の処理について)
ステップSc4において、情報処理装置10Aは、例えば、利用者U1が今までにない(学習データにはない)コーディネートを指定した場合、そのコーディネートに似合う身体的特徴を推定してもよい。例えば、情報処理装置10Aは、学習データにないコーディネートに対しては、コーディネート画像を身体的特徴値が投影されたVSE空間に投影するための写像(モデル)を学習し、当該写像を用いて未知のコーディネートをVSE空間に投影し、当該コーディネート画像に対応する表現の近傍に存在する身体的特徴値を出力してもよい。この際、近傍探索を各身体的特徴軸について独立に行ってもよい。また、VSE空間は身体的特徴軸ごとに別途構成されてもよい。その場合、情報処理装置10Aは、個別にコーディネート画像を投影するための写像を学習してもよい。以下、当該写像を学習するための方法を説明する。
(How to handle a situation where a user specifies a coordination that has never been seen before)
In step Sc4, for example, when the user U1 specifies a coordinated image that has never been seen before (not in the learning data), the information processing device 10A may estimate physical features that suit the coordinated image. For example, for a coordinated image that is not in the learning data, the information processing device 10A may learn a mapping (model) for projecting a coordinated image into a VSE space in which physical feature values are projected, and may use the mapping to project an unknown coordinated image into the VSE space and output physical feature values that exist in the vicinity of an expression corresponding to the coordinated image. At this time, a neighborhood search may be performed independently for each physical feature axis. Also, the VSE space may be configured separately for each physical feature axis. In that case, the information processing device 10A may learn a mapping for projecting a coordinated image individually. A method for learning the mapping will be described below.

アノテーターが「似合う」と評価したコーディネート画像と身体的特徴値(タグ)との組がデータセットとしてあるものとする。ここで、身体的特徴値は、コーディネート画像に撮像された被写体のものであってもよい。また、身体計測デバイスを用いたより詳細な身体計測値でもよい。情報処理装置10Aは、身体的特徴値と身体計測値との双方を用いてコーディネート画像の投稿者本人の身体に関する埋め込みベクトルを構成してもよい。また、アノテーターはコーディネート画像の投稿者本人あるいは本人以外の第三者でもよい。 It is assumed that a dataset contains pairs of coordination images that an annotator has evaluated as "suitable" and physical feature values (tags). Here, the physical feature values may be those of the subject captured in the coordination image. They may also be more detailed body measurements taken using a body measurement device. The information processing device 10A may use both the physical feature values and the body measurements to construct an embedding vector related to the body of the poster of the coordination image. Furthermore, the annotator may be the poster of the coordination image himself or herself, or a third party other than the poster.

また、情報処理装置10Aは、コーディネート画像がスナップ画像からなる場合は、スナップ画像内のファッションアイテムに対応する領域をVSE空間に埋め込む手法と同様の手法で学習してもよい。具体的には、情報処理装置10Aは、スナップ画像中の各アイテムに対応する画像領域を切り出し、各画像領域の画像特徴量を結合したベクトルをVSE空間に投影してもよい。 In addition, when the coordinated image is a snap image, the information processing device 10A may learn using a method similar to the method of embedding areas corresponding to fashion items in the snap image into the VSE space. Specifically, the information processing device 10A may cut out image areas corresponding to each item in the snap image, and project a vector combining image features of each image area into the VSE space.

また、情報処理装置10Aは、コーディネート画像が複数のアイテム単体画像からなる場合は、セットトランスフォーマー(Set Transformer)などを用いて各アイテム単体画像の埋め込みベクトルから単一の埋め込みベクトルを構成することによりVSE空間への埋め込みを行ってもよい。また、情報処理装置10Aは、各アイテム単体画像の埋め込みを結合したベクトルをVSE空間に投影してもよい。また、情報処理装置10Aは、複数のアイテム単体画像の特徴ベクトルの平均をとり単一の埋め込みベクトルを構成してもよい。 In addition, when a coordinated image is made up of multiple individual item images, the information processing device 10A may embed the images into the VSE space by constructing a single embedding vector from the embedding vectors of each individual item image using a set transformer or the like. The information processing device 10A may also project a vector combining the embeddings of each individual item image into the VSE space. The information processing device 10A may also construct a single embedding vector by averaging the feature vectors of multiple individual item images.

(提示する身体的特徴が利用者の身体的特徴と一致しない場合の処理について)
ステップSc5において、利用者U1に対して提示する身体的な特徴が、利用者U1の身体的な特徴と一致しない場合、情報処理装置10Aは、利用者U1が指定したアイテムの変更を提案してもよい。この際、情報処理装置10Aは、どのアイテムに変更したらよいかも含めて提案してもよい。情報処理装置10Aは、提示された情報を利用者U1が真である(正しい)と判断するか偽である(誤っている)と判断するかに応じて異なる処理を行ってもよい。なお、情報処理装置10Aは、真であるか偽であるかの判定を自動的に行ってもよい。情報処理装置10Aは、提示された情報を利用者U1が真であると判断した場合、例えば、現実的な範囲内で利用者U1の身体変容を促してもよい。例えば、情報処理装置10Aは、「今より痩せればシステムの評価値が改善する(指定されたアイテムに似合う身体的特徴になれる)」場合は、利用者U1に対して「運動しましょう」とフィードバックしてもよい。そして、このような場合、情報処理装置10は、提示する身体的特徴(指定されたアイテムに似合う身体的特徴)を、情報処理装置10が提供する所定のボディマネジメントサービス(利用者が写った撮像画像から利用者の身体的特徴を示す情報を定期的に取得し、利用者の体型管理などを支援するサービス)において、利用者が目標とする身体的特徴を示す目標身体情報として設定可能な提供態様で提示(目標として設定するための設定ボタンとともに提供)してもよい。また、情報処理装置10Aは、アイテムの変更の提案において、利用者U1が現状入力しているコーディネート画像のうち、例えば「トップス」のみをランダムに変更し、現在よりも評価値が高くなる(利用者の身体的特徴に似合うようになる)アイテムの組み合わせを提案してもよい。この際、ランダムに変更する試行回数はシステムの設計者が設定してもよいし、現在よりも評価値が高くなるアイテムが見つかるまで繰り返してもよい。また、情報処理装置10Aは、「トップス」以外でも同様の処理を実施してもよい。なお、情報処理装置10Aは、利用者が変更したくないと考えているであろうアイテム(例えば、最初に指定しているアイテム、何度も指定しているアイテムなど)を推定し、それ以外のアイテムでのみ同様の処理を実施するようにしてもよい。また、情報処理装置10Aは、ランダムに変更せず、利用者U1の身体情報を用いてVSE空間上の近傍探索を行い、アイテムの変更先を探索してもよい。例えば、情報処理装置1は、VSE空間上で、利用者U1の身体情報の近くに位置する画像に対応するアイテムに基づいて、アイテムの変更先を決定してもよい。また、情報処理装置10Aは、提示された情報を利用者U1が偽であると判断した場合、例えば、利用者U1からのフィードバックを収集し、合理性がある場合はシステムを更新してもよい。例えば、情報処理装置10Aは、システムの出力の確信度が所定の閾値より低い場合は、利用者U1からのフィードバックを受理してVSE空間を更新してもよい。この際、情報処理装置10Aは、能動学習などの手法を用いて利用者U1からのフィードバックを対話的に取得してもよい。なお、確信度の算出方法はどのようなものであってもよい。また、情報処理装置10Aは、利用者U1の身体情報に類似する学習データの数が一定の量に満たない場合は確信度を低く算出してもよい。
(Processing when the presented physical characteristics do not match the user's physical characteristics)
In step Sc5, if the physical characteristics presented to the user U1 do not match the physical characteristics of the user U1, the information processing device 10A may suggest a change to the item designated by the user U1. At this time, the information processing device 10A may also suggest which item to change to. The information processing device 10A may perform different processing depending on whether the user U1 judges the presented information to be true (correct) or false (incorrect). The information processing device 10A may automatically determine whether the information is true or false. When the information processing device 10A judges the presented information to be true by the user U1, the information processing device 10A may, for example, encourage the user U1 to change his or her body within a realistic range. For example, the information processing device 10A may provide feedback to the user U1 saying, "Let's exercise" if "if you lose weight, the system's evaluation value will improve (you will have physical characteristics that suit the designated item)." In such a case, the information processing device 10 may present the presented physical features (physical features that suit the specified items) in a manner that can be set as target physical information indicating the physical features that the user aims for in a predetermined body management service provided by the information processing device 10 (a service that periodically acquires information indicating the user's physical features from a captured image of the user and supports the user's body shape management, etc.). In addition, the information processing device 10A may randomly change, for example, only the "tops" of the coordination images currently input by the user U1 in proposing a change in items, and propose a combination of items that will have a higher evaluation value than the current combination (that will suit the user's physical features). In this case, the number of attempts to randomly change the items may be set by the system designer, or may be repeated until an item with a higher evaluation value than the current combination is found. In addition, the information processing device 10A may perform a similar process on items other than the "tops". The information processing device 10A may estimate items that the user is likely not to want to change (for example, an item specified first, an item specified many times, etc.), and perform a similar process only on the other items. In addition, the information processing device 10A may not randomly change the information, but may perform a neighborhood search in the VSE space using the physical information of the user U1 to search for a destination of the item. For example, the information processing device 1 may determine a destination of the item based on an item corresponding to an image located near the physical information of the user U1 in the VSE space. In addition, when the user U1 judges that the presented information is false, the information processing device 10A may, for example, collect feedback from the user U1 and update the system if there is rationality. For example, when the confidence level of the output of the system is lower than a predetermined threshold, the information processing device 10A may accept feedback from the user U1 and update the VSE space. At this time, the information processing device 10A may interactively obtain feedback from the user U1 using a method such as active learning. Note that any method of calculating the confidence level may be used. In addition, the information processing device 10A may calculate the confidence level to be low when the number of learning data similar to the physical information of the user U1 is less than a certain amount.

〔9.情報処理装置の構成〕
次に、図15を用いて、情報処理装置10Aの構成について説明する。図15は、実施形態に係る情報処理装置10Aの構成例を示す図である。図15に示すように、情報処理装置10Aは、通信部20と、記憶部30Aと、制御部40Aとを有する。なお、通信部20は、第1の実施形態と同様のため説明を省略する。
9. Configuration of Information Processing Device
Next, the configuration of the information processing device 10A will be described with reference to Fig. 15. Fig. 15 is a diagram showing an example of the configuration of the information processing device 10A according to the embodiment. As shown in Fig. 15, the information processing device 10A has a communication unit 20, a storage unit 30A, and a control unit 40A. Note that the communication unit 20 is the same as in the first embodiment, and therefore the description thereof will be omitted.

(記憶部30Aについて)
記憶部30Aは、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図15に示すように、記憶部30Aは、評価者情報データベース31Aと、利用者情報データベース32Aとを有する。
(Regarding the storage unit 30A)
The storage unit 30A is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in Fig. 15, the storage unit 30A has an evaluator information database 31A and a user information database 32A.

(評価者情報データベース31Aについて)
評価者情報データベース31Aは、評価者に関する各種の情報を記憶する。ここで、図16を用いて、評価者情報データベース31Aが記憶する情報の一例を説明する。図16は、実施形態に係る評価者情報データベース31Aの一例を示す図である。図16の例において、評価者情報データベース31Aは、「評価者ID」、「評価者情報」、「アンケート情報」、「評価情報」といった項目を有する。
(Regarding the evaluator information database 31A)
The evaluator information database 31A stores various types of information related to evaluators. An example of information stored in the evaluator information database 31A will be described with reference to FIG. 16. FIG. 16 is a diagram showing an example of the evaluator information database 31A according to an embodiment. In the example of FIG. 16, the evaluator information database 31A has items such as "evaluator ID,""evaluatorinformation,""questionnaireinformation," and "evaluation information."

「評価者ID」、「アンケート情報」及び「評価情報」は、第1の実施形態と同様のため説明を省略する。「評価者情報」は、評価者に関する情報を示し、例えば、評価者の属性情報や身体的な情報などといった情報が格納される。 The "Evaluator ID", "Survey information", and "Evaluation information" are the same as in the first embodiment, so their explanation will be omitted. "Evaluator information" indicates information about the evaluator, and stores information such as the evaluator's attribute information and physical information.

すなわち、図16では、評価者ID「AID#1」により識別される評価者の評価者情報が「評価者情報#1」、アンケート情報が「アンケート情報#1」、対象ID「DID#1」により識別される評価の対象の画像情報が「画像情報#1」、被服情報が「被服情報#1」、着用者情報が「着用者情報#1」、評価が「評価#1」である例を示す。 That is, FIG. 16 shows an example in which the evaluator information of the evaluator identified by the evaluator ID "AID#1" is "Evaluator Information #1", the questionnaire information is "Questionnaire Information #1", the image information of the subject of evaluation identified by the subject ID "DID#1" is "Image Information #1", the clothing information is "Clothing Information #1", the wearer information is "Wearer Information #1", and the evaluation is "Evaluation #1".

(利用者情報データベース32Aについて)
利用者情報データベース32Aは、利用者に関する各種の情報を記憶する。ここで、図17を用いて、利用者情報データベース32Aが記憶する情報の一例を説明する。図17は、実施形態に係る利用者情報データベース32Aの一例を示す図である。図17の例において、利用者情報データベース32Aは、「利用者ID」、「利用者情報」、「アンケート情報」、「利用者画像」、「フィードバック情報」といった項目を有する。
(Regarding the user information database 32A)
The user information database 32A stores various types of information related to users. An example of information stored in the user information database 32A will now be described with reference to FIG. 17. FIG. 17 is a diagram showing an example of the user information database 32A according to an embodiment. In the example of FIG. 17, the user information database 32A has items such as "user ID,""userinformation,""surveyinformation,""userimage," and "feedback information."

「利用者ID」、「アンケート情報」、「利用者画像」及び「フィードバック情報」は、第1の実施形態と同様のため説明を省略する。「利用者情報」は、利用者に関する情報を示し、例えば、利用者の属性情報や身体的な情報などといった情報が格納される。 The "user ID", "survey information", "user image" and "feedback information" are the same as in the first embodiment, so the explanation will be omitted. "User information" indicates information about the user, and stores information such as the user's attribute information and physical information.

すなわち、図17では、利用者ID「UID#1」により識別される利用者の利用者情報が「利用者情報#11」、アンケート情報が「アンケート情報#11」、利用者画像が「利用者画像#1」、フィードバック情報が「フィードバック情報#1」である例を示す。 In other words, FIG. 17 shows an example in which the user information of a user identified by user ID "UID#1" is "user information #11", the survey information is "survey information #11", the user image is "user image #1", and the feedback information is "feedback information #1".

(制御部40Aについて)
制御部40Aは、コントローラであり、例えば、CPUやMPU等によって、情報処理装置10A内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部40Aは、例えば、ASICやFPGA等の集積回路により実現される。実施形態に係る制御部40Aは、図15に示すように、受付部41Aと、生成部42Aと、推定部43Aと、提供部44Aと、判定部45と、出力部46と、取得部47Aと、更新部48Aとを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、判定部45及び出力部46は、第1の実施形態と同様のため説明を省略する。
(Regarding the control unit 40A)
The control unit 40A is a controller, and is realized, for example, by a CPU, an MPU, or the like, executing various programs stored in a storage device inside the information processing device 10A using a RAM as a working area. The control unit 40A is also realized, for example, by an integrated circuit such as an ASIC or an FPGA. As shown in FIG. 15, the control unit 40A according to the embodiment has a reception unit 41A, a generation unit 42A, an estimation unit 43A, a provision unit 44A, a determination unit 45, an output unit 46, an acquisition unit 47A, and an update unit 48A, and realizes or executes the functions and actions of the information processing described below. Note that the determination unit 45 and the output unit 46 are the same as those in the first embodiment, and therefore will not be described.

(受付部41Aについて)
受付部41Aは、受付部41と同様の情報を受け付ける。また、受付部41Aは、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける。例えば、図14の例において、受付部41Aは、画像P1等を評価者に提示し、画像の被服が着用者に似合っているか否かを示す評価を画像ごとに受け付け、評価者情報データベース31Aに格納する。また、受付部41Aは、被服の画像に対する評価であって、当該被服が評価者自身に似合うか否かを示す評価を複数の評価者から受け付ける。例えば、図14の例において、受付部41Aは、画像P1等を評価者に提示し、画像の被服が評価者自身に似合うか否かを示す評価を画像ごとに受け付け、評価者情報データベース31Aに格納する。また、受付部41Aは、画像ごとに着用者がいるか否かを判断し、着用者がいる場合に被服が着用者に似合っているか否かを示す評価を評価者から受け付け、着用者がいない場合に被服が評価者自身に似合うか否かを示す評価を評価者から受け付けてもよい。
(Regarding the reception unit 41A)
The reception unit 41A receives information similar to that of the reception unit 41. The reception unit 41A also receives evaluations from a plurality of evaluators on an image of a wearer wearing clothes, which indicates whether the clothes suit the wearer. For example, in the example of FIG. 14, the reception unit 41A presents an image P1, etc. to an evaluator, receives an evaluation for each image indicating whether the clothes in the image suit the wearer, and stores the evaluation in the evaluator information database 31A. The reception unit 41A also receives evaluations from a plurality of evaluators on an image of clothes, which indicates whether the clothes suit the evaluator himself/herself. For example, in the example of FIG. 14, the reception unit 41A presents an image P1, etc. to an evaluator, receives an evaluation for each image indicating whether the clothes in the image suit the evaluator himself/herself, and stores the evaluation in the evaluator information database 31A. In addition, the reception unit 41A may determine whether or not there is a wearer for each image, and if there is a wearer, receive an evaluation from the evaluator indicating whether or not the clothing suits the wearer, and if there is no wearer, receive an evaluation from the evaluator indicating whether or not the clothing suits the evaluator himself/herself.

(生成部42Aについて)
生成部42Aは、生成部42と同様の情報を生成する。また、生成部42Aは、受付部41Aにより受け付けられた評価に基づいて、画像と、対象者(評価者が着用者に対する評価を行った場合は着用者が対象者であり、評価者が自身に対する評価を行った場合は評価者が対象者である)の身体的な特徴を示す身体情報とを投影した分散表現空間を生成する。例えば、図14の例において、生成部42Aは、評価者情報データベース31Aを参照し、VSEの技術を用いて、画像と、対象者の身体的な特徴を示す身体情報とを投影した分散表現空間を生成する。
(Regarding the generation unit 42A)
The generating unit 42A generates information similar to that of the generating unit 42. The generating unit 42A also generates a distributed representation space in which an image and physical information indicating the physical characteristics of a subject (when an evaluator evaluates a wearer, the wearer is the subject, and when an evaluator evaluates himself/herself, the evaluator is the subject) are projected based on the evaluation received by the receiving unit 41A. For example, in the example of FIG. 14, the generating unit 42A refers to the evaluator information database 31A and generates a distributed representation space in which an image and physical information indicating the physical characteristics of a subject are projected using the VSE technology.

また、生成部42Aは、評価者が、被服が着用者に似合っている(又は評価者自身に似合う)と高く評価するほど、分散表現空間において画像と、着用者(又は評価者)の身体情報とをより近い位置に投影し、評価者が、被服が着用者に似合っていない(又は評価者自身に似合わない)と低く評価するほど、分散表現空間において画像と、着用者(又は評価者)の身体情報とをより遠い位置に投影してもよい。例えば、図14の例において、生成部42Aは、評価者A1が「似合わない」と評価した画像P2の着用者#2の身体情報E2よりも、評価者A1が「似合う」と評価した画像P1の着用者#1の身体情報E1の近くに、画像P1を投影した分散表現空間F6を生成する。また、生成部42Aは、評価者A2が「似合わない」と評価した画像P1の着用者#1の身体情報E1よりも、評価者A2が「似合う」と評価した画像P2の着用者#2の身体情報E2の近くに、画像P2を投影した分散表現空間F6を生成する。 In addition, the generation unit 42A may project the image and the body information of the wearer (or the evaluator) closer in the distributed representation space as the evaluator evaluates the clothing as being suitable for the wearer (or suitable for the evaluator himself/herself), and project the image and the body information of the wearer (or the evaluator) farther in the distributed representation space as the evaluator evaluates the clothing as being unsuitable for the wearer (or suitable for the evaluator himself/herself). For example, in the example of FIG. 14, the generation unit 42A generates a distributed representation space F6 in which the image P1 is projected closer to the body information E1 of the wearer #1 of the image P1 evaluated as "suitable" by the evaluator A1 than to the body information E2 of the wearer #2 of the image P2 evaluated as "unsuitable" by the evaluator A1. In addition, the generator 42A generates a distributed representation space F6 in which the image P2 is projected closer to the physical information E2 of the wearer #2 of the image P2 that the evaluator A2 evaluated as "suitable" than to the physical information E1 of the wearer #1 of the image P1 that the evaluator A2 evaluated as "unsuitable."

(推定部43Aについて)
推定部43Aは、分散表現空間と、利用者が指定した被服に関する情報とに基づいて、当該利用者により指定された被服に似合う身体的な特徴を推定する。例えば、図14の例において、推定部43Aは、電子商取引サービスや、コーディネートサービスを介した、利用者端末100からの所定の情報の提供要求に応じて、生成された分散表現空間と、利用者U1が指定した被服に関する情報とに基づき、指定された被服に似合う身体的な特徴を推定する。また、推定部43Aは、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該着用者の身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する。また、推定部43Aは、被服の画像に対する評価であって、当該被服が評価者自身に似合うか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者の身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する。また、推定部43Aは、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す複数の評価者からの評価と、被服の画像に対する評価であって、当該被服が評価者自身に似合うか否かを示す当該複数の評価者からの評価とに基づいて生成される、当該画像と、対象者の身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する。
(Regarding the estimation unit 43A)
The estimation unit 43A estimates physical features that suit the clothes specified by the user based on the distributed representation space and information about the clothes specified by the user. For example, in the example of FIG. 14, the estimation unit 43A estimates physical features that suit the specified clothes based on the distributed representation space generated in response to a request for providing specific information from the user terminal 100 via an electronic commerce service or a coordinate service and information about the clothes specified by the user U1. The estimation unit 43A also estimates physical features that suit the specified clothes based on a distributed representation space in which an image of a wearer wearing the clothes is projected and the physical information of the wearer is generated based on evaluations from multiple evaluators indicating whether the clothes suit the wearer. The estimation unit 43A also estimates physical features that suit the specified clothes based on a distributed representation space in which an image of the clothes is projected and the physical information of the evaluator is generated based on evaluations from multiple evaluators indicating whether the clothes suit the evaluator himself or herself. In addition, the estimation unit 43A estimates physical features that suit a specified garment based on a distributed representation space into which the image and the subject's physical information are projected, the space being generated based on evaluations from multiple evaluators of an image of a wearer wearing the garment, indicating whether the garment suits the wearer, and evaluations from the multiple evaluators of an image of the garment, indicating whether the garment suits the evaluator themselves.

(提供部44Aについて)
提供部44Aは、推定部43Aにより推定された身体的な特徴に関する情報を利用者に提供する。例えば、図14の例において、提供部44Aは、指定された被服に似合う身体的な特徴に関する情報を、電子商取引サービスにおいて提供する。また、提供部44Aは、指定された被服に似合う身体的な特徴に関する情報を、コーディネートサービスにおいて提供する。
(Regarding the provision unit 44A)
The providing unit 44A provides the user with information on the physical features estimated by the estimating unit 43A. For example, in the example of Fig. 14, the providing unit 44A provides information on the physical features that go well with the specified clothes in an electronic commerce service. The providing unit 44A also provides information on the physical features that go well with the specified clothes in a coordination service.

(取得部47Aについて)
取得部47Aは、提供部44Aにより提供された身体的な特徴に関する情報に対する、利用者、若しくは、利用者と所定の関係を有する他の利用者からのフィードバックを取得する。例えば、図14の例において、取得部47Aは、電子商取引サービスにおいて、利用者U1が被服#1、#3及び#4を購入したか否かや、レンタルの申込みを行ったか否かを示す情報(フィードバック)を取得し、利用者情報データベース32Aに格納する。また、取得部47Aは、コーディネートサービスにおいて、利用者U1が被服#1、#3及び#4に対するお気に入り登録を行ったか否かを示す情報(フィードバック)を取得する。また、例えば、取得部47Aは、利用者U1が指定した被服に似合う身体的特徴が利用者の身体的特徴と一致している場合、電子商取引サービスにおいて、利用者U1が指定した被服を購入したか否かや、レンタルの申込みを行ったか否かを示す情報(フィードバック)を取得し、利用者情報データベース32Aに格納してもよい。また、取得部47Aは、コーディネートサービスにおいて、利用者U1が指定した被服のお気に入り登録を行ったか否かを示す情報(フィードバック)を取得してもよい。また、取得部47Aは、提供された情報が示す被服を着用した利用者U1に対し、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。また、取得部47Aは、利用者U1が指定した被服を着用した利用者U1に対し、対象者が肯定的であったか(利用者U1(の身体的特徴)に似合うと評価したか)否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得してもよい。また、取得部47Aは、提供した情報が示す被服を利用者U1が対象者にプレゼントした際に、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。また、取得部47Aは、利用者U1が指定した被服に似合う身体的特徴がプレゼントしたい対象者の身体的特徴と一致している場合、対象者が肯定的であったか(対象者(の身体的特徴)に似合うと評価したか)否かを示す情報(フィードバック)を取得してもよい。
(Regarding the acquisition unit 47A)
The acquisition unit 47A acquires feedback from the user or other users having a predetermined relationship with the user with respect to the information on the physical features provided by the provision unit 44A. For example, in the example of FIG. 14, the acquisition unit 47A acquires information (feedback) indicating whether the user U1 has purchased clothes #1, #3, and #4 or applied for rental in the electronic commerce service, and stores the information in the user information database 32A. The acquisition unit 47A also acquires information (feedback) indicating whether the user U1 has registered clothes #1, #3, and #4 as favorites in the coordination service. For example, when the physical features that suit the clothes designated by the user U1 match the physical features of the user, the acquisition unit 47A may acquire information (feedback) indicating whether the user U1 has purchased the designated clothes or applied for rental in the electronic commerce service, and store the information in the user information database 32A. The acquisition unit 47A may also acquire information (feedback) indicating whether the user U1 has registered the designated clothes as favorites in the coordination service. The acquisition unit 47A also acquires information (feedback) indicating whether the target person was positive about the user U1 wearing the clothes indicated by the provided information from the user terminal 100, a terminal device used by the target person, or the like. The acquisition unit 47A may also acquire information (feedback) indicating whether the target person was positive about the user U1 wearing the clothes specified by the user U1 (whether the target person evaluated the clothes as suiting the user U1 (physical characteristics)) from the user terminal 100, a terminal device used by the target person, or the like. The acquisition unit 47A also acquires information (feedback) indicating whether the target person was positive about the clothes indicated by the provided information when the user U1 presented the clothes to the target person as a present from the user terminal 100, a terminal device used by the target person, or the like. The acquisition unit 47A may also acquire information (feedback) indicating whether the target person was positive about the clothes specified by the user U1 (whether the target person evaluated the clothes as suiting the target person (physical characteristics)) or not when the physical characteristics that suit the clothes specified by the user U1 match the physical characteristics of the target person to whom the present is to be presented.

(更新部48Aについて)
更新部48Aは、取得部47Aにより取得されたフィードバックに基づいて、分散表現空間を更新する。利用者U1が被服#1に対して肯定的である場合、更新部48Aは、分散表現空間F6において、身体情報E1と画像P1とを所定の距離近づけるように更新する。一方、利用者U1が被服#3に対して否定的である場合、更新部48Aは、分散表現空間F6において、身体情報E3と画像P3とを所定の距離遠ざけるように更新する。例えば、更新部48Aは、利用者U1が指定した被服を購入したか否かや、レンタルの申込みを行ったか否かを示す情報を取得し、このようなフィードバックに基づいて、利用者U1の身体情報と、利用者U1が指定した被服を示す情報とを所定の距離近づけるように更新する。また、例えば、更新部48Aは、利用者U1が指定した被服を着用した利用者U1に対し、対象者が肯定的であったか否かを示す情報を取得し、このようなフィードバックに基づいて、利用者U1の身体情報と、利用者U1が指定した被服を示す情報とを所定の距離近づけるように更新する。また、例えば、更新部48Aは、利用者U1が指定した被服のプレゼントの対象者が肯定的であったか否かを示す情報を取得し、このようなフィードバックに基づいて、対象者の身体情報と、利用者U1が指定した被服を示す情報とを所定の距離近づけるように更新する。
(Regarding the update unit 48A)
The update unit 48A updates the distributed representation space based on the feedback acquired by the acquisition unit 47A. When the user U1 is positive about the clothing #1, the update unit 48A updates the body information E1 and the image P1 in the distributed representation space F6 so as to bring them closer to each other by a predetermined distance. On the other hand, when the user U1 is negative about the clothing #3, the update unit 48A updates the body information E3 and the image P3 in the distributed representation space F6 so as to move them apart by a predetermined distance. For example, the update unit 48A acquires information indicating whether the user U1 has purchased the designated clothing or has applied for rental, and updates the body information of the user U1 and the information indicating the clothing designated by the user U1 so as to bring them closer to each other by a predetermined distance based on such feedback. Also, for example, the update unit 48A acquires information indicating whether the subject was positive about the user U1 wearing the clothing designated by the user U1, and updates the body information of the user U1 and the information indicating the clothing designated by the user U1 so as to bring them closer to each other by a predetermined distance based on such feedback. Also, for example, the update unit 48A obtains information indicating whether the target person for the gift of the clothing specified by user U1 was positive or not, and based on such feedback, updates the target person's physical information and the information indicating the clothing specified by user U1 to bring them closer by a specified distance.

また、提供した情報が示す被服を着用した利用者U1に対し、対象者が肯定的である場合、更新部48Aは、分散表現空間において、対象者に対応する情報(例えば、身体情報や、アンケートに対する回答など)と当該被服を示す画像とを所定の距離近づけるように更新する。一方、提供した情報が示す被服を着用した利用者U1に対し、対象者が否定的である場合、更新部48Aは、分散表現空間において、対象者に対応する情報と当該被服を示す画像とを所定の距離遠ざけるように更新する。 In addition, if the subject has a positive opinion of user U1 wearing the clothes indicated by the provided information, the update unit 48A updates the information corresponding to the subject (e.g., physical information, responses to a questionnaire, etc.) and the image showing the clothes in the distributed representation space so as to bring them closer together by a predetermined distance. On the other hand, if the subject has a negative opinion of user U1 wearing the clothes indicated by the provided information, the update unit 48A updates the information corresponding to the subject and the image showing the clothes in the distributed representation space so as to move them apart by a predetermined distance.

また、利用者U1に提供した情報が示す被服を利用者U1が対象者にプレゼントした際、対象者が肯定的である場合、更新部48Aは、分散表現空間において、対象者に対応する情報と当該被服を示す画像とを所定の距離近づけるように更新する。一方、利用者U1に提供した情報が示す被服を利用者U1が対象者にプレゼントした際、対象者が否定的である場合、更新部48Aは、分散表現空間において、対象者に対応する情報と当該被服を示す画像とを所定の距離遠ざけるように更新する。 In addition, when user U1 presents the clothes indicated in the information provided to user U1 to a target person, if the target person is positive, the update unit 48A updates the information corresponding to the target person and the image showing the clothes to move closer to each other by a predetermined distance in the distributed representation space. On the other hand, when user U1 presents the clothes indicated in the information provided to user U1 to a target person, if the target person is negative, the update unit 48A updates the information corresponding to the target person and the image showing the clothes to move apart by a predetermined distance in the distributed representation space.

〔10.情報処理のフロー〕
図18を用いて、実施形態に係る情報処理装置10Aの情報処理の手順(4)について説明する。図18は、実施形態に係る情報処理の手順の一例を示すフローチャート(4)である。
[10. Information Processing Flow]
The information processing procedure (4) of the information processing device 10A according to the embodiment will be described with reference to Fig. 18. Fig. 18 is a flowchart (4) showing an example of the information processing procedure according to the embodiment.

図18に示すように、情報処理装置10Aは、被服の画像に対する評価を受け付けたか否かを判定する(ステップS401)。評価を受け付けていない場合(ステップS401;No)、情報処理装置10Aは、評価を受け付けるまで待機する。 As shown in FIG. 18, the information processing device 10A determines whether or not an evaluation for the clothing image has been received (step S401). If an evaluation has not been received (step S401; No), the information processing device 10A waits until an evaluation is received.

一方、評価を受け付けた場合(ステップS401;Yes)、情報処理装置10Aは、評価に基づいて、画像と、対象者の身体的な特徴を示す身体情報とを投影した分散表現空間を生成し(ステップS402)、処理を終了する。 On the other hand, if an evaluation has been received (step S401; Yes), the information processing device 10A generates a distributed representation space into which the image and physical information indicating the subject's physical characteristics are projected based on the evaluation (step S402), and terminates the processing.

次に、図19を用いて、実施形態に係る情報処理装置10Aの情報処理の手順(5)について説明する。図19は、実施形態に係る情報処理の手順の一例を示すフローチャート(5)である。 Next, the information processing procedure (5) of the information processing device 10A according to the embodiment will be described with reference to FIG. 19. FIG. 19 is a flowchart (5) showing an example of the information processing procedure according to the embodiment.

図19に示すように、情報処理装置10Aは、所定の情報の提供要求を受け付けたか否かを判定する(ステップS501)。提供要求を受け付けていない場合(ステップS501;No)、情報処理装置10Aは、提供要求を受け付けるまで待機する。 As shown in FIG. 19, the information processing device 10A determines whether or not a request to provide specific information has been received (step S501). If a request to provide information has not been received (step S501; No), the information processing device 10A waits until a request to provide information is received.

一方、提供要求を受け付けた場合(ステップS501;Yes)、情報処理装置10Aは、評価者からの評価に基づいて生成される、被服の画像と、対象者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する(ステップ502)。続いて、情報処理装置10Aは、推定された身体的な特徴に関する情報を利用者に提供し(ステップS503)、処理を終了する。 On the other hand, if a request for provision is received (step S501; Yes), the information processing device 10A estimates physical features that suit the specified clothing based on a distributed representation space in which an image of the clothing, generated based on the evaluation from the evaluator, and physical information indicating the physical features of the subject are projected (step 502). Next, the information processing device 10A provides the user with information regarding the estimated physical features (step S503), and ends the process.

〔11.効果〕
上述してきたように、実施形態に係る情報処理装置10Aは、推定部43Aと、提供部44Aとを有する。推定部43Aは、被服の画像に対する評価であって、被服が似合うか否かを示す複数の評価者からの評価に基づいて生成される分散表現空間であって、画像と、対象者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する。提供部44Aは、推定部43Aにより推定された身体的な特徴に関する情報を利用者に提供する。
11. Effects
As described above, the information processing device 10A according to the embodiment includes an estimation unit 43A and a provision unit 44A. The estimation unit 43A estimates physical features that suit a specific piece of clothing based on a distributed representation space in which an image of the clothing and physical information indicating the physical features of a subject are projected, the distributed representation space being generated based on evaluations from a plurality of evaluators indicating whether the clothing suits the subject or not, and the provision unit 44A provides the user with information on the physical features estimated by the estimation unit 43A.

これにより、実施形態に係る情報処理装置10Aは、被服の画像と、対象者の身体情報との近さを測れる空間を構成することにより、所定の被服に似合う身体的な特徴を推定することができる。また、実施形態に係る情報処理装置10Aは、生成した分散表現空間を用いて、所定の被服に似合うと推定される身体的な特徴に関する情報を提供することができるため、所定の被服に似合う身体的な特徴を利用者が把握することができるという効果を奏する。 In this way, the information processing device 10A according to the embodiment can estimate physical features that suit a specific piece of clothing by constructing a space that can measure the closeness between an image of the clothing and the subject's physical information. Furthermore, the information processing device 10A according to the embodiment can provide information about physical features that are estimated to suit a specific piece of clothing using the generated distributed representation space, thereby achieving the effect of allowing the user to grasp physical features that suit a specific piece of clothing.

また、推定部43Aは、被服の着用者に似合っているか否かを示す評価者からの評価に基づいて生成される分散表現空間に基づいて推定する。 The estimation unit 43A also makes an estimation based on a distributed representation space that is generated based on evaluations from evaluators indicating whether the clothing suits the wearer.

これにより、実施形態に係る情報処理装置10Aは、被服が着用者に似合っているか否かを示す各評価者の主観に基づき生成される分散表現空間に基づいて、所定の被服に似合う身体的な特徴を利用者が把握することができる。 As a result, the information processing device 10A according to the embodiment allows the user to grasp the physical features that suit a given piece of clothing based on a distributed representation space that is generated based on the subjective opinion of each evaluator indicating whether the clothing suits the wearer.

また、推定部43Aは、対象者である着用者の身体情報を投影した分散表現空間に基づいて推定する。 The estimation unit 43A also estimates based on a distributed representation space onto which the physical information of the subject wearer is projected.

これにより、実施形態に係る情報処理装置10Aは、着用者の身体情報を投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を利用者が把握することができる。 As a result, the information processing device 10A according to the embodiment allows the user to understand the physical features that suit a given piece of clothing based on the distributed representation space onto which the wearer's physical information is projected.

また、推定部43Aは、評価者に似合うか否かを示す評価者からの評価に基づいて生成される分散表現空間に基づいて推定する。 The estimation unit 43A also makes an estimation based on a distributed representation space that is generated based on evaluations from evaluators indicating whether or not the item suits the evaluator.

これにより、実施形態に係る情報処理装置10Aは、被服が評価者に似合うか否かを示す各評価者の主観に基づき生成される分散表現空間に基づいて、所定の被服に似合う身体的な特徴を利用者が把握することができる。 As a result, the information processing device 10A according to the embodiment allows the user to grasp the physical features that suit a given piece of clothing based on a distributed representation space that is generated based on each evaluator's subjective opinion indicating whether the clothing suits the evaluator or not.

また、推定部43Aは、対象者である評価者の身体情報を投影した分散表現空間に基づいて推定する。 The estimation unit 43A also makes an estimation based on a distributed representation space onto which the physical information of the subject, the evaluator, is projected.

これにより、実施形態に係る情報処理装置10Aは、評価者の身体情報を投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を利用者が把握することができる。 As a result, the information processing device 10A according to the embodiment allows the user to grasp the physical features that suit a given piece of clothing based on the distributed representation space onto which the evaluator's physical information is projected.

また、推定部43Aは、画像に被服の着用者が含まれる場合は、被服の着用者に似合っているか否かを示す評価者からの評価に基づいて生成される分散表現空間に基づいて推定し、画像に被服の着用者が含まれない場合は、評価者に似合うか否かを示す評価者からの評価に基づいて生成される分散表現空間に基づいて推定する。 In addition, when the image includes a person wearing the clothes, the estimation unit 43A estimates based on a distributed representation space generated based on the evaluation from the evaluator indicating whether the clothes look good on the wearer, and when the image does not include a person wearing the clothes, the estimation unit 43A estimates based on a distributed representation space generated based on the evaluation from the evaluator indicating whether the clothes look good on the evaluator.

これにより、実施形態に係る情報処理装置10Aは、画像に被服の着用者が含まれるか否かに応じて対象者の身体情報を投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を利用者が把握することができる。 As a result, the information processing device 10A according to the embodiment allows the user to grasp the physical features that suit a particular piece of clothing based on a distributed representation space in which the subject's physical information is projected depending on whether or not the image includes a person wearing the clothing.

また、推定部43Aは、分散表現空間に基づいて、利用者が指定した被服に似合う身体的な特徴を推定する。 In addition, the estimation unit 43A estimates physical features that suit the clothing specified by the user based on the distributed representation space.

これにより、実施形態に係る情報処理装置10Aは、利用者が指定した被服に似合う身体的な特徴を利用者が把握することができる。 In this way, the information processing device 10A according to the embodiment allows the user to understand the physical features that suit the clothing specified by the user.

また、推定部43Aは、被服の組み合わせの画像に対する評価であって、被服の組み合わせが似合うか否かを示す複数の評価者からの評価に基づいて生成される分散表現空間であって、画像と、対象者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服の組み合わせに似合う身体的な特徴を推定する。提供部44Aは、推定部43Aにより推定された身体的な特徴に関する情報を利用者に提供する。 The estimation unit 43A estimates physical features that suit a specific clothing combination based on a distributed representation space in which the image and physical information indicating the subject's physical features are projected, the distributed representation space being generated based on evaluations of the image of the clothing combination from multiple evaluators indicating whether the clothing combination suits the subject or not. The provision unit 44A provides the user with information regarding the physical features estimated by the estimation unit 43A.

これにより、実施形態に係る情報処理装置10Aは、コーディネート画像と、対象者の身体情報との近さを測れる空間を構成することにより、所定の被服の組み合わせに似合う身体的な特徴を推定することができる。また、実施形態に係る情報処理装置10Aは、生成した分散表現空間を用いて、所定の被服の組み合わせに似合うと推定される身体的な特徴に関する情報を提供することができるため、所定の被服の組み合わせに似合う身体的な特徴を利用者が把握することができるという効果を奏する。 In this way, the information processing device 10A according to the embodiment can estimate the physical features that suit a given clothing combination by constructing a space that can measure the similarity between a coordinated image and the subject's physical information. Furthermore, the information processing device 10A according to the embodiment can provide information on the physical features that are estimated to suit a given clothing combination using the generated distributed representation space, thereby achieving the effect of allowing the user to grasp the physical features that suit a given clothing combination.

また、推定部43Aは、被服の着こなしが異なる画像に対する評価であって、被服の着こなしが似合うか否かを示す評価者からの評価に基づいて生成される分散表現空間に基づいて、所定の被服の着こなしに似合う身体的な特徴を推定する。 The estimation unit 43A also estimates physical features that suit a specific clothing style based on a distributed representation space that is generated based on evaluations from evaluators of images showing different clothing styles, indicating whether the clothing style suits the person.

これにより、実施形態に係る情報処理装置10Aは、各評価者の評価に着こなしを加味して生成される分散表現空間に基づいて、所定の被服に似合う身体的な特徴を利用者が把握することができる。 In this way, the information processing device 10A according to the embodiment allows the user to grasp the physical features that suit a given piece of clothing based on the distributed representation space that is generated by taking into account the style of clothing in addition to the evaluations of each evaluator.

〔12.ハードウェア構成〕
また、上述してきた各実施形態に係る情報処理装置10Aは、例えば、図20に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置10Aを例に挙げて説明する。図20は、情報処理装置10Aの機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、ROM1200、RAM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
12. Hardware Configuration
The information processing device 10A according to each embodiment described above is realized, for example, by a computer 1000 having a configuration as shown in Fig. 20. The information processing device 10A will be described below as an example. Fig. 20 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device 10A. The computer 1000 has a CPU 1100, a ROM 1200, a RAM 1300, a HDD 1400, a communication interface (I/F) 1500, an input/output interface (I/F) 1600, and a media interface (I/F) 1700.

CPU1100は、ROM1200又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1200は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on a program stored in the ROM 1200 or the HDD 1400, and controls each component. The ROM 1200 stores a boot program executed by the CPU 1100 when the computer 1000 is started, and programs that depend on the hardware of the computer 1000, etc.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。 HDD 1400 stores programs executed by CPU 1100 and data used by such programs. Communication interface 1500 receives data from other devices via communication network 500 (corresponding to network N in the embodiment) and sends it to CPU 1100, and also transmits data generated by CPU 1100 to other devices via communication network 500.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。 The CPU 1100 controls output devices such as a display and a printer, and input devices such as a keyboard and a mouse, via the input/output interface 1600. The CPU 1100 acquires data from the input devices via the input/output interface 1600. The CPU 1100 also outputs data generated via the input/output interface 1600 to the output devices.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1300を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1300上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1300. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1300 via the media interface 1700 and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable Disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.

例えば、コンピュータ1000が情報処理装置10Aとして機能する場合、コンピュータ1000のCPU1100は、RAM1300上にロードされたプログラムを実行することにより、制御部40Aの機能を実現する。また、HDD1400には、情報処理装置10Aの記憶装置内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing device 10A, the CPU 1100 of the computer 1000 executes a program loaded onto the RAM 1300 to realize the functions of the control unit 40A. In addition, the HDD 1400 stores each piece of data in the storage device of the information processing device 10A. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be obtained from another device via a specified communication network.

〔13.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
13. Other
Although some of the embodiments of the present application have been described in detail above with reference to the drawings, these are merely examples, and the present invention can be embodied in other forms that incorporate various modifications and improvements based on the knowledge of those skilled in the art, including the aspects described in the Disclosure of the Invention section.

また、上述した情報処理装置10Aは、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。 In addition, the configuration of the information processing device 10A described above can be flexibly changed, for example, by calling an external platform, etc., using an API (Application Programming Interface) or network computing, depending on the function.

また、特許請求の範囲に記載した「部」は、「手段」や「回路」などに読み替えることができる。例えば、受付部は、受付手段や受付回路に読み替えることができる。 In addition, the word "unit" in the claims can be read as "means" or "circuit." For example, the reception unit can be read as reception means or reception circuit.

10、10A 情報処理装置
20 通信部
30、30A 記憶部
31、31A 評価者情報データベース
32、32A 利用者情報データベース
40、40A 制御部
41、41A 受付部
42、42A 生成部
43、43A 推定部
44、44A 提供部
45 判定部
46 出力部
47、47A 取得部
48、48A 更新部
100 利用者端末
200 評価者端末
10, 10A Information processing device 20 Communication unit 30, 30A Storage unit 31, 31A Evaluator information database 32, 32A User information database 40, 40A Control unit 41, 41A Reception unit 42, 42A Generation unit 43, 43A Estimation unit 44, 44A Provision unit 45 Determination unit 46 Output unit 47, 47A Acquisition unit 48, 48A Update unit 100 User terminal 200 Evaluator terminal

Claims (13)

被服の画像に対する評価であって、当該被服が着用者に似合うか否かを示す複数の評価者からの評価と、当該着用者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該着用者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する推定部と、
前記推定部により推定された身体的な特徴に関する情報を利用者に提供する提供部と
を有することを特徴とする情報処理装置。
an estimation unit that estimates physical features that suit a specific piece of clothing based on a distributed representation space generated based on evaluations of an image of clothing from a plurality of evaluators indicating whether the clothing suits a wearer and information on the physical features of the wearer , the distributed representation space being projected with the image and physical information indicating the physical features of the wearer;
and a providing unit that provides a user with information regarding the physical feature estimated by the estimation unit.
被服の画像に対する評価であって、当該被服が評価者に似合うか否かを示す複数の評価者からの評価と、当該評価者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該評価者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する推定部と、an estimation unit that estimates physical features that suit a specific piece of clothing based on a distributed representation space generated based on evaluations of an image of clothing from a plurality of evaluators indicating whether the clothing suits the evaluator and information on the physical features of the evaluator, the distributed representation space being projected with the image and physical information indicating the physical features of the evaluator;
前記推定部により推定された身体的な特徴に関する情報を利用者に提供する提供部とa providing unit that provides a user with information about the physical characteristics estimated by the estimating unit;
を有することを特徴とする情報処理装置。13. An information processing device comprising:
前記推定部は、
被服の組合せの画像に対する評価であって、当該被服の組合せ着用者に似合うか否かを示す複数の評価者からの評価と、当該着用者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該着用者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服の組合せに似合う身体的な特徴を推定す
とを特徴とする請求項1に記載の情報処理装置。
The estimation unit is
A distributed representation space is generated based on evaluations of an image of a clothing combination , the evaluations being from a plurality of evaluators indicating whether the clothing combination suits a wearer , and information on the physical characteristics of the wearer , and the physical characteristics that suit a specific clothing combination are estimated based on the distributed representation space onto which the image and physical information indicating the physical characteristics of the wearer are projected.
2. The information processing apparatus according to claim 1 ,
前記推定部は、The estimation unit is
被服の組合せの画像に対する評価であって、当該被服の組合せが評価者に似合うか否かを示す複数の評価者からの評価と、当該評価者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該評価者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服の組合せに似合う身体的な特徴を推定するA distributed representation space is generated based on evaluations of an image of a clothing combination, the evaluations being from a plurality of evaluators indicating whether the clothing combination suits the evaluator, and information on the physical characteristics of the evaluator, and the physical characteristics that suit a specific clothing combination are estimated based on the distributed representation space onto which the image and physical information indicating the physical characteristics of the evaluator are projected.
ことを特徴とする請求項2に記載の情報処理装置。3. The information processing apparatus according to claim 2.
前記推定部は、
被服の着こなしが異なる画像に対する評価であって、当該被服の着こなしが着用者に似合うか否かを示す複数の評価者からの評価と、当該着用者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該着用者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服の着こなしに似合う身体的な特徴を推定する
ことを特徴とする請求項に記載の情報処理装置。
The estimation unit is
The information processing device of claim 1, further comprising : an information processing apparatus for estimating physical features that suit a specified clothing style based on a distributed representation space generated based on evaluations from a plurality of evaluators indicating whether the clothing style suits the wearer and information regarding the physical features of the wearer, the information processing apparatus being characterized in that the physical features that suit a specified clothing style are estimated based on the distributed representation space onto which the images and physical information indicating the physical features of the wearer are projected.
前記推定部は、The estimation unit is
被服の着こなしが異なる画像に対する評価であって、当該被服の着こなしが評価者に似合うか否かを示す複数の評価者からの評価と、当該評価者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該評価者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服の着こなしに似合う身体的な特徴を推定するA distributed representation space is generated based on evaluations of images showing different clothing styles from a plurality of evaluators indicating whether the clothing styles suit the evaluators and information on the physical features of the evaluators, and the distributed representation space is generated based on the evaluations of the images and physical information showing the physical features of the evaluators, and physical features that suit a specific clothing style are estimated based on the distributed representation space projected with the images and physical information showing the physical features of the evaluators.
ことを特徴とする請求項2に記載の情報処理装置。3. The information processing apparatus according to claim 2.
前記推定部は、The estimation unit is
被服の組合せの着こなしが異なる画像に対する評価であって、当該被服の組合せの着こなしが着用者に似合うか否かを示す複数の評価者からの評価と、当該着用者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該着用者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服の組合せの着こなしに似合う身体的な特徴を推定するA distributed representation space is generated based on evaluations of images showing different styles of clothing combinations, which are evaluations from a plurality of evaluators indicating whether the clothing combinations suit a wearer, and information on the physical characteristics of the wearer, and physical characteristics that suit a specific clothing combination are estimated based on the distributed representation space projected with the images and physical information indicating the physical characteristics of the wearer.
ことを特徴とする請求項1に記載の情報処理装置。2. The information processing apparatus according to claim 1,
前記推定部は、The estimation unit is
被服の組合せの着こなしが異なる画像に対する評価であって、当該被服の組合せの着こなしが評価者に似合うか否かを示す複数の評価者からの評価と、当該評価者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該評価者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服の組合せの着こなしに似合う身体的な特徴を推定するA distributed representation space is generated based on evaluations of images showing different styles of clothing combinations, from a plurality of evaluators indicating whether the clothing combinations suit the evaluators, and information on the physical characteristics of the evaluators, and the distributed representation space is generated based on the images and physical information showing the physical characteristics of the evaluators, and physical characteristics that suit a given clothing combination are estimated based on the distributed representation space projected with the images and physical information showing the physical characteristics of the evaluators.
ことを特徴とする請求項2に記載の情報処理装置。3. The information processing apparatus according to claim 2.
前記推定部は、
前記分散表現空間に基づいて、前記利用者が指定した被服に基づき前記身体的な特徴を推定する
ことを特徴とする請求項1~8のいずれか一つに記載の情報処理装置。
The estimation unit is
The information processing apparatus according to claim 1 , further comprising: estimating the physical features based on clothing designated by the user, based on the distributed representation space.
コンピュータが実行する情報処理方法であって、
被服の画像に対する評価であって、当該被服が着用者に似合うか否かを示す複数の評価者からの評価と、当該着用者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該着用者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する推定工程と、
前記推定工程により推定された身体的な特徴に関する情報を利用者に提供する提供工程と
を含むことを特徴とする情報処理方法。
1. A computer-implemented information processing method, comprising:
an estimation step of estimating physical features that suit a specific piece of clothing based on a distributed representation space generated based on evaluations of an image of clothing from a plurality of evaluators indicating whether the clothing suits a wearer and information on the physical features of the wearer , the distributed representation space being projected with the image and physical information indicating the physical features of the wearer;
and a providing step of providing a user with information regarding the physical characteristics estimated by the estimating step.
コンピュータが実行する情報処理方法であって、1. A computer-implemented information processing method, comprising:
被服の画像に対する評価であって、当該被服が評価者に似合うか否かを示す複数の評価者からの評価と、当該評価者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該評価者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する推定工程と、an estimation step of estimating physical features that suit a specific piece of clothing based on a distributed representation space generated based on evaluations of an image of clothing from a plurality of evaluators indicating whether the clothing suits the evaluator and information on the physical features of the evaluator, the distributed representation space being projected with the image and physical information indicating the physical features of the evaluator;
前記推定工程により推定された身体的な特徴に関する情報を利用者に提供する提供工程とa providing step of providing a user with information regarding the physical characteristics estimated by the estimating step;
を含むことを特徴とする情報処理方法。13. An information processing method comprising:
被服の画像に対する評価であって、当該被服が着用者に似合うか否かを示す複数の評価者からの評価と、当該着用者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該着用者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する推定手順と、
前記推定手順により推定された身体的な特徴に関する情報を利用者に提供する提供手順と
をコンピュータに実行させることを特徴とする情報処理プログラム。
an estimation step of estimating physical features that suit a specific piece of clothing based on a distributed representation space generated based on evaluations of an image of clothing from a plurality of evaluators indicating whether the clothing suits a wearer and information on the physical features of the wearer , the distributed representation space being projected with the image and physical information indicating the physical features of the wearer;
and a providing step of providing a user with information regarding the physical characteristics estimated by the estimation step.
被服の画像に対する評価であって、当該被服が評価者に似合うか否かを示す複数の評価者からの評価と、当該評価者の身体的な特徴に関する情報とに基づいて生成される分散表現空間であって、当該画像と、当該評価者の身体的な特徴を示す身体情報とを投影した分散表現空間に基づいて、所定の被服に似合う身体的な特徴を推定する推定手順と、an estimation step of estimating physical features that suit a specific piece of clothing based on a distributed representation space generated based on evaluations of an image of clothing from a plurality of evaluators indicating whether the clothing suits the evaluator and information on the physical features of the evaluator, the distributed representation space being projected with the image and physical information indicating the physical features of the evaluator;
前記推定手順により推定された身体的な特徴に関する情報を利用者に提供する提供手順とa provision step of providing information about the physical characteristics estimated by the estimation step to a user;
をコンピュータに実行させることを特徴とする情報処理プログラム。An information processing program characterized by causing a computer to execute the above.
JP2023115376A 2023-07-13 2023-07-13 Information processing device, information processing method, and information processing program Active JP7553662B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023115376A JP7553662B1 (en) 2023-07-13 2023-07-13 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023115376A JP7553662B1 (en) 2023-07-13 2023-07-13 Information processing device, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP7553662B1 true JP7553662B1 (en) 2024-09-18

Family

ID=92753458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023115376A Active JP7553662B1 (en) 2023-07-13 2023-07-13 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7553662B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210390430A1 (en) 2020-06-12 2021-12-16 Rokkcb10, Inc. Machine Learning System and Method for Garment Recommendation
KR20220111592A (en) 2021-02-02 2022-08-09 주식회사 패션에이드 Fashion coordination style recommendation system and method by artificial intelligence

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210390430A1 (en) 2020-06-12 2021-12-16 Rokkcb10, Inc. Machine Learning System and Method for Garment Recommendation
KR20220111592A (en) 2021-02-02 2022-08-09 주식회사 패션에이드 Fashion coordination style recommendation system and method by artificial intelligence

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Wei-Lin Hsiao et al.,ViBE: Dressing for Diverse Body Shapes,Computer Vision and Pattern Recognition [online],2020年03月28日,Pages 11059-11069,[検索日:2024年5月15日], <URL:https://doi.org/10.48550/arXiv.1912.06697>

Similar Documents

Publication Publication Date Title
Guan et al. Apparel recommendation system evolution: an empirical review
US20180308151A1 (en) Enhancing revenue of a retailer by making a recommendation to a customer
Hwang et al. Attitudes and purchase intentions for smart clothing: Examining US consumers’ functional, expressive, and aesthetic needs for solar-powered clothing
Cho et al. Conceptualization of a holistic brand image measure for fashion-related brands
Sohn et al. An exploratory study of fit and size issues with mass customized men's jackets using 3D body scan and virtual try-on technology
CN106462979A (en) Fashion preference analysis
JP6212013B2 (en) Product recommendation device and product recommendation method
JP7279361B2 (en) Clothing proposal device, clothing proposal method, and program
Chung Effect of facial makeup style recommendation on visual sensibility
US20090037292A1 (en) Intelligent shopping search system
JP2018018136A (en) Electronic commercial transaction system
Jacobs et al. Online apparel shopping behaviour of South African professional women: the role of consumers' apparel shopping scripts
US20160267576A1 (en) System and Method for Controlling and Sharing Online Images of Merchandise
Apeagyei Significance of body image among UK female fashion consumers: The cult of size zero, the skinny trend
US20120062555A1 (en) Virtual personalized fitting room
KR101230034B1 (en) System and method for manufacturing taste idenfication code, and recomendation system and method
KR102506356B1 (en) Apparatus and method for recommending of fashion coordination
US20130060610A1 (en) Methods and systems of using personalized multi-dimensional avatar (pmda) in commerce
JP7553662B1 (en) Information processing device, information processing method, and information processing program
US11526925B2 (en) System and method for fashion recommendations
JP7459206B1 (en) Information processing device, information processing method, and information processing program
JP7391165B1 (en) Information processing device, information processing method, and information processing program
JP7391166B1 (en) Information processing device, information processing method, and information processing program
West Morris The sex wars continue: Hung's postfeminist debate
JP7241842B1 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240905

R150 Certificate of patent or registration of utility model

Ref document number: 7553662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150