JP7391166B1 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7391166B1
JP7391166B1 JP2022159125A JP2022159125A JP7391166B1 JP 7391166 B1 JP7391166 B1 JP 7391166B1 JP 2022159125 A JP2022159125 A JP 2022159125A JP 2022159125 A JP2022159125 A JP 2022159125A JP 7391166 B1 JP7391166 B1 JP 7391166B1
Authority
JP
Japan
Prior art keywords
information
user
information processing
image
clothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022159125A
Other languages
Japanese (ja)
Other versions
JP2024052423A (en
Inventor
良太郎 清水
侑輝 斎藤
拓磨 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zozo Inc
Original Assignee
Zozo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zozo Inc filed Critical Zozo Inc
Priority to JP2022159125A priority Critical patent/JP7391166B1/en
Application granted granted Critical
Publication of JP7391166B1 publication Critical patent/JP7391166B1/en
Publication of JP2024052423A publication Critical patent/JP2024052423A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】所定の対象に似合う被服を利用者が把握する。【解決手段】本願に係る情報処理装置は、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う被服を推定する推定部と、推定部により推定された被服に関する情報を利用者に提供する提供部とを有することを特徴とする。【選択図】図5[Problem] A user grasps clothing that suits a predetermined target. [Solution] An information processing device according to the present application evaluates an image of a wearer wearing clothing, based on evaluations from a plurality of evaluators indicating whether or not the clothing suits the wearer. An estimating unit that estimates clothing that looks good on a predetermined subject based on the generated distributed representation space in which the image and evaluator information indicating the evaluator are projected; The present invention is characterized by having a provision section that provides the information to users. [Selection diagram] Figure 5

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

従来、入力された情報の分散表現を生成し、生成した分散表現同士の比較結果に基づいて、情報の関係性を判定する技術が知られている。このような技術の一例として、商品が備える特徴を表わす商品情報と、単語間の関係性を表す単語情報と、ユーザの嗜好に応じて行動の対象になった商品を表わす学習データとに基づいて、マップ空間上の位置を表わす隠れ特徴ベクトルを、ユーザおよび商品のそれぞれについて推定する技術が提供されている。 2. Description of the Related Art Conventionally, a technique is known in which a distributed representation of input information is generated and a relationship between the information is determined based on a comparison result between the generated distributed representations. As an example of such technology, information is created based on product information that represents the characteristics of the product, word information that represents the relationships between words, and learning data that represents the product that is the target of the user's actions according to the user's preferences. , a technique is provided for estimating hidden feature vectors representing positions on a map space for each of a user and a product.

国際公開第2021/044460号International Publication No. 2021/044460

しかしながら、上述した技術では、所定の対象に似合う被服を利用者が把握することができるとは限らない。 However, with the above-mentioned techniques, it is not always possible for a user to know which clothing suits a predetermined target.

例えば、上述した技術では、ユーザの隠れ特徴ベクトルと商品の隠れ特徴ベクトルとの距離が、当該商品に対するユーザの嗜好を反映した距離となるように隠れ特徴ベクトルを推定しているに過ぎず、所定の対象に似合う被服を利用者が把握することができるとは限らない。 For example, in the above-mentioned technology, the hidden feature vector is only estimated so that the distance between the user's hidden feature vector and the product's hidden feature vector is a distance that reflects the user's preference for the product; It is not always possible for the user to know which clothing suits the target person.

本願は、上記に鑑みてなされたものであって、所定の対象に似合う被服を利用者が把握することを目的とする。 The present application has been made in view of the above, and aims to help users understand clothing that suits a predetermined object.

本願に係る情報処理装置は、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う被服を推定する推定部と、前記推定部により推定された被服に関する情報を利用者に提供する提供部とを有することを特徴とする。 The information processing device according to the present application generates an evaluation of an image of a wearer wearing clothing based on evaluations from a plurality of evaluators indicating whether or not the clothing suits the wearer. an estimating unit that estimates clothing that suits a predetermined subject based on a distributed expression space in which the image and evaluator information indicating the evaluator are projected; and information regarding the clothing estimated by the estimating unit to the user. and a providing unit that provides the information.

実施形態の一態様によれば、所定の対象に似合う被服を利用者が把握することができるという効果を奏する。 According to one aspect of the embodiment, an effect is achieved in that the user can grasp clothing that suits a predetermined target.

図1は、実施形態に係る情報処理システム1の構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an information processing system 1 according to an embodiment. 図2は、実施形態に係る情報処理の一例を示す図(1)である。FIG. 2 is a diagram (1) showing an example of information processing according to the embodiment. 図3は、実施形態に係る分散表現空間の一例を示す図である。FIG. 3 is a diagram illustrating an example of a distributed representation space according to the embodiment. 図4は、実施形態に係る情報処理の一例を示す図(2)である。FIG. 4 is a diagram (2) illustrating an example of information processing according to the embodiment. 図5は、実施形態に係る情報処理装置10の構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of the information processing device 10 according to the embodiment. 図6は、実施形態に係る評価者情報データベース31の一例を示す図である。FIG. 6 is a diagram showing an example of the evaluator information database 31 according to the embodiment. 図7は、実施形態に係る利用者情報データベース32の一例を示す図である。FIG. 7 is a diagram showing an example of the user information database 32 according to the embodiment. 図8は、利用者端末100の画面の一例を示す図(1)である。FIG. 8 is a diagram (1) showing an example of the screen of the user terminal 100. 図9は、利用者端末100の画面の一例を示す図(2)である。FIG. 9 is a diagram (2) showing an example of the screen of the user terminal 100. 図10は、実施形態に係る情報処理の手順の一例を示すフローチャート(1)である。FIG. 10 is a flowchart (1) illustrating an example of an information processing procedure according to the embodiment. 図11は、実施形態に係る情報処理の手順の一例を示すフローチャート(2)である。FIG. 11 is a flowchart (2) illustrating an example of an information processing procedure according to the embodiment. 図12は、実施形態に係る情報処理の手順の一例を示すフローチャート(3)である。FIG. 12 is a flowchart (3) illustrating an example of an information processing procedure according to the embodiment. 図13は、情報処理装置10の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 13 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing device 10.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. Further, in each of the embodiments below, the same parts are given the same reference numerals, and redundant explanations will be omitted.

(実施形態)
〔1.情報処理システムの構成〕
まず、実施形態に係る情報処理システム1について説明する。図1は、実施形態に係る情報処理システム1の構成例を示す図である。図1に示すように、情報処理システム1は、情報処理装置10と、利用者端末100と、評価者端末200とが含まれる。情報処理装置10と、利用者端末100と、評価者端末200とは所定の通信網(ネットワークN)を介して、有線または無線により通信可能に接続される。なお、図1に示した情報処理システム1には、複数台の情報処理装置10、複数台の利用者端末100及び複数台の評価者端末200が含まれてもよい。
(Embodiment)
[1. Information processing system configuration]
First, an information processing system 1 according to an embodiment will be described. FIG. 1 is a diagram illustrating a configuration example of an information processing system 1 according to an embodiment. As shown in FIG. 1, the information processing system 1 includes an information processing device 10, a user terminal 100, and an evaluator terminal 200. The information processing device 10, the user terminal 100, and the evaluator terminal 200 are communicably connected via a predetermined communication network (network N) by wire or wirelessly. Note that the information processing system 1 shown in FIG. 1 may include a plurality of information processing apparatuses 10, a plurality of user terminals 100, and a plurality of evaluator terminals 200.

情報処理装置10は、複数の被服(ファッションアイテムともいい、履物(シューズともいう)や帽子(キャップやハットなど)、装身具(アクセサリともいう)なども含む)の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者(アノテーター)から受け付け、受け付けられた評価に基づいて、当該画像と、前記評価者を示す評価者情報とを投影した分散表現空間を生成し、生成した分散表現空間を用いた情報処理を実現する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。 The information processing device 10 processes images of a wearer wearing a combination of a plurality of clothing (also referred to as fashion items, including footwear (also referred to as shoes), hats (caps, hats, etc.), jewelry (also referred to as accessories), etc.). In the evaluation, evaluations indicating whether or not the combination suits the wearer are accepted from multiple evaluators (annotators), and based on the received evaluations, the image and the evaluator indicating the evaluator are This is an information processing device that generates a distributed representation space on which information is projected and implements information processing using the generated distributed representation space, and is realized by, for example, a server device, a cloud system, etc.

また、例えば、情報処理装置10は、被服を提供(検索、販売等)する電子商取引サービスを提供する。また、情報処理装置10は、被服のコーディネートを示すコンテンツ(画像、動画、記事等)の投稿を利用者から受け付け、他の利用者に提供(検索、配信等)するコーディネートサービスを提供する。 Further, for example, the information processing device 10 provides an electronic commerce service for providing (searching, selling, etc.) clothing. In addition, the information processing device 10 provides a coordination service that accepts submissions of content (images, videos, articles, etc.) showing coordination of clothing from users, and provides (search, distribution, etc.) content to other users.

なお、情報処理装置10は、サービスに係るウェブサイトを提供するウェブサーバとしての機能を有していてもよい。また、情報処理装置10は、利用者端末100にインストールされた各種サービスに関するアプリケーションに表示する情報を、情報処理装置10に配信する装置であってもよい。また、情報処理装置10は、アプリケーションのデータそのものを配信する装置であってもよい。 Note that the information processing device 10 may have a function as a web server that provides a website related to a service. Further, the information processing device 10 may be a device that distributes information to be displayed on an application related to various services installed on the user terminal 100 to the information processing device 10. Further, the information processing device 10 may be a device that distributes application data itself.

また、情報処理装置10は、利用者端末100に制御情報を配信する配信装置として機能してもよい。ここで、制御情報は、例えば、JavaScript(登録商標)等のスクリプト言語やCSS(Cascading Style Sheets)等のスタイルシート言語により記述される。なお、情報処理装置10から配信されるアプリケーションそのものを制御情報とみなしてもよい。 Further, the information processing device 10 may function as a distribution device that distributes control information to the user terminal 100. Here, the control information is written in, for example, a script language such as JavaScript (registered trademark) or a style sheet language such as CSS (Cascading Style Sheets). Note that the application itself distributed from the information processing device 10 may be regarded as control information.

利用者端末100は、利用者によって利用される情報処理装置である。利用者端末100は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。また、利用者端末100は、情報処理装置10や、所定のサービスを提供するサーバ装置などによって配信される情報を、ウェブブラウザやアプリケーションにより表示する。なお、図2に示す例では、利用者端末100がスマートフォンである場合を示す。 The user terminal 100 is an information processing device used by a user. The user terminal 100 is realized by, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. Further, the user terminal 100 displays information distributed by the information processing device 10, a server device that provides a predetermined service, etc. using a web browser or an application. Note that the example shown in FIG. 2 shows a case where the user terminal 100 is a smartphone.

評価者端末200は、複数の被服の組み合わせを着用した着用者の画像に対する評価を行う評価者によって利用される情報処理装置である。評価者端末200は、例えば、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等により実現される。また、評価者端末200は、情報処理装置10や、所定のサービスを提供するサーバ装置などによって配信される情報を、ウェブブラウザやアプリケーションにより表示する。なお、図2に示す例では、評価者端末200がスマートフォンである場合を示す。 The evaluator terminal 200 is an information processing device used by an evaluator who evaluates images of wearers wearing combinations of a plurality of clothing items. The evaluator terminal 200 is realized by, for example, a smartphone, a tablet terminal, a notebook PC, a desktop PC, a mobile phone, a PDA, or the like. Further, the evaluator terminal 200 displays information distributed by the information processing device 10, a server device providing a predetermined service, etc. using a web browser or an application. Note that the example shown in FIG. 2 shows a case where the evaluator terminal 200 is a smartphone.

〔2.情報処理の一例〕
次に、図2~4を用いて、本実施形態に係る情報処理装置等により実現される情報処理の一例について説明する。
[2. An example of information processing]
Next, an example of information processing realized by the information processing apparatus and the like according to this embodiment will be described using FIGS. 2 to 4.

〔2-1.第1の情報処理について〕
以下、図2を用いて、本実施形態に係る情報処理装置等により実現される第1の情報処理について説明する。図2は、実施形態に係る情報処理の一例を示す図(1)である。なお、以下の説明では、利用者端末100が、利用者ID「UID#1」により識別される利用者(利用者U1)により利用されるものとする。また、以下の説明では、利用者端末100を利用者U1と同一視する場合がある。すなわち、以下では、利用者U1を利用者端末100と読み替えることもできる。
[2-1. Regarding the first information processing]
Hereinafter, the first information processing realized by the information processing apparatus and the like according to this embodiment will be described using FIG. 2. FIG. 2 is a diagram (1) showing an example of information processing according to the embodiment. In the following description, it is assumed that the user terminal 100 is used by a user (user U1) identified by the user ID "UID #1". Furthermore, in the following description, the user terminal 100 may be equated with the user U1. That is, below, the user U1 can also be read as the user terminal 100.

また、以下の説明では、評価者端末200を利用する評価者に応じて、評価者端末200-1~200-N(Nは任意の自然数)として説明する。例えば、評価者端末200-1は、評価者ID「AID#1」により識別される評価者(評価者A1)により使用される評価者端末200である。また、以下では、評価者端末200-1~200-Nについて、特に区別なく説明する場合には、評価者端末200と記載する。また、以下の説明では、評価者端末200を評価者と同一視する場合がある。すなわち、以下では、評価者を評価者端末200と読み替えることもできる。 Furthermore, in the following explanation, evaluator terminals 200-1 to 200-N (N is an arbitrary natural number) will be explained depending on the evaluator who uses the evaluator terminal 200. For example, the evaluator terminal 200-1 is the evaluator terminal 200 used by the evaluator (evaluator A1) identified by the evaluator ID "AID#1." Further, in the following, when the evaluator terminals 200-1 to 200-N are described without distinction, they will be referred to as evaluator terminal 200. Furthermore, in the following description, the evaluator terminal 200 may be equated with the evaluator. That is, in the following, the evaluator can also be read as the evaluator terminal 200.

まず、情報処理装置10は、複数の被服の組み合わせ(コーディネート)を着用した着用者の画像に対する評価者の評価を、評価者端末200から受け付ける(ステップSa1)。例えば、情報処理装置10は、着用者のコーディネートが、着用者に似合っているか否かを示す評価を受け付ける。具体的な例を挙げると、情報処理装置10は、画像P1及びP2の組を評価者に提示し、2つの画像を比較して、いずれの画像のコーディネートが着用者に似合っており、いずれの画像のコーディネートが着用者に似合わないかを示す評価を受け付ける。 First, the information processing device 10 receives, from the evaluator terminal 200, an evaluator's evaluation of an image of a wearer wearing a plurality of clothing combinations (coordination) (step Sa1). For example, the information processing device 10 accepts an evaluation indicating whether or not the wearer's coordination suits the wearer. To give a specific example, the information processing device 10 presents a set of images P1 and P2 to the evaluator, compares the two images, determines which image's coordination suits the wearer, and which image's coordination suits the wearer. An evaluation indicating whether the image coordination suits the wearer is accepted.

より具体的な例を挙げると、情報処理装置10は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているという評価、並びに、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合わないという評価(すなわち、画像P1に対する「似合う」という評価と、画像P2に対する「似合わない」という評価)を、評価者A1から受け付ける。なお、どちらの例においても似合っている場合に、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているという評価と、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合っているという評価とを比較したうえで、どちらの評価が相対的に高いか・低いかを判断してもよいし、反対にどちらの例においても似合わなかった場合に、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合わないという評価と、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合わないという評価とを比較したうえで、どちらの評価が相対的に高いか・低いかを判断してもよいものとする。以降の例では相対的に似合うと判断された場合を含めて単に似合うと表記し、同様に相対的に似合わないと判断された場合を含めて単に似合わないと表記する。また、情報処理装置10は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合わないという評価、並びに、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合っているという評価(すなわち、画像P1に対する「似合わない」という評価と、画像P2に対する「似合う」という評価)を、評価者A2から受け付ける。同様に、情報処理装置10は、他の評価者からも、画像P1及びP2の組に関する評価を受け付ける。また、情報処理装置10は、画像P3及びP4の組、画像P5及びP6の組、画像P1及びP3の組、画像P2及びP4の組、・・・といった他の組に関する評価を評価者から受け付ける。 To give a more specific example, the information processing device 10 evaluates that the outfit #1 shown in the image P1 suits the wearer #1 shown in the image P1, and that the outfit #2 shown in the image P2 suits the wearer #1. An evaluation that the image P2 does not suit the wearer #2 (that is, an evaluation that it "suits" the image P1 and an "unsuitable" evaluation for the image P2) is received from the evaluator A1. In addition, if both examples look good on each other, coordination #1 shown in image P1 is evaluated as matching wearer #1 shown in image P1, and coordination #2 shown in image P2 is evaluated as matching wearer #1 shown in image P2. You can decide which evaluation is relatively high or low by comparing the evaluations that it looks good on wearer #2, or conversely, if it does not suit wearer #2 in either example, , compare the evaluation that the coordination #1 shown in the image P1 does not suit the wearer #1 shown in the image P1 and the evaluation that the coordination #2 shown in the image P2 does not suit the wearer #2 shown in the image P2. Based on this, it may be determined which evaluation is relatively high or low. In the following examples, cases where it is determined that the item suits you relatively are simply written as ``suitable'', and similarly cases where it is judged that the item does not suit you relatively are also written as ``doesn't suit you''. The information processing device 10 also evaluates that the coordination #1 shown in the image P1 does not suit the wearer #1 shown in the image P1, and that the coordination #2 shown in the image P2 does not suit the wearer #2 shown in the image P2. An evaluation that the image matches the image P1 (that is, an evaluation that the image P1 does not suit the user and an evaluation that the image P2 matches the image P2) is received from the evaluator A2. Similarly, the information processing device 10 also accepts evaluations regarding the set of images P1 and P2 from other evaluators. The information processing device 10 also receives evaluations from the evaluator regarding other sets such as the set of images P3 and P4, the set of images P5 and P6, the set of images P1 and P3, the set of images P2 and P4, etc. .

続いて、情報処理装置10は、画像に対する評価者の評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する(ステップSa2)。例えば、情報処理装置10は、VSE(Visual-Semantic Embedding)の技術を用いて、分散表現空間を生成する。具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1を投影した分散表現空間F1を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2を投影した分散表現空間F1を生成する。 Subsequently, the information processing device 10 generates a distributed representation space in which the image and evaluator information indicating the evaluator are projected, based on the evaluator's evaluation of the image (step Sa2). For example, the information processing device 10 generates a distributed representation space using VSE (Visual-Semantic Embedding) technology. To give a specific example, the information processing device 10 indicates the evaluator A1 who evaluated the image P1 as "suitable" rather than the evaluator information D2 which indicates the evaluator A2 who evaluated the image P1 as "unsuitable". A distributed representation space F1 in which the image P1 is projected is generated near the evaluator information D1. Further, the information processing device 10 is closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as “suitable” than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as “not suitable”. Then, a distributed representation space F1 is generated by projecting the image P2.

なお、情報処理装置10は、画像に関する各種の情報や、評価者に関する各種の情報を示す評価者情報を投影した分散表現空間を生成してもよい。ここで、図3を用いて、情報処理装置10が生成する分散表現空間の例について説明する。図3は、実施形態に係る分散表現空間の一例を示す図である。 Note that the information processing device 10 may generate a distributed representation space onto which various types of information regarding images and evaluator information indicating various types of information regarding evaluators are projected. Here, an example of the distributed representation space generated by the information processing device 10 will be explained using FIG. 3. FIG. 3 is a diagram illustrating an example of a distributed representation space according to the embodiment.

例えば、画像が示すコーディネートに含まれる被服(アイテム)は、評価者が似合うと感じるか否かに寄与していることが推定される。したがって、情報処理装置10は、画像が示すコーディネートに含まれる被服の画像をさらに投影した分散表現空間F2を生成する。具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服I1の画像を投影した分散表現空間F2を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服I2の画像を投影した分散表現空間F2を生成する。 For example, it is presumed that the clothing (items) included in the coordination shown in the image contributes to whether or not the evaluator feels it looks good. Therefore, the information processing device 10 generates a distributed expression space F2 in which images of clothing included in the coordination indicated by the images are further projected. To give a specific example, the information processing device 10 indicates the evaluator A1 who evaluated the image P1 as "suitable" rather than the evaluator information D2 which indicates the evaluator A2 who evaluated the image P1 as "unsuitable". A distributed expression space F2 is generated near the evaluator information D1, in which an image of the clothing I1 included in the coordination indicated by the image P1 is projected. Further, the information processing device 10 is closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as “suitable” than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as “not suitable”. Then, a distributed expression space F2 is generated by projecting the image of the clothing I2 included in the coordination shown by the image P2.

また、例えば、情報処理装置10は、画像が示すコーディネートに紐付けられた情報をさらに投影した分散表現空間F3を生成する。具体的な例を挙げると、情報処理装置10は、コーディネートの用途や、着用するシチュエーションなどを示すカテゴリをさらに投影した分散表現空間F3を生成する。より具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートのカテゴリT1(カジュアル)を投影した分散表現空間F3を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2のカテゴリT2(デート)を投影した分散表現空間F3を生成する。なお、情報処理装置10は、画像が示すコーディネートに含まれる被服の画像をさらに投影した散表現空間を生成する場合、当該被服に紐付けられた情報をさらに投影した分散表現空間を生成してもよい。 Further, for example, the information processing device 10 generates a distributed expression space F3 in which information linked to the coordination indicated by the image is further projected. To give a specific example, the information processing device 10 generates a distributed expression space F3 in which categories indicating the purpose of coordination, the situation in which the item is worn, etc. are further projected. To give a more specific example, the information processing device 10 assigns the evaluator A1 who evaluated the image P1 as "suitable" to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". A distributed expression space F3 is generated in which the category T1 (casual) of the coordination shown in the image P1 is projected near the evaluator information D1 shown. Further, the information processing device 10 is closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as “suitable” than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as “not suitable”. A distributed expression space F3 is generated by projecting the category T2 (date) of the image P2 onto the image P2. Note that when the information processing device 10 generates a distributed representation space in which an image of clothing included in the coordination indicated by the image is further projected, the information processing device 10 may generate a distributed representation space in which information associated with the clothing is further projected. good.

また、例えば、情報処理装置10は、評価者の属性情報を示す評価者情報を投影した分散表現空間F4を生成する。ここで、評価者A1の属性情報が「20代後半、東京在住」であり、評価者A2の属性情報が「20代前半、大阪在住」であるものとする。このような場合、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2の属性情報よりも、画像P1を「似合う」と評価した評価者A1の属性情報(例えば、属性情報B1(20代後半、東京在住)、属性情報B2(20代後半)及び属性情報B3(東京在住))の近くに、画像P1を投影した分散表現空間F4を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1の属性情報よりも、画像P2を「似合う」と評価した評価者A2の属性情報(例えば、属性情報B4(20代前半、大阪在住)、属性情報B5(大阪在住)及び属性情報B6(20代前半))の近くに、画像P2を投影した分散表現空間F4を生成する。 Further, for example, the information processing device 10 generates a distributed representation space F4 onto which evaluator information indicating evaluator attribute information is projected. Here, it is assumed that the attribute information of evaluator A1 is "late 20s, lives in Tokyo", and the attribute information of evaluator A2 is "early 20s, lives in Osaka". In such a case, the information processing device 10 uses attribute information (e.g., A distributed representation space F4 in which the image P1 is projected is generated near B1 (late 20s, living in Tokyo), attribute information B2 (late 20s), and attribute information B3 (living in Tokyo). Furthermore, the information processing device 10 uses attribute information of evaluator A2 who evaluated image P2 as “suitable” (for example, attribute information B4 (20 A distributed expression space F4 is generated in which the image P2 is projected near the attribute information B5 (residing in Osaka) and the attribute information B6 (early 20s)).

また、例えば、情報処理装置10は、「ファッションに自信がある?」や、「好きな街は?」といったアンケートに対する評価者の回答を示す評価者情報を投影した分散表現空間F5を生成する。ここで、上記のアンケートに対し、評価者A1が「ファッションに自信がない」、「渋谷が好き」と回答し、評価者A2が「ファッションに自信がある」、「原宿が好き」と回答したものとする。このような場合、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2の回答よりも、画像P1を「似合う」と評価した評価者A1の回答(例えば、回答C1(ファッションに自信がない、渋谷が好き)、回答C2(ファッションに自信がない)及び回答C3(渋谷が好き))の近くに、画像P1を投影した分散表現空間F5を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1の回答よりも、画像P2を「似合う」と評価した評価者A2の回答(例えば、回答C4(ファッションに自信がある、原宿が好き)、回答C5(ファッションに自信がある)及び回答C6(原宿が好き))の近くに、画像P2を投影した分散表現空間F5を生成する。 Further, for example, the information processing device 10 generates a distributed expression space F5 in which evaluator information indicating the evaluator's responses to questionnaires such as “Are you confident in fashion?” and “What is your favorite city?” is projected. Here, in response to the above questionnaire, evaluator A1 answered "I am not confident in fashion" and "I like Shibuya", and evaluator A2 answered "I am confident in fashion" and "I like Harajuku". shall be taken as a thing. In such a case, the information processing device 10 evaluates the answer of evaluator A1 who evaluated image P1 as “suitable” (for example, answer C1 (fashion A distributed expression space F5 in which the image P1 is projected is generated near the answers C2 (I am not confident in fashion) and C3 (I like Shibuya)). In addition, the information processing device 10 determines that the answer of the evaluator A2 who evaluated the image P2 as ``suitable'' is higher than the answer of the evaluator A1 who evaluated the image P2 as ``unsuitable'' (for example, answer C4 (I feel confident in fashion). A distributed expression space F5 is generated in which the image P2 is projected near the answer C5 (I am confident in fashion) and the answer C6 (I like Harajuku)).

なお、情報処理装置10が生成する分散表現空間は、上記の例に限定されない。例えば、情報処理装置10は、画像、コーディネートに含まれる被服の画像、コーディネートのカテゴリ、評価者の属性情報、並びに、アンケートに対する評価者の回答を投影した分散表現空間を生成してもよい。 Note that the distributed representation space generated by the information processing device 10 is not limited to the above example. For example, the information processing device 10 may generate a distributed expression space in which images, images of clothing included in the coordination, category of the coordination, attribute information of the evaluator, and the evaluator's answers to a questionnaire are projected.

また、情報処理装置10が生成する分散表現空間に含まれる情報は、上記のような例に限定されず、任意の情報が投影されてもよい。例えば、情報処理装置10は、被服の提供元(例えば、ブランドや、被服を販売するショップなど)を示す情報を投影した分散表現空間を生成してもよい。具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。また、例えば、情報処理装置10は、着用者の身体的な情報(例えば、骨格や体格に関する特徴量)を投影した分散表現空間を生成してもよく、身体的な特徴量を抽出する際に非特許文献1(ViBE: Dressing for Diverse Body Shapes.Wei-Lin Hsiao,Kristen Grauman,Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 11059-11069.)の方法を用いてもよい。 Further, the information included in the distributed representation space generated by the information processing device 10 is not limited to the above example, and any information may be projected. For example, the information processing device 10 may generate a distributed expression space onto which information indicating a clothing provider (for example, a brand, a shop selling clothing, etc.) is projected. To give a specific example, the information processing device 10 indicates the evaluator A1 who evaluated the image P1 as "suitable" rather than the evaluator information D2 which indicates the evaluator A2 who evaluated the image P1 as "unsuitable". A distributed representation space is generated near the evaluator information D1, in which information indicating the provider of the clothing included in the coordination shown by the image P1 is projected. Further, the information processing device 10 is closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as “suitable” than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as “not suitable”. Then, a distributed expression space is generated in which information indicating the provider of the clothing included in the coordination shown by the image P2 is projected. Further, for example, the information processing device 10 may generate a distributed expression space in which physical information of the wearer (for example, features related to the skeleton and physique) is projected, and when extracting the physical features, Non-Patent Document 1 (ViBE: Dressing for Diverse Body Shapes. Wei-Lin Hsiao, Kristen Grauman, Proceedings of the IEEE/CVF Conference on Compu ter Vision and Pattern Recognition (CVPR), 2020, pp. 11059-11069.) May be used.

また、例えば、情報処理装置10は、評価者の各種の属性情報(例えば、職業や、身長、体重、居住地、パーソナルカラー、収入、家賃)、評価者のアンケートの項目(例えば、お気に入りの提供元や、ファッションにかける金額、ファッションの参考に見ている媒体(よく読む雑誌、よく利用するWEBサービス等)、夢中になっていること(趣味等)、将来の夢、ファッションの参考にしている人(芸能人、インフルエンサー等)、なりたいイメージ、取り入れたいアイテム、好きな(憧れな)人のSNSに関する情報、体型の悩み、ファッションの悩みなど)に対する回答、画像が示すコーディネートに紐付けられた情報(例えば、アイテムタイプ、提供元、利用シーン、色、季節、着用の目的、売り文句、素材、サイズ、価格帯など)を示す情報などを投影した分散表現空間を生成してもよい。 For example, the information processing device 10 may also include various attribute information of the evaluator (e.g., occupation, height, weight, place of residence, personal color, income, rent), items of the evaluator's questionnaire (e.g., the provision of favorites, How much you spend on fashion, what media you look at for fashion reference (magazines you often read, web services you often use, etc.), what you're passionate about (hobbies, etc.), your dreams for the future, what you use as reference for fashion. Answers to people (celebrities, influencers, etc.), the image they want to have, items they want to incorporate, information on SNS of people they like (admiration), concerns about their body shape, concerns about fashion, etc., and information linked to the coordination shown in the image. A distributed expression space may be generated in which information indicating (for example, item type, provider, usage scene, color, season, purpose of wearing, sales slogan, material, size, price range, etc.) is projected.

図2に戻り説明を続ける。続いて、情報処理装置10は、電子商取引サービスや、コーディネートサービスを介した、利用者端末100からのコーディネートの提供要求に応じて、生成した分散表現空間と、利用者U1に関する情報とに基づき、利用者U1に似合うコーディネート(言い換えると、利用者が高く評価すると推定されるコーディネートや、利用者も似合うと評価すると推定されるコーディネート)を推定する(ステップSa3)。ここで、利用者U1の属性情報が、「20代後半」であるものとする。このような場合、情報処理装置10は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定する。 Returning to FIG. 2, the explanation will be continued. Subsequently, the information processing device 10 responds to a coordination provision request from the user terminal 100 via an electronic commerce service or a coordination service, based on the generated distributed expression space and information regarding the user U1, Coordination that looks good on user U1 (in other words, coordination that is estimated to be highly evaluated by the user or coordination that is estimated to be evaluated as suitable by the user) is estimated (step Sa3). Here, it is assumed that the attribute information of the user U1 is "late 20's". In such a case, the information processing device 10 estimates that the coordination indicated by the image projected within a predetermined range from the attribute information B2 in the distributed expression space F4 is the coordination that suits the user U1.

なお、情報処理装置10は、分散表現空間に投影された情報と、利用者U1に関する情報とに基づいて、利用者U1に関する情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、利用者U1に似合うコーディネートを推定してもよい。例えば、利用者U1の属性情報が、「20代後半、大阪在住」である場合、情報処理装置10は、分散表現空間F4において、属性情報B2及びB5の中間の位置が、分散表現空間F4において利用者U1に関する情報を投影した場合の位置であると推定し、当該位置から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定してもよい。 Note that the information processing device 10 estimates the position when the information regarding the user U1 is projected onto the distributed representation space based on the information projected onto the distributed representation space and the information regarding the user U1, and calculates the estimated position. Based on this, a coordination that suits the user U1 may be estimated. For example, when the attribute information of the user U1 is "late 20s, living in Osaka", the information processing device 10 determines that the intermediate position between the attribute information B2 and B5 is in the distributed expression space F4. It may be estimated that this is the position where information regarding the user U1 is projected, and the coordination shown by the image projected within a predetermined range from the position may be estimated to be the coordination that suits the user U1.

ここで、図2の例において、情報処理装置10が、画像P1が示すコーディネート#1、画像P3が示すコーディネート#3、並びに、画像P4が示すコーディネート#4を、利用者U1に似合うコーディネートであると推定したものとする。このような場合、情報処理装置10は、コーディネート#1、#3及び#4に関する情報を利用者端末100に提供する(ステップSa4)。例えば、情報処理装置10は、分散表現空間F4において属性情報B2からより近い画像が示すコーディネートに関する情報ほど、利用者U1に似合う度合いが高いと推定し、優先度を高くして提供する。具体的な例を挙げると、情報処理装置10は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、電子商取引サービスにおいて提供する。また、情報処理装置10は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、コーディネートサービスにおいて提供する。このとき、情報処理装置10は、優先度が高い情報ほど、目立つ位置や、ランキングの上位として表示されるように提供してもよい。 Here, in the example of FIG. 2, the information processing device 10 selects coordination #1 shown by the image P1, coordination #3 shown by the image P3, and coordination #4 shown by the image P4 as coordinations that suit the user U1. It is assumed that In such a case, the information processing device 10 provides information regarding coordinates #1, #3, and #4 to the user terminal 100 (step Sa4). For example, the information processing device 10 estimates that coordination-related information indicated by an image closer to the attribute information B2 in the distributed expression space F4 is more likely to suit the user U1, and provides the information with a higher priority. To give a specific example, the information processing device 10 provides information on coordinates #1, #3, and #4 and information regarding clothing included in coordinates #1, #3, and #4 in an electronic commerce service. . In addition, the information processing device 10 provides information on coordination #1, #3, and #4 and information regarding clothing included in coordination #1, #3, and #4 in the coordination service. At this time, the information processing apparatus 10 may provide information such that the higher the priority, the more prominent the information is displayed or the higher the ranking.

なお、情報処理装置10は、コーディネート#1、#3及び#4のうち、利用者U1に関する情報(属性情報、身体的な情報(身長、体重、体型、骨格、髪型、髪の色、肌の色、瞳の色等)等)や、コーディネートに関連する情報(例えば、現在の季節や、現在の流行)などに対応するコーディネートの情報を提供してもよい。例えば、利用者U1が男性である場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、男性向けのコーディネートの情報を提供する。例えば、利用者U1が男性である場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、着用者が男性であるコーディネートや、コーディネートに含まれる被服が男性向けであるコーディネートの情報を提供してもよい。例えば、現在の季節が秋である場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、秋や冬向けのコーディネートの情報を提供する。 Note that the information processing device 10 collects information (attribute information, physical information (height, weight, body shape, bone structure, hairstyle, hair color, skin) regarding the user U1 among coordinates #1, #3, and #4. (e.g., eye color, eye color, etc.), coordination information corresponding to information related to coordination (for example, current season, current fashion), etc. may be provided. For example, if the user U1 is a man, the information processing device 10 provides information on coordinations for men among coordinations #1, #3, and #4. For example, when the user U1 is a man, the information processing device 10 selects coordinates #1, #3, and #4 in which the wearer is a man or in which the clothing included in the coordinates is for men. Information may be provided. For example, when the current season is autumn, the information processing device 10 provides information on coordinations for autumn and winter among coordinations #1, #3, and #4.

また、情報処理装置10は、利用者U1が指定した条件に応じたコーディネートの情報を提供してもよい。例えば、利用者U1がカテゴリ「カジュアル」を条件として指定した場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、分散表現空間(例えば、分散表現空間F3)においてカテゴリT1からより近い位置に投影された画像が示すコーディネートの優先度を高くして提供する。 Further, the information processing device 10 may provide coordination information according to conditions specified by the user U1. For example, when the user U1 specifies the category "casual" as a condition, the information processing device 10 selects coordinates #1, #3, and #4 from the category T1 in the distributed expression space (for example, the distributed expression space F3). Coordination indicated by an image projected at a closer position is given a higher priority.

また、情報処理装置10は、利用者U1の被服に関する嗜好を学習したモデルを用いて、コーディネートの情報を提供してもよい。例えば、情報処理装置10は、被服に関する情報(例えば、画像)を入力した場合に、利用者U1がその被服を嗜好する度合いが高いほど高いスコアを出力するようモデルを学習しておく。そして、情報処理装置10は、そのモデルにコーディネート#1、#3及び#4に関する情報を入力し、出力されたスコアが高い順にコーディネート#1、#3及び#4の情報を利用者U1に提供する。 The information processing device 10 may also provide coordination information using a model that has learned the clothing preferences of the user U1. For example, the information processing device 10 has trained a model so that when information (for example, an image) regarding clothing is input, the higher the user U1's preference for the clothing, the higher the score is output. Then, the information processing device 10 inputs information regarding coordinations #1, #3, and #4 into the model, and provides information on coordinations #1, #3, and #4 to the user U1 in descending order of output scores. do.

続いて、情報処理装置10は、提供した情報に対して利用者U1が肯定的であったか否かを示すフィードバックを利用者端末100から取得する(ステップSa5)。例えば、情報処理装置10は、電子商取引サービスにおいて、利用者U1がコーディネート#1、#3及び#4に含まれる被服を購入したか否かや、レンタルの申込みを行ったか否かを示す情報(フィードバック)を取得する。また、情報処理装置10は、コーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4に対するお気に入り登録を行ったか否かを示す情報(フィードバック)か否かを示す情報を取得する。なお、提供した情報に対して利用者U1が肯定的であったか否かを示す情報は、電子商取引サービスやコーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4を閲覧したか否かや、電子商取引サービスやコーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4に含まれる被服を閲覧したか否かなどでもよく、上記の例に限定されない。 Subsequently, the information processing device 10 obtains feedback from the user terminal 100 indicating whether or not the user U1 is positive about the provided information (step Sa5). For example, in an electronic commerce service, the information processing device 10 provides information ( feedback). The information processing device 10 also acquires information (feedback) indicating whether the user U1 has registered coordinations #1, #3, and #4 as favorites in the coordination service. Note that the information indicating whether the user U1 was positive about the provided information is whether the user U1 viewed coordination #1, #3, and #4 in the e-commerce service or coordination service. Alternatively, in an electronic commerce service or a coordination service, it may also be possible to determine whether the user U1 has viewed clothing included in coordinations #1, #3, and #4, and is not limited to the above example.

続いて、情報処理装置10は、利用者U1からのフィードバックに基づいて、分散表現空間を更新する(ステップSa6)。例えば、利用者U1がコーディネート#1に対して肯定的である場合(例えば、電子商取引サービスにおいてコーディネート#1に含まれる被服を購入した場合や、コーディネートサービスにおいてコーディネート#1に対するお気に入り登録を行った場合)、情報処理装置10は、分散表現空間F4において、属性情報B2と画像P1とを所定の距離近づけるように更新する。一方、利用者U1がコーディネート#3に対して否定的である場合(例えば、電子商取引サービスや、コーディネートサービスにおいて提示したコーディネート#3の情報を閲覧しなかった場合)、情報処理装置10は、分散表現空間F4において、属性情報B2と画像P3とを所定の距離遠ざけるように更新する。なお、利用者U1からのフィードバックは、コーディネートを示す画像に対する似合うか否かの評価とも捉えられるので、画像に対する評価(フィードバック)を行った評価者(利用者U1)を示す評価者情報をさらに分散表現空間に投影してもよい。 Subsequently, the information processing device 10 updates the distributed representation space based on the feedback from the user U1 (step Sa6). For example, if user U1 is positive about coordination #1 (for example, if user U1 purchases clothing included in coordination #1 in an e-commerce service, or if user U1 registers coordination #1 as a favorite in coordination service) ), the information processing device 10 updates the attribute information B2 and the image P1 so as to bring them closer to each other by a predetermined distance in the distributed representation space F4. On the other hand, if the user U1 is negative about coordination #3 (for example, if he did not view the information about coordination #3 presented in the e-commerce service or the coordination service), the information processing device 10 In the expression space F4, the attribute information B2 and the image P3 are updated to be separated by a predetermined distance. In addition, since the feedback from user U1 can also be considered as an evaluation of whether or not the image showing the coordination looks good, the evaluator information indicating the evaluator (user U1) who performed the evaluation (feedback) on the image is further distributed. It may also be projected onto the representation space.

以上のように、実施形態に係る情報処理装置10は、コーディネートを示す画像に対する似合うか否かの評価と、画像に対する評価を行った評価者を示す評価者情報とを投影した分散表現空間を生成する。 As described above, the information processing device 10 according to the embodiment generates a distributed expression space in which an evaluation of whether or not an image showing coordination looks good on the image and evaluator information indicating the evaluator who evaluated the image are projected. do.

ここで、従来、コーディネートが着用者に「似合う」か否かは人それぞれの主観によって大きく異なり、定量化が困難であった。そこで、実施形態に係る情報処理装置10によれば、コーディネートを示す画像と、評価者の個性との近さを測れる空間を構成することにより、「似合う」を定量化することができるため、各評価者の主観から被服が着用者に似合っているかを把握することができる。 Here, conventionally, whether or not an outfit "suits" the wearer greatly depends on the subjectivity of each person, and has been difficult to quantify. Therefore, according to the information processing device 10 according to the embodiment, by configuring a space in which it is possible to measure the closeness between the image showing the coordination and the evaluator's personality, it is possible to quantify "suitability". It is possible to understand whether the clothing suits the wearer from the subjectivity of the evaluator.

また、実施形態に係る情報処理装置10は、生成した分散表現空間を用いて、利用者と類似する評価者の評価に基づき、利用者に似合うと推定されるコーディネートに関する情報を提供する。これにより、実施形態に係る情報処理装置10は、所定の対象(利用者自身等)に似合う被服を利用者が把握することができるという効果を奏する。 Furthermore, the information processing device 10 according to the embodiment uses the generated distributed expression space to provide information regarding coordination that is estimated to suit the user based on evaluations by evaluators similar to the user. As a result, the information processing device 10 according to the embodiment has the effect that the user can grasp clothing that suits a predetermined object (such as the user himself/herself).

〔2-2.第2の情報処理について〕
次に、図4を用いて、本実施形態に係る情報処理装置等により実現される第2の情報処理について説明する。図4は、実施形態に係る情報処理の一例を示す図(2)である。
[2-2. Regarding the second information processing]
Next, the second information processing realized by the information processing apparatus and the like according to this embodiment will be described using FIG. 4. FIG. 4 is a diagram (2) illustrating an example of information processing according to the embodiment.

まず、情報処理装置10は、複数の被服の組み合わせ(コーディネート)を着用した着用者の画像に対する評価を、評価者端末200から受け付ける(ステップSb1)。例えば、情報処理装置10は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているっているか否かを示す評価を受け付ける。 First, the information processing device 10 receives an evaluation of an image of a wearer wearing a plurality of clothing combinations (coordination) from the evaluator terminal 200 (step Sb1). For example, the information processing device 10 accepts an evaluation indicating whether or not coordination #1 shown in the image P1 suits the wearer #1 shown in the image P1.

続いて、情報処理装置10は、画像に対する評価者の評価に基づいて、評価者や画像などの分散表現を生成するための畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))を生成する(ステップSb2)。例えば、情報処理装置10は、画像と、画像に対する評価者の評価と、評価者に関する評価者情報とを含む学習用データを用いてCNNを生成する。具体的な例を挙げると、情報処理装置10は、ある画像を入力した際に、その画像に対して「似合う」と評価した評価者の分散表現と類似する分散表現を出力し、その画像に対して「似合わない」と評価した評価者の分散表現と類似しない分散表現を出力するように、CNNの接続係数を修正する。 Next, the information processing device 10 generates a convolutional neural network (CNN) for generating a distributed representation of the evaluator, the image, etc., based on the evaluator's evaluation of the image (step Sb2). . For example, the information processing device 10 generates a CNN using learning data including an image, an evaluator's evaluation of the image, and evaluator information regarding the evaluator. To give a specific example, when the information processing device 10 inputs a certain image, it outputs a distributed expression similar to the distributed expression of the evaluator who evaluated that the image "suits" the image, and The connection coefficient of the CNN is modified so that it outputs a distributed expression that is not similar to the distributed expression of the evaluator who evaluated it as ``unsuitable.''

ここで、情報処理装置10が、各評価者による評価に基づいて、CNNの学習を繰り返し行った場合、CNNは、各評価者がどの範囲に基づいて、似合うもしくは似合わないの評価を行ったかを推定し、推定結果に応じた各評価者および画像の分散表現を生成するようになる。例えば、CNNは、画像から分散表現を生成する場合、画像を複数の領域に分割し、分割した領域ごとの特徴を示すベクトル(以下、「領域ベクトル」と記載する場合がある。)を生成する。そして、CNNは、複数の領域ベクトルを統合することで、画像全体の特徴を示す分散表現を生成する。なお、CNNは、様々な大きさの領域や特徴について、同様の処理を繰り返し実行し、最終的な分散表現を生成する。また、画像全体を一つの領域とみなしてもよい。また、複数の領域ではなく、単一の領域に基づいて分散表現を生成してもよい。すなわち、必要であれば、画像上の部分的な領域に基づいて分散表現を生成するのではなく、画像全体を考慮した単一の特徴ベクトルを算出してもよい。また、領域の定義は使用するアプリケーションに基づいて任意に定めてもよい。例えば、Fully CNNを用いて特徴抽出することで得られる特徴ベクトルは、各次元が一つの画像上の領域に対応するものとして考えられるが、当該領域に対応する画像空間上のコンテンツに基づいてその領域ベクトルを使用するか否かを決めてもよい。具体的には、人体検出器などによって画像上の人物が存在する複数の領域を特定し、これらの領域ベクトルのAverage Poolingを算出することによって領域ベクトルの統合を行ってもよい。また、その他の例としても、画像上の意味的領域分割を行うことによって領域を特定してもよい。具体的には、例えば、画像上に撮像された人物が存在する画素において、どの部分がトップスまたはボトムスを含むかを特定することで、複数の意味的領域を得ることができる。これらの領域に対応する領域ベクトルを算出し、複数の領域ベクトルを固有の順番で結合(Concatenate処理)することで、対象の被写体の姿勢変動に比較的頑強な画像全体の特徴を示す分散表現を算出してもよい。この際、存在しない意味的領域がある場合(例えば被写体の足が撮像されていない場合にシューズの領域が存在しないなど)、当該の領域ベクトルを任意の特徴ベクトルで代用してもよく、例えば学習データ全体におけるシューズの領域ベクトルの平均ベクトルを用いてもよいし、0で埋めた特徴ベクトルを用いても良い。 Here, when the information processing device 10 repeatedly performs CNN learning based on the evaluations by each evaluator, the CNN learns the range based on which each evaluator evaluated whether it suits him or not. Then, distributed representations of each evaluator and image are generated according to the estimation results. For example, when a CNN generates a distributed representation from an image, it divides the image into multiple regions and generates a vector (hereinafter sometimes referred to as "region vector") that indicates the characteristics of each divided region. . Then, the CNN generates a distributed representation representing the characteristics of the entire image by integrating the plurality of region vectors. Note that CNN repeatedly performs similar processing on regions and features of various sizes to generate a final distributed representation. Alternatively, the entire image may be regarded as one area. Further, the distributed representation may be generated based on a single region instead of a plurality of regions. That is, if necessary, a single feature vector may be calculated that takes the entire image into consideration, instead of generating a distributed representation based on a partial region on the image. Furthermore, the definition of the area may be arbitrarily determined based on the application used. For example, in the feature vector obtained by extracting features using Fully CNN, each dimension can be thought of as corresponding to a region on one image, but the feature vector is You may also decide whether to use a region vector. Specifically, region vectors may be integrated by identifying a plurality of regions in which a person exists in an image using a human body detector or the like, and calculating the average pooling of these region vectors. Furthermore, as another example, regions may be identified by performing semantic region segmentation on the image. Specifically, for example, a plurality of semantic regions can be obtained by specifying which part includes tops or bottoms in a pixel where a person captured on an image exists. By calculating the region vectors corresponding to these regions and combining the multiple region vectors in a unique order (concatenate processing), a distributed representation that shows the characteristics of the entire image is relatively robust to the pose changes of the target subject. It may be calculated. At this time, if there is a semantic region that does not exist (for example, a shoe region does not exist when the subject's feet are not imaged), the region vector may be substituted with an arbitrary feature vector. An average vector of shoe region vectors in the entire data may be used, or a feature vector filled with 0 may be used.

このようなCNNの学習を行う場合、情報処理装置10は、各評価者の位置を固定し、各画像について、似合うと評価した評価者の分散表現(例えば、属性情報等を示す評価者情報に基づく分散表現)と類似する分散表現を出力し、似合わないと評価した評価者の評価者情報の分散表現と類似しない分散表現を出力するように、CNNの学習を行う。このような学習を行った場合、CNNは、似合うと評価した評価者の評価者情報の分散表現と比較的類似する領域ベクトルを生成し、似合わないと評価した評価者の評価者情報の分散表現と比較的類似しない領域ベクトルを生成するように、接続係数等の調整が行われることとなる。このような学習処理を繰り返し行った場合、CNNは、ある領域について、その領域について似合うと評価した可能性が高い各評価者の分散表現と類似し、似合わないと評価した可能性が高い各評価者の分散表現と類似しない領域ベクトルを生成するようになる。 When performing such CNN learning, the information processing device 10 fixes the position of each evaluator, and uses a distributed representation (for example, evaluator information indicating attribute information, etc. The CNN is trained to output a distributed representation that is similar to the distributed representation based on the evaluator) and a distributed representation that is not similar to the distributed representation of the evaluator information of the evaluator who evaluated it as unsuitable. When such learning is performed, the CNN generates a region vector that is relatively similar to the distributed representation of the evaluator information of the evaluators who evaluated it as a good match, and a distributed representation of the evaluator information of the evaluators who evaluated it as an unsuitable one. Connection coefficients and the like will be adjusted so as to generate region vectors that are relatively dissimilar to . When such a learning process is repeated, the CNN will be able to find a distribution representation similar to that of each evaluator who is likely to have rated it as looking good in a certain area, and each evaluation of each evaluator who is likely to have rated it as unsuitable in that area. This will generate region vectors that are dissimilar to the distributed representation of the person.

そこで、情報処理装置10は、このような学習済みのCNNが生成した領域ベクトルを用いて、各評価者が似合うと判断した領域を推定し、推定した領域を示す情報、例えば、ヒートマップ等を提供する。 Therefore, the information processing device 10 uses the region vectors generated by the trained CNN to estimate the regions that each evaluator has judged to look good, and generates information indicating the estimated regions, such as a heat map. provide.

例えば、情報処理装置10は、電子商取引サービスや、コーディネートサービスにおいて、コーディネートを示す画像を利用者U1に提供する際、生成したCNNと、利用者U1に関する情報とに基づき、当該画像の各領域が示す被服のそれぞれが利用者U1に似合う度合いを判定する(ステップSb3)。ここで、図4の例において、画像P1を利用者U1に提供するものとする。このような場合、情報処理装置10は、分散表現が、利用者U1の分散表現(例えば、属性情報等に基づく分散表現)と類似する評価者を特定する。そして、情報処理装置10は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、利用者U1に似合う度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、利用者U1に似合う度合いが低いと判定する。 For example, when providing an image showing coordination to a user U1 in an electronic commerce service or a coordination service, the information processing device 10 determines whether each region of the image is The degree to which each of the clothes shown suits the user U1 is determined (step Sb3). Here, in the example of FIG. 4, it is assumed that the image P1 is provided to the user U1. In such a case, the information processing device 10 identifies an evaluator whose distributed expression is similar to the distributed expression of the user U1 (eg, distributed expression based on attribute information, etc.). Then, the information processing device 10 determines that, among the regions of the image P1, the clothing indicated by the region whose region vector is more similar to the distributed expression of the identified evaluator has a higher degree of suitability for the user U1. , it is determined that the clothing indicated by the region having a lower degree of similarity to the distributed expression of the evaluator is judged to have a lower degree of suitability for the user U1.

なお、情報処理装置10が上述の処理に用いるために生成するものは、CNNに限定されず、分散表現(埋め込み表現)を獲得可能であれば任意のものが生成されてよい。 Note that what is generated by the information processing device 10 for use in the above-described processing is not limited to CNN, and any type of CNN may be generated as long as a distributed representation (embedded representation) can be obtained.

続いて、情報処理装置10は、画像P1をステップSb3において判定した度合いに応じた態様で利用者端末100に出力する(ステップSb4)。例えば、情報処理装置10は、画像P1の各領域が示す被服が利用者U1に似合う度合いをヒートマップで示す画像を出力する。具体的な例を挙げると、ステップSb3において特定した評価者の分散表現と、画像P1のボトムスを示す領域の領域ベクトルが類似し、画像P1のトップスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、ボトムスを示す領域を濃い赤色で表示し、トップスを示す領域を濃い青色で表示する画像P1-1を出力する。また、ステップSb3において特定した評価者の分散表現と、画像P1のトップスを示す領域の領域ベクトルが類似し、画像P1のボトムスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、トップスを示す領域を濃い赤色で表示し、ボトムスを示す領域を濃い青色で表示する画像P1-2を出力する。 Subsequently, the information processing device 10 outputs the image P1 to the user terminal 100 in a manner according to the degree determined in step Sb3 (step Sb4). For example, the information processing device 10 outputs an image showing, in the form of a heat map, the degree to which the clothing indicated by each region of the image P1 suits the user U1. To give a specific example, if the distributed representation of the evaluator identified in step Sb3 is similar to the region vector of the region indicating bottoms in image P1, but not similar to the region vector of the region indicating tops in image P1, the information The processing device 10 outputs an image P1-1 in which an area indicating bottoms is displayed in dark red and an area indicating tops is displayed in dark blue in image P1. Further, if the distributed representation of the evaluator identified in step Sb3 and the region vector of the region indicating the tops of the image P1 are similar, but the region vector of the region indicating the bottoms of the image P1 are not similar, the information processing device 10 In P1, an image P1-2 is output in which the area indicating tops is displayed in dark red and the area indicating bottoms is displayed in dark blue.

なお、情報処理装置10は、画像を出力する際に、各領域の被服が利用者U1に似合う度合いに応じた情報とともに画像を出力してもよい。例えば、画像P1-1を出力する場合、情報処理装置10は、赤色で表示した領域に含まれる被服の購入を提案する情報や、青色で表示した領域に含まれる被服の着用を避けることを提案する旨の情報、赤色で表示した領域に含まれる被服を活かした他のコーディネートに関する情報などとともに、画像P1-1を出力する。 Note that, when outputting the image, the information processing device 10 may output the image together with information according to the degree to which the clothing in each region suits the user U1. For example, when outputting image P1-1, the information processing device 10 may provide information suggesting the purchase of clothing included in the area displayed in red, or suggesting avoiding wearing clothing included in the area displayed in blue. The image P1-1 is output together with information to the effect that it will be used, information regarding other coordination that makes use of the clothing included in the area displayed in red, and the like.

以上のように、実施形態に係る情報処理装置10は、コーディネートのうち、評価者が似合うと評価した被服や、似合わないと評価した被服を示す領域を可視化することができるため、複数の被服の組み合わせのうち、いずれの被服が着用者に似合っているかを把握することができる。また、実施形態に係る情報処理装置10は、利用者が、自身と類似する属性を有する評価者が、コーディネートのうちいずれの被服を似合うと評価するかを把握することができるため、着用する被服の指針を利用者が得ることができる。 As described above, the information processing device 10 according to the embodiment can visualize the areas of clothing that the evaluator has evaluated as suitable or unsuitable in the coordination. It is possible to know which clothing out of the combinations suits the wearer. In addition, the information processing device 10 according to the embodiment allows the user to understand which clothing among the coordination is evaluated as suitable by the evaluators who have similar attributes to the user, so that the user can select the clothing to wear. Users can obtain guidelines.

〔3.その他の処理例〕
なお、上述した処理は一例に過ぎず、情報処理装置10は、様々な情報を用いて様々な処理を行ってもよい。この点について、以下例示を列挙する。
[3. Other processing examples]
Note that the above-described processing is only an example, and the information processing device 10 may perform various processing using various information. In this regard, examples are listed below.

〔3-1.利用者に関する情報に基づくコーディネートの推定について〕
図2の例において、情報処理装置10は、分散表現空間と、利用者U1が選択したカテゴリとに基づいて、利用者U1に似合うコーディネートを推定してもよい。例えば、利用者端末100からのコーディネートの提供要求とともに、利用者U1がカテゴリ「カジュアル」を選択したことを示す情報を受け付けた場合、情報処理装置10は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートであって、分散表現空間F3において、カテゴリT1から所定の範囲内に投影された画像が示すコーディネートを、カテゴリ「カジュアル」において利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。
[3-1. About estimating coordination based on information about users]
In the example of FIG. 2, the information processing device 10 may estimate coordination that suits the user U1 based on the distributed expression space and the category selected by the user U1. For example, when receiving information indicating that the user U1 has selected the category "casual" along with a request for provision of coordination from the user terminal 100, the information processing device 10, in the distributed expression space F4, selects the attribute information B2 from the attribute information B2. Coordination shown by an image projected within a predetermined range, and which is shown by an image projected within a predetermined range from category T1 in the distributed expression space F3, is a coordination that suits the user U1 in the category "casual". , and provides the user terminal 100 with information related to the coordination, which corresponds to information related to the user U1, information related to the coordination, and the like among the coordinations.

また、情報処理装置10は、分散表現空間と、アンケートに対する利用者U1の回答とに基づいて、利用者U1に似合うコーディネートを推定してもよい。例えば、「ファッションに自信がある?」といったアンケートに対し、利用者U1が「ファッションに自信がない」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Further, the information processing device 10 may estimate coordination that suits the user U1 based on the distributed expression space and the user U1's answers to the questionnaire. For example, if the user U1 answers ``I am not confident in fashion'' in response to a questionnaire such as ``Are you confident in fashion?'', the information processing device 10 selects a response within a predetermined range from the answer C2 in the distributed expression space F5. The coordinates shown in the image projected on the image are estimated to be coordinates that suit the user U1, and among the coordinates, information about the coordinates corresponding to information related to the user U1 and information related to the coordinates is sent to the user terminal. 100.

なお、情報処理装置10は、利用者U1に関する情報に基づいて、コーディネートの提案を行ってもよい。例えば、「ファッションに自信がある?」といったアンケートに対し、利用者U1が「ファッションに自信がない」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C2及び5間の所定の位置(例えば、中間の位置)から所定の範囲内に投影された画像が示すコーディネートを、「ファッションに自信を持つために挑戦してみませんか?」といったコメントと共に提案する。すなわち、情報処理装置10は、利用者U1の将来に関する情報に基づいて、コーディネートの提案を行ってもよい。 Note that the information processing device 10 may propose coordination based on information regarding the user U1. For example, if the user U1 answers ``I am not confident in fashion'' in response to a questionnaire such as ``Are you confident in fashion?'', the information processing device 10 selects a predetermined value between answers C2 and 5 in the distributed expression space F5. Coordination shown by an image projected within a predetermined range from a position (for example, a middle position) is proposed along with a comment such as ``Would you like to try it to gain confidence in fashion?'' That is, the information processing device 10 may propose coordination based on information regarding the future of the user U1.

〔3-2.対象者に関する情報に基づくコーディネートの推定について〕
図2の例において、情報処理装置10は、分散表現空間と、利用者U1と所定の関係性を有する対象者(例えば、利用者U1が会う相手)に関する情報とに基づいて、対象者が利用者U1に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間と、対象者の属性とに基づいて、対象者が利用者U1に似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、対象者の属性情報が、「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。
[3-2. About estimating coordination based on information about the target person]
In the example of FIG. 2, the information processing device 10 determines whether the target person can use the space based on the distributed representation space and information about the target person who has a predetermined relationship with the user U1 (for example, the person the user U1 meets). Coordination that is evaluated to look good on person U1 may be estimated. For example, the information processing device 10 may estimate the coordination that the target person evaluates to look good on the user U1 based on the distributed expression space and the attributes of the target person. To give a specific example, when the attribute information of the subject is "early 20s", the information processing device 10 determines that the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is The coordinates shown are estimated to be coordinates that the target person evaluates to look good on, and among the coordinates, information regarding the coordinates corresponding to information related to the user U1, information related to the coordinates, etc. is provided to the user terminal 100. .

また、例えば、情報処理装置10は、分散表現空間と、アンケートに対する対象者の回答とに基づいて、対象者が似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Further, for example, the information processing device 10 may estimate a coordination that is evaluated as suitable for the target person based on the distributed expression space and the target person's responses to the questionnaire. To give a specific example, when a subject answers "I am confident in fashion" to a questionnaire asking "Are you confident in fashion?", the information processing device 10 calculates the answer C5 in the distributed expression space F5. The coordinates shown by the image projected within a predetermined range are estimated to be the coordinates that the target person evaluates to look good on, and among the coordinates, information related to the user U1 and information related to the coordinates are corresponded to. Information regarding coordination is provided to the user terminal 100.

また、情報処理装置10は、分散表現空間に投影された情報と、対象者に関する情報とに基づいて、対象者に関する情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、対象者が利用者に似合うと評価するコーディネートを推定してもよい。例えば、対象者の属性情報が、「20代前半、東京在住」である場合、情報処理装置10は、分散表現空間F4において、属性情報B3及びB6の中間の位置が、分散表現空間F4において対象者に関する情報を投影した場合の位置であると推定する。そして、情報処理装置10は、推定した位置から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Further, the information processing device 10 estimates the position when the information regarding the target person is projected onto the distributed representation space based on the information projected onto the distributed representation space and the information regarding the target person, and based on the estimated position. , the coordinates that the target person evaluates as looking good on the user may be estimated. For example, if the target person's attribute information is "early 20s, living in Tokyo," the information processing device 10 determines that the intermediate position between attribute information B3 and B6 is the target person in the distributed representation space F4. This is estimated to be the location when information about the person is projected. Then, the information processing device 10 estimates that the coordinates shown in the image projected within a predetermined range from the estimated position are coordinates that the target person evaluates to look good on, and among the coordinates, information about the user and , provides the user terminal 100 with information related to coordination corresponding to information related to coordination, etc.

これにより、例えば、対象者が利用者に似合うと評価するコーディネートを推定することができるため、これから会う人の好印象を持ってもらうために何を着ればいいかを利用者が把握することができる。 This allows, for example, to estimate the coordination that the target person evaluates as looking good on the user, so the user can understand what to wear to make a good impression on the person they are about to meet. can.

なお、対象者が利用者U1に似合うと評価するコーディネートに関する情報を提供した場合、情報処理装置10は、当該コーディネートに対する対象者からのフィードバックを取得してもよい。例えば、情報処理装置10は、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。そして、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的である場合、情報処理装置10、分散表現空間において、対象者に対応する情報(例えば、属性情報や、アンケートに対する回答など)と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が否定的である場合、情報処理装置10は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。なお、対象者からのフィードバックは、コーディネートを示す画像に対する似合うか否かの評価とも捉えられるので、画像に対する評価(フィードバック)を行った評価者(対象者)を示す評価者情報をさらに分散表現空間に投影してもよい。 Note that when the target person provides information regarding coordination that is evaluated as being suitable for the user U1, the information processing device 10 may obtain feedback from the target person regarding the coordination. For example, the information processing device 10 sends information (feedback) indicating whether or not the target person is positive about the user U1 wearing the coordination indicated by the provided information to the user terminal 100 or the target person. Obtain from a terminal device, etc. If the target person is positive about the user U1 wearing the coordination indicated by the provided information, the information processing device 10 generates information corresponding to the target person (for example, attribute information, questionnaire information, etc.) in the distributed expression space. etc.) and the image showing the coordination are updated so that they are brought closer to each other by a predetermined distance. On the other hand, if the target person is negative about the user U1 wearing the coordination indicated by the provided information, the information processing device 10 displays information corresponding to the target person and an image indicating the coordination in the distributed expression space. Update to move them a predetermined distance away. In addition, since feedback from the target person can also be considered as an evaluation of whether or not the image showing coordination looks good on you, evaluator information indicating the evaluator (target person) who performed the evaluation (feedback) on the image is further added to the distributed representation space. It may be projected onto.

また、情報処理装置10は、分散表現空間と、利用者に関する情報と、利用者と所定の関係性を有する対象者に関する情報とに基づいて、利用者が自身に似合うと評価し、かつ、対象者が利用者に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間において、利用者に関する情報から所定の範囲に投影され、かつ、対象者に関する情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、情報処理装置10は、分散表現空間において、アンケートに対する利用者の回答を示す情報から所定の範囲に投影され、かつ、アンケートに対する対象者の回答を示す情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Further, the information processing device 10 evaluates that the user looks good on himself/herself based on the distributed expression space, information about the user, and information about the target person who has a predetermined relationship with the user, and It is also possible to estimate the coordination that a person evaluates as looking good on the user. For example, in the distributed representation space, the information processing device 10 can coordinate the coordinates between the user and the target person, which are shown by images projected in a predetermined range from information about the user and projected into a predetermined range from information about the target person. The user terminal 100 is estimated to be a coordination that is evaluated as matching both of the coordinates, and provides the user terminal 100 with information about the coordination that corresponds to information about the user, information related to the coordination, and the like. The information processing device 10 also generates an image projected in a predetermined range from information indicating the user's answers to the questionnaire in the distributed representation space, and projected in a predetermined range from the information indicating the target person's answers to the questionnaire. The coordinates indicated by are estimated to be coordinates that both the user and the target person evaluate as looking good, and among the coordinates, information about the coordinates that corresponds to information about the user and information related to the coordinates is sent to the user. The information is provided to the terminal 100.

また、情報処理装置10は、分散表現空間に投影された情報と、利用者に関する情報と、対象者に関する情報とに基づいて、利用者と対象者の両者に基づく情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、利用者が自身に似合うと評価し、かつ、対象者が利用者に似合うと評価するコーディネートを推定してもよい。例えば、利用者の属性情報が「20代後半」であり、対象者の属性情報が「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B2及びB5の中間の位置が、分散表現空間F4において利用者と対象者の両者に対応する情報を投影した場合の位置であると推定し、当該位置から所定の範囲内に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定する。そして、情報処理装置10は、推定したコーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Furthermore, the information processing device 10 projects information based on both the user and the target person onto the distributed representation space based on the information projected onto the distributed representation space, the information regarding the user, and the information regarding the target person. The coordinates that the user evaluates to look good on him/herself and that the target person evaluates as look good on the user may be estimated based on the estimated position. For example, if the user's attribute information is "late 20's" and the target person's attribute information is "early 20's", the information processing device 10, in the distributed representation space F4, The position is estimated to be the position where information corresponding to both the user and the target person is projected in the distributed expression space F4, and the coordination indicated by the image projected within a predetermined range from the position is used. It is assumed that this is a coordination that both the person and the target person evaluate as looking good. Then, the information processing device 10 provides the user terminal 100 with information about coordination, which corresponds to information about the user, information related to coordination, etc., out of the estimated coordination.

〔3-3.対象者に似合うコーディネートの推定について〕
図2の例において、情報処理装置10は、分散表現空間と、利用者U1と所定の関係性を有する対象者(例えば、利用者U1がプレゼントを贈る相手)に関する情報とに基づいて、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間と、対象者の属性とに基づいて、対象者が自身に似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、対象者の属性情報が、「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報(属性情報、身体的な情報(身長、体重、体型、骨格、髪型、髪の色、肌の色、瞳の色等)等)や、コーディネートに関連する情報などに対応するコーディネート(例えば、対象者が女性である場合には、女性向けのコーディネート)に関する情報を利用者端末100に提供する。
[3-3. About estimating coordination that suits the target person]
In the example of FIG. 2, the information processing device 10 determines the target person based on the distributed representation space and information regarding the target person who has a predetermined relationship with the user U1 (for example, the person to whom the user U1 gives a present). It is also possible to estimate the coordinates that the person evaluates as looking good on him/herself. For example, the information processing device 10 may estimate the coordination that the target person evaluates as suitable for him/herself based on the distributed expression space and the target person's attributes. To give a specific example, when the attribute information of the subject is "early 20s", the information processing device 10 determines that the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is The coordinates shown are estimated to be the coordinates that the target person evaluates to look good on, and information about the target person (attribute information, physical information (height, weight, body shape, bone structure, hairstyle, hair color, (skin color, eye color, etc.) and coordination-related information (for example, if the target person is a woman, coordination for women) is provided to the user terminal 100. do.

また、例えば、情報処理装置10は、分散表現空間と、アンケートに対する対象者の回答とに基づいて、対象者が自身に似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Further, for example, the information processing device 10 may estimate the coordination that the target person evaluates as suitable for him/herself based on the distributed expression space and the target person's responses to the questionnaire. To give a specific example, when a subject answers "I am confident in fashion" to a questionnaire asking "Are you confident in fashion?", the information processing device 10 calculates the answer C5 in the distributed expression space F5. The coordinates shown in the image projected within a predetermined range are estimated to be the coordinates that the target person evaluates as looking good, and among the coordinates, coordinates corresponding to information about the target person or information related to the coordinates are selected. information regarding the information is provided to the user terminal 100.

また、情報処理装置10は、分散表現空間に投影された情報と、対象者に関する情報とに基づいて、対象者に関する情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、対象者の属性情報が、「20代前半、東京在住」である場合、情報処理装置10は、分散表現空間F4において、属性情報B3及びB6の中間の位置が、分散表現空間F4において対象者に関する情報を投影した場合の位置であると推定する。そして、情報処理装置10は、推定した位置から所定の範囲内に投影された画像が示すコーディネートを、対象者が自身に似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Further, the information processing device 10 estimates the position when the information regarding the target person is projected onto the distributed representation space based on the information projected onto the distributed representation space and the information regarding the target person, and based on the estimated position. , the coordinates that the subject evaluates as looking good on him/herself may be estimated. For example, if the target person's attribute information is "early 20s, living in Tokyo," the information processing device 10 determines that the intermediate position between attribute information B3 and B6 is the target person in the distributed representation space F4. This is estimated to be the location when information about the person is projected. Then, the information processing device 10 estimates that the coordination indicated by the image projected within a predetermined range from the estimated position is the coordination that the subject evaluates as looking good on him/herself, and among the coordination, the coordination that is related to the subject is The user terminal 100 is provided with coordination-related information corresponding to information, coordination-related information, and the like.

なお、対象者が自身に似合うと評価するコーディネートに関する情報を提供した場合、情報処理装置10は、当該コーディネートに対する対象者からのフィードバックを取得してもよい。例えば、情報処理装置10は、提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際に、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。そして、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が肯定的である場合、情報処理装置10は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が否定的である場合、情報処理装置10は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。なお、対象者からのフィードバックは、コーディネートを示す画像に対する似合うか否かの評価とも捉えられるので、画像に対する評価(フィードバック)を行った評価者(対象者)を示す評価者情報をさらに分散表現空間に投影してもよい。 Note that when the target person provides information regarding coordination that he/she evaluates as suitable for him/herself, the information processing device 10 may obtain feedback from the target person regarding the coordination. For example, when the user U1 presents clothes included in the coordination indicated by the provided information to a target person, the information processing device 10 sends information (feedback) indicating whether or not the target person was positive about the clothing to the user U1. It is acquired from the terminal 100 or a terminal device used by the subject. Then, when the user U1 presents the clothes included in the coordination indicated by the information provided to the user U1 to the target person, if the target person is positive, the information processing device 10 presents the clothes included in the coordination indicated by the information provided to the user U1 to the target person. The information corresponding to the image and the image showing the coordination are updated so as to be closer to each other by a predetermined distance. On the other hand, when the user U1 presents clothing included in the coordination indicated by the information provided to the user U1 to the target person, if the target person is negative, the information processing device 10 The information corresponding to the image and the image showing the coordination are updated so as to be separated by a predetermined distance. In addition, since feedback from the target person can also be considered as an evaluation of whether or not the image showing coordination looks good on you, evaluator information indicating the evaluator (target person) who performed the evaluation (feedback) on the image is further added to the distributed representation space. It may be projected onto.

また、情報処理装置10は、分散表現空間と、利用者に関する情報と、利用者と所定の関係性を有する対象者に関する情報とに基づいて、利用者が対象者に似合うと評価し、かつ、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間において、利用者に関する情報から所定の範囲に投影され、かつ、対象者に関する情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、情報処理装置10は、分散表現空間において、アンケートに対する利用者の回答を示す情報から所定の範囲に投影され、かつ、アンケートに対する対象者の回答を示す情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Further, the information processing device 10 evaluates that the user suits the target person based on the distributed expression space, information about the user, and information about the target person who has a predetermined relationship with the user, and Coordination that the subject evaluates as looking good on him/herself may be estimated. For example, in the distributed representation space, the information processing device 10 can coordinate the coordinates between the user and the target person, which are shown by images projected in a predetermined range from information about the user and projected into a predetermined range from information about the target person. The user terminal 100 is estimated to be a coordinate that is evaluated as matching both of the coordinates, and provides the user terminal 100 with information regarding the coordinate corresponding to information regarding the target person, information related to the coordinate, and the like among the coordinates. The information processing device 10 also generates an image projected in a predetermined range from information indicating the user's answers to the questionnaire in the distributed representation space, and projected in a predetermined range from the information indicating the target person's answers to the questionnaire. The coordinates indicated by are estimated to be coordinates that both the user and the target person evaluate as looking good, and among the coordinates, information about the coordinates that corresponds to information about the target person, information related to the coordinates, etc. is sent to the user. The information is provided to the terminal 100.

また、情報処理装置10は、分散表現空間に投影された情報と、利用者に関する情報と、対象者に関する情報とに基づいて、利用者と対象者の両者に基づく情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、利用者が対象者に似合うと評価し、かつ、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、利用者の属性情報が「20代後半」であり、対象者の属性情報が「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B2及びB5の中間の位置が、分散表現空間F4において利用者と対象者の両者に対応する情報を投影した場合の位置であると推定し、当該位置から所定の範囲内に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定する。そして、情報処理装置10は、推定したコーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Furthermore, the information processing device 10 projects information based on both the user and the target person onto the distributed representation space based on the information projected onto the distributed representation space, the information regarding the user, and the information regarding the target person. Based on the estimated position, the coordinates that the user evaluates as suitable for the target person and that the target person evaluates as suitable for himself may be estimated. For example, if the user's attribute information is "late 20's" and the target person's attribute information is "early 20's", the information processing device 10, in the distributed representation space F4, The position is estimated to be the position where information corresponding to both the user and the target person is projected in the distributed expression space F4, and the coordination indicated by the image projected within a predetermined range from the position is used. It is assumed that this is a coordination that both the person and the target person evaluate as looking good. Then, the information processing device 10 provides the user terminal 100 with information about the coordination, which corresponds to information about the target person, information related to coordination, etc., out of the estimated coordination.

〔3-4.着用者及び利用者の画像に基づくコーディネートの推定について〕
図2の例において、情報処理装置10は、着用者の顔を示す画像を投影した分散表現空間と、所定の対象(利用者、対象者など)の顔の画像とに基づいて、当該対象に似合うコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、顔の特徴量が、利用者U1の顔の特徴量と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。
[3-4. About estimating coordination based on images of wearers and users]
In the example of FIG. 2, the information processing device 10 uses a distributed representation space onto which an image representing the wearer's face is projected and an image of the face of a predetermined target (user, target person, etc.) to You may estimate the coordination that suits you. For example, the information processing device 10 determines whether the facial feature amount is that of the user U1's face among coordinations #1, #3, and #4 estimated based on the distributed expression space F4 and the attribute information of the user U1. Coordination worn by a wearer similar to the feature value is estimated to be coordination that suits the user.

また、情報処理装置10は、着用者の体型を示す画像を投影した分散表現空間と、所定の対象の体型を示す画像とに基づいて、当該対象に似合うコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、体型(例えば、細め、太め)が利用者U1の体型と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。 Further, the information processing device 10 may estimate coordination that suits a predetermined target based on a distributed representation space in which an image showing the wearer's body shape is projected and an image showing the body shape of the predetermined target. For example, the information processing device 10 determines that the body type (for example, thin or thick) of coordinates #1, #3, and #4 estimated based on the distributed expression space F4 and the attribute information of the user U1 is The coordinates worn by a wearer with a similar body shape are estimated to be the coordinates that suit the user.

〔3-5.対象者に関する情報に基づく態様での画像の出力について〕
図4の例において、情報処理装置10は、CNNと、利用者U1と所定の関係性を有する対象者(例えば、利用者U1が会う相手)に関する情報とに基づく態様で、コーディネートを示す画像を出力してもよい。例えば、画像P1を利用者U1に提供する場合、情報処理装置10は、対象者の分散表現(例えば、属性情報等に基づく分散表現)と類似する評価者を特定する。そして、情報処理装置10は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが低いと判定し、判定した度合いに応じた態様で画像P1を出力する。
[3-5. About outputting images in a manner based on information about the target person]
In the example of FIG. 4, the information processing device 10 displays an image showing coordination in a manner based on CNN and information regarding a target person who has a predetermined relationship with the user U1 (for example, a person with whom the user U1 meets). You can also output it. For example, when providing the image P1 to the user U1, the information processing device 10 identifies evaluators who are similar to the distributed representation (for example, distributed representation based on attribute information, etc.) of the subject. Then, the information processing device 10 evaluates that the clothing indicated by the region whose region vector has a higher degree of similarity to the identified evaluator's distributed expression among the regions of the image P1, the more suitable the subject looks for the user U1. It is determined that the degree of clothing is high, and the lower the degree of similarity to the distributed expression of the evaluator, the lower the degree to which the target person evaluates that it looks good on user U1, and the mode according to the determined degree. to output image P1.

なお、情報処理装置10は、画像P1を出力する際に、各領域の被服を、対象者が利用者U1に似合うと評価する度合いに応じた情報とともに画像P1を出力してもよい。例えば、対象者が利用者U1に似合うと評価する度合いが高い領域が示す被服の購入を提案する情報や、当該度合いが低い領域に含まれる被服の着用を避けることを提案する旨の情報、当該度合いが高い領域に含まれる被服を活かした他のコーディネートに関する情報などとともに、画像P1-1を出力する。 Note that, when outputting the image P1, the information processing apparatus 10 may output the image P1 together with information corresponding to the degree to which the subject evaluates the clothing in each region as being suitable for the user U1. For example, information suggesting the purchase of clothing indicated by a region where the target person evaluates that it looks good on user U1 with a high degree, information suggesting that the target person avoid wearing clothing included in a region with a low degree of evaluation, The image P1-1 is output together with information on other coordinations that make use of the clothing included in the high degree area.

〔4.情報処理装置の構成〕
次に、図5を用いて、情報処理装置10の構成について説明する。図5は、実施形態に係る情報処理装置10の構成例を示す図である。図5に示すように、情報処理装置10は、通信部20と、記憶部30と、制御部40とを有する。
[4. Configuration of information processing device]
Next, the configuration of the information processing device 10 will be described using FIG. 5. FIG. 5 is a diagram illustrating a configuration example of the information processing device 10 according to the embodiment. As shown in FIG. 5, the information processing device 10 includes a communication section 20, a storage section 30, and a control section 40.

(通信部20について)
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、利用者端末100、評価者端末200等との間で情報の送受信を行う。
(About the communication department 20)
The communication unit 20 is realized by, for example, a NIC (Network Interface Card). The communication unit 20 is connected to the network N by wire or wirelessly, and transmits and receives information to and from the user terminal 100, the evaluator terminal 200, and the like.

(記憶部30について)
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部30は、評価者情報データベース31と、利用者情報データベース32とを有する。
(About the storage unit 30)
The storage unit 30 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 3, the storage unit 30 includes an evaluator information database 31 and a user information database 32.

(評価者情報データベース31について)
評価者情報データベース31は、評価者に関する各種の情報を記憶する。ここで、図6を用いて、評価者情報データベース31が記憶する情報の一例を説明する。図6は、実施形態に係る評価者情報データベース31の一例を示す図である。図6の例において、評価者情報データベース31は、「評価者ID」、「属性情報」、「アンケート情報」、「評価情報」といった項目を有する。
(About evaluator information database 31)
The evaluator information database 31 stores various information regarding evaluators. Here, an example of information stored in the evaluator information database 31 will be explained using FIG. 6. FIG. 6 is a diagram showing an example of the evaluator information database 31 according to the embodiment. In the example of FIG. 6, the evaluator information database 31 has items such as "evaluator ID", "attribute information", "questionnaire information", and "evaluation information".

「評価者ID」は、評価者を識別するための識別情報を示す。「属性情報」は、評価者の属性情報を示す。「アンケート情報」は、所定のアンケートに対する評価者の回答を示す。「評価情報」は、評価者による評価に関する情報を示し、「対象ID」、「画像情報」、「被服情報」、「着用者情報」、「評価」といった項目を有する。 “Evaluator ID” indicates identification information for identifying an evaluator. "Attribute information" indicates attribute information of the evaluator. "Questionnaire information" indicates the evaluator's responses to a predetermined questionnaire. "Evaluation information" indicates information regarding the evaluation by the evaluator, and includes items such as "object ID," "image information," "clothing information," "wearer information," and "evaluation."

「対象ID」は、評価の対象(画像)を識別するための識別情報を示す。「画像情報」は、評価の対象である画像を示す。「被服情報」は、画像が示すコーディネートに含まれる被服に関する情報を示し、例えば、被服を識別するための識別情報等が格納される。「着用者情報」は、画像が示す着用者に関する情報を示し、例えば、着用者を識別するための識別情報や、着用者の属性情報や身体的な情報などといった情報が格納される。「評価」は、画像に対する評価者の評価を示す。 “Object ID” indicates identification information for identifying an evaluation object (image). "Image information" indicates an image to be evaluated. "Clothing information" indicates information regarding clothing included in the coordination shown in the image, and stores, for example, identification information for identifying clothing. "Wearer information" indicates information regarding the wearer represented by the image, and stores information such as identification information for identifying the wearer, attribute information and physical information of the wearer. "Evaluation" indicates the evaluator's evaluation of the image.

すなわち、図6では、評価者ID「AID#1」により識別される評価者の属性情報が「属性情報#1」、アンケート情報が「アンケート情報#1」、対象ID「DID#1」により識別される評価の対象の画像情報が「画像情報#1」、被服情報が「被服情報#1」、着用者情報が「着用者情報#1」、評価が「評価#1」である例を示す。 That is, in FIG. 6, the attribute information of the evaluator identified by the evaluator ID "AID#1" is "Attribute information #1", the questionnaire information is "Questionnaire information #1", and the evaluator identified by the target ID "DID#1". An example is shown in which the image information to be evaluated is "image information #1", the clothing information is "clothing information #1", the wearer information is "wearer information #1", and the evaluation is "evaluation #1". .

(利用者情報データベース32について)
利用者情報データベース32は、利用者に関する各種の情報を記憶する。ここで、図7を用いて、利用者情報データベース32が記憶する情報の一例を説明する。図7は、実施形態に係る利用者情報データベース32の一例を示す図である。図7の例において、利用者情報データベース32は、「利用者ID」、「属性情報」、「アンケート情報」、「利用者画像」、「フィードバック情報」といった項目を有する。
(About the user information database 32)
The user information database 32 stores various information regarding users. Here, an example of information stored in the user information database 32 will be explained using FIG. 7. FIG. 7 is a diagram showing an example of the user information database 32 according to the embodiment. In the example of FIG. 7, the user information database 32 has items such as "user ID", "attribute information", "questionnaire information", "user image", and "feedback information".

「利用者ID」は、利用者を識別するための識別情報を示す。「属性情報」は、利用者の属性情報を示す。「アンケート情報」は、所定のアンケートに対する利用者の回答を示す。「利用者画像」は、利用者の顔や体型を示す画像を示す。「フィードバック情報」は、利用者に提供した情報に対する利用者からのフィードバックに関する情報を示す。 "User ID" indicates identification information for identifying a user. "Attribute information" indicates user attribute information. "Questionnaire information" indicates the user's answers to a predetermined questionnaire. "User image" indicates an image showing the user's face and body shape. "Feedback information" indicates information regarding feedback from users regarding information provided to users.

すなわち、図5では、利用者ID「UID#1」により識別される利用者の属性情報が「属性情報#11」、アンケート情報が「アンケート情報#11」、利用者画像が「利用者画像#1」、フィードバック情報が「フィードバック情報#1」である例を示す。 That is, in FIG. 5, the attribute information of the user identified by the user ID "UID #1" is "Attribute information #11", the questionnaire information is "Questionnaire information #11", and the user image is "User image #1". 1", and the feedback information is "Feedback Information #1".

(制御部40について)
制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部40は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。実施形態に係る制御部40は、図6に示すように、受付部41と、生成部42と、推定部43と、提供部44と、判定部45と、出力部46と、取得部47と、更新部48とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
(About the control unit 40)
The control unit 40 is a controller, and various programs stored in a storage device inside the information processing device 10 use the RAM as a work area by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). This is achieved by executing as . Further, the control unit 40 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). As shown in FIG. 6, the control unit 40 according to the embodiment includes a reception unit 41, a generation unit 42, an estimation unit 43, a provision unit 44, a determination unit 45, an output unit 46, and an acquisition unit 47. , and an update unit 48, and realizes or executes information processing functions and operations described below.

(受付部41について)
受付部41は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける。例えば、図2の例において、受付部41は、画像P1及びP2の組を評価者に提示し、2つの画像を比較して、いずれの画像のコーディネートが着用者に似合っており、いずれの画像のコーディネートが着用者に似合わないかを示す評価を受け付け、評価者情報データベース31に格納する。
(About the reception department 41)
The receiving unit 41 receives evaluations from a plurality of evaluators of images of a wearer wearing a combination of a plurality of clothing, indicating whether or not the combination suits the wearer. For example, in the example of FIG. 2, the reception unit 41 presents a set of images P1 and P2 to the evaluator, compares the two images, determines which image's coordination suits the wearer, and which image An evaluation indicating whether or not the coordination suits the wearer is accepted and stored in the evaluator information database 31.

また、受付部41は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付けてもよい。例えば、図4の例において、受付部41は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているっているか否かを示す評価を受け付ける。 Further, the reception unit 41 may receive evaluations from a plurality of evaluators of images of a wearer wearing a plurality of combinations of clothing, indicating whether or not the combination suits the wearer. . For example, in the example of FIG. 4, the reception unit 41 accepts an evaluation indicating whether or not coordination #1 shown in the image P1 suits the wearer #1 shown in the image P1.

(生成部42について)
生成部42は、受付部41により受け付けられた評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する。例えば、図2の例において、生成部42は、評価者情報データベース31を参照し、VSEの技術を用いて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する。
(About the generation unit 42)
The generation unit 42 generates a distributed representation space on which images and evaluator information indicating the evaluator are projected, based on the evaluation received by the reception unit 41. For example, in the example of FIG. 2, the generation unit 42 refers to the evaluator information database 31 and uses the VSE technique to generate a distributed representation space in which images and evaluator information indicating evaluators are projected.

また、生成部42は、評価者が、組み合わせが着用者に似合っていると高く評価するほど、分散表現空間において画像と、評価者情報とをより近い位置に投影し、評価者が、組み合わせが着用者に似合っていないと低く評価するほど、分散表現空間において画像と、評価者情報とをより遠い位置に投影してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1を投影した分散表現空間F1を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2を投影した分散表現空間F1を生成する。 Furthermore, the more highly the evaluator evaluates that the combination suits the wearer, the closer the evaluator projects the image and the evaluator information in the distributed expression space, so that the evaluator The lower the evaluation is that it does not suit the wearer, the further the image and evaluator information may be projected in the distributed expression space. For example, in the example of FIG. 2, the generation unit 42 generates an evaluation indicating evaluator A1 who evaluated image P1 as “suitable” rather than evaluator information D2 indicating evaluator A2 who evaluated image P1 as “unsuitable”. A distributed representation space F1 in which the image P1 is projected is generated near the person information D1. Furthermore, the generation unit 42 generates information closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as “suitable” than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as “not suitable”. , generates a distributed representation space F1 onto which the image P2 is projected.

また、生成部42は、評価に基づいて、さらに組み合わせに含まれる被服を示す情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服I1の画像を投影した分散表現空間F2を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服I2の画像を投影した分散表現空間F2を生成する。 Furthermore, the generation unit 42 may generate a distributed expression space in which information indicating clothing included in the combination is further projected based on the evaluation. For example, in the example of FIG. 2, the generation unit 42 generates an evaluation indicating evaluator A1 who evaluated image P1 as “suitable” rather than evaluator information D2 indicating evaluator A2 who evaluated image P1 as “unsuitable”. A distributed expression space F2 is generated near the person information D1, in which an image of the clothing I1 included in the coordination indicated by the image P1 is projected. Furthermore, the generation unit 42 generates information closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as “suitable” than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as “not suitable”. , generates a distributed expression space F2 in which an image of the clothing I2 included in the coordination shown by the image P2 is projected.

また、生成部42は、評価に基づいて、さらに組み合わせが属するカテゴリを示す情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートのカテゴリT1(カジュアル)を投影した分散表現空間F3を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2のカテゴリT2(デート)を投影した分散表現空間F3を生成する。 Further, the generation unit 42 may further generate a distributed expression space on which information indicating the category to which the combination belongs is projected based on the evaluation. For example, in the example of FIG. 2, the generation unit 42 generates an evaluation indicating evaluator A1 who evaluated image P1 as “suitable” rather than evaluator information D2 indicating evaluator A2 who evaluated image P1 as “unsuitable”. A distributed expression space F3 is generated near the user information D1, in which the coordination category T1 (casual) shown in the image P1 is projected. Furthermore, the generation unit 42 generates information closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as “suitable” than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as “not suitable”. , generates a distributed representation space F3 onto which the category T2 (date) of the image P2 is projected.

また、生成部42は、評価に基づいて、さらに組み合わせに含まれる被服を提供する提供元を示す情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。 Further, the generation unit 42 may further generate a distributed expression space on which information indicating the provider who provides the clothing included in the combination is projected based on the evaluation. For example, in the example of FIG. 2, the generation unit 42 generates an evaluation indicating evaluator A1 who evaluated image P1 as “suitable” rather than evaluator information D2 indicating evaluator A2 who evaluated image P1 as “unsuitable”. A distributed expression space is generated in which information indicating the source of the clothing included in the coordination shown by the image P1 is projected near the personal information D1. Furthermore, the generation unit 42 generates information closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as “suitable” than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as “not suitable”. , generates a distributed expression space onto which information indicating the provider of the clothing included in the coordination shown by the image P2 is projected.

また、生成部42は、評価者の属性を示す評価者情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2の属性情報よりも、画像P1を「似合う」と評価した評価者A1の属性情報の近くに、画像P1を投影した分散表現空間F4を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1の属性情報よりも、画像P2を「似合う」と評価した評価者A2の属性情報の近くに、画像P2を投影した分散表現空間F4を生成する。 Further, the generation unit 42 may generate a distributed representation space onto which evaluator information indicating attributes of evaluators is projected. For example, in the example of FIG. 2, the generation unit 42 generates information closer to the attribute information of evaluator A1 who evaluated image P1 as “suitable” than the attribute information of evaluator A2 who evaluated image P1 as “unsuitable”. , generates a distributed representation space F4 onto which the image P1 is projected. Furthermore, the generation unit 42 projects the image P2 closer to the attribute information of the evaluator A2 who evaluated the image P2 as “suitable” than the attribute information of the evaluator A1 who evaluated the image P2 as “unsuitable”. A distributed representation space F4 is generated.

また、生成部42は、所定のアンケートに対する評価者の回答を示す評価者情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2の回答よりも、画像P1を「似合う」と評価した評価者A1の回答の近くに、画像P1を投影した分散表現空間F5を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1の回答よりも、画像P2を「似合う」と評価した評価者A2の回答の近くに、画像P2を投影した分散表現空間F5を生成する。 Further, the generation unit 42 may generate a distributed representation space onto which evaluator information indicating evaluator responses to a predetermined questionnaire is projected. For example, in the example of FIG. 2, the generation unit 42 places the image closer to the answer of evaluator A1 who evaluated image P1 as “suitable” than the answer of evaluator A2 who evaluated image P1 as “does not suit”. A distributed representation space F5 is generated by projecting P1. The generation unit 42 also generates a distributed representation in which the image P2 is projected closer to the answer of the evaluator A2 who evaluated the image P2 as “suitable” than the answer of the evaluator A1 who evaluated the image P2 as “not suitable”. A space F5 is generated.

また、生成部42は、受付部41により受け付けられた評価に基づいて、畳み込みニューラルネットワークを生成してもよい。例えば、図4の例において、生成部42は、画像と、画像に対する評価者の評価と、評価者に関する評価者情報とを含む学習用データを用いてCNNを生成する。 Further, the generation unit 42 may generate a convolutional neural network based on the evaluation received by the reception unit 41. For example, in the example of FIG. 4, the generation unit 42 generates a CNN using learning data including an image, an evaluator's evaluation of the image, and evaluator information regarding the evaluator.

(推定部43について)
推定部43は、分散表現空間と、利用者に関する情報とに基づいて、当該利用者に似合う複数の被服の組み合わせを推定する。例えば、図2の例において、推定部43は、電子商取引サービスや、コーディネートサービスを介した、利用者端末100からのコーディネートの提供要求に応じて、利用者情報データベース32を参照し、生成された分散表現空間と、利用者U1に関する情報とに基づき、利用者U1に似合うコーディネートを推定する。
(About the estimation unit 43)
The estimation unit 43 estimates a combination of clothing that suits the user based on the distributed expression space and information regarding the user. For example, in the example of FIG. 2, the estimating unit 43 refers to the user information database 32 in response to a request for providing coordination from the user terminal 100 via an electronic commerce service or a coordination service. Based on the distributed expression space and information regarding the user U1, a coordination that suits the user U1 is estimated.

また、推定部43は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う複数の被服の組み合わせを推定してもよい。例えば、図2の例において、推定部43は、電子商取引サービスや、コーディネートサービスを介した、利用者端末100からのコーディネートの提供要求に応じて、生成された分散表現空間に基づき、利用者U1に似合うコーディネートを推定する。 Furthermore, the estimating unit 43 generates an evaluation for an image of a wearer wearing a plurality of combinations of clothing based on evaluations from a plurality of evaluators indicating whether or not the combination suits the wearer. Combinations of a plurality of clothing that look good on a predetermined object may be estimated based on a distributed representation space in which the image and evaluator information indicating the evaluator are projected. For example, in the example of FIG. 2, the estimating unit 43 estimates the user U1 based on the generated distributed representation space in response to a coordination provision request from the user terminal 100 via an electronic commerce service or a coordination service. Estimate the coordination that suits you.

また、推定部43は、分散表現空間と、利用者に関する情報とに基づいて、利用者に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、生成された分散表現空間と、利用者U1に関する情報とに基づき、利用者U1に似合うコーディネートを推定する。 Furthermore, the estimation unit 43 may estimate a combination that suits the user based on the distributed expression space and information regarding the user. For example, in the example of FIG. 2, the estimation unit 43 estimates coordination that suits the user U1 based on the generated distributed expression space and information regarding the user U1.

また、推定部43は、利用者の属性、利用者が選択した被服のカテゴリ、所定のアンケートに対する利用者の回答のうち少なくともいずれかに基づいて、利用者に似合う組み合わせを推定してもよい。例えば、図2の例において、利用者U1の属性情報が、「20代後半」である場合、推定部43は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、利用者U1がカテゴリ「カジュアル」を選択したことを示す情報を受け付けた場合、推定部43は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートであって、分散表現空間F3において、カテゴリT1から所定の範囲内に投影された画像が示すコーディネートを、カテゴリ「カジュアル」において利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1の属性情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、「ファッションに自信がある?」といったアンケートに対し、利用者U1が「ファッションに自信がない」と回答した場合、推定部43は、分散表現空間F5において、回答C2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Furthermore, the estimating unit 43 may estimate a combination that suits the user based on at least one of the user's attributes, the clothing category selected by the user, and the user's responses to a predetermined questionnaire. For example, in the example of FIG. 2, if the attribute information of the user U1 is "late 20s", the estimation unit 43 estimates that the image projected within a predetermined range from the attribute information B2 in the distributed representation space F4 is The coordinates shown are estimated to be coordinates that suit the user U1, and among the coordinates, information regarding the coordinates corresponding to information related to the user U1, information related to the coordinates, etc. is provided to the user terminal 100. Further, when receiving information indicating that the user U1 has selected the category "casual", the estimation unit 43 calculates the coordinates indicated by the image projected within a predetermined range from the attribute information B2 in the distributed expression space F4. Therefore, in the distributed expression space F3, the coordination shown by the image projected within a predetermined range from the category T1 is estimated to be the coordination that suits the user U1 in the category "casual", and among the coordination, Coordination-related information corresponding to U1's attribute information, coordination-related information, etc. is provided to the user terminal 100. Further, when the user U1 answers "I am not confident in fashion" to the questionnaire "Are you confident in fashion?", the estimating unit 43 calculates a range within a predetermined range from the answer C2 in the distributed expression space F5. The coordinates shown in the projected image are estimated to be coordinates that suit the user U1, and among the coordinates, the user terminal 100 transmits information related to the coordinates corresponding to information related to the user U1, information related to the coordinates, etc. Provided to.

また、推定部43は、分散表現空間と、対象者に関する情報とに基づいて、当該対象者が利用者に似合うと評価する組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間と、利用者U1と所定の関係性を有する対象者に関する情報とに基づいて、対象者が利用者U1に似合うと評価するコーディネートを推定する。 Furthermore, the estimating unit 43 may estimate a combination that is evaluated as being suitable for the target person based on the distributed expression space and information regarding the target person. For example, in the example of FIG. 2, the estimating unit 43 determines the coordination that the target person evaluates to look good on the user U1, based on the distributed expression space and information regarding the target person who has a predetermined relationship with the user U1. presume.

また、推定部43は、対象者の属性、所定のアンケートに対する対象者の回答のうち少なくともいずれかに基づいて、対象者が利用者に似合うと評価する組み合わせを推定してもよい。例えば、図2の例において、対象者の属性情報が、「20代前半」である場合、推定部43は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、推定部43は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Furthermore, the estimation unit 43 may estimate a combination that the target person evaluates as suitable for the user based on at least one of the target person's attributes and the target person's answers to a predetermined questionnaire. For example, in the example of FIG. 2, if the attribute information of the subject is "early 20s," the estimation unit 43 estimates that the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is The coordinates are estimated to be coordinates that the target person evaluates to look good on, and among the coordinates, information regarding the coordinates corresponding to information related to the user U1, information related to the coordinates, etc. is provided to the user terminal 100. In addition, if the subject answers "I am confident in fashion" in response to the questionnaire "Are you confident in fashion?", the estimation unit 43 projects the answer within a predetermined range from the answer C5 in the distributed expression space F5. The coordinates shown in the image are estimated to be coordinates that the target person evaluates to look good on, and the user terminal displays information about the coordinates that corresponds to information about user U1 and information related to the coordinates among the coordinates. 100.

また、推定部43は、分散表現空間と、対象者に関する情報とに基づいて、当該対象者に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間と、利用者U1と所定の関係性を有する対象者に関する情報とに基づいて、対象者が自身に似合うと評価するコーディネートを推定する。 Furthermore, the estimating unit 43 may estimate a combination that suits the target person based on the distributed expression space and information regarding the target person. For example, in the example of FIG. 2, the estimating unit 43 estimates the coordination that the target person evaluates as suitable for him or her, based on the distributed expression space and information about the target person who has a predetermined relationship with the user U1. .

また、推定部43は、対象者の属性、所定のアンケートに対する対象者の回答のうち少なくともいずれかに基づいて、対象者に似合う組み合わせを推定してもよい。例えば、図2の例において、対象者の属性情報が、「20代前半」である場合、推定部43は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、推定部43は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 Furthermore, the estimation unit 43 may estimate a combination that suits the target person based on at least one of the target person's attributes and the target person's answers to a predetermined questionnaire. For example, in the example of FIG. 2, if the attribute information of the subject is "early 20s," the estimation unit 43 estimates that the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is The coordinates are estimated to be coordinates that the target person evaluates to look good on, and among the coordinates, information about the coordinates corresponding to information related to the target person, information related to the coordinates, etc. is provided to the user terminal 100. In addition, if the subject answers "I am confident in fashion" in response to the questionnaire "Are you confident in fashion?", the estimation unit 43 projects the answer within a predetermined range from the answer C5 in the distributed expression space F5. The user terminal 100 estimates that the coordinates shown in the image is the coordinates that the target person evaluates to look good on, and among the coordinates, information about the coordinates that corresponds to information about the target person and information related to the coordinates is sent to the user terminal 100. Provided to.

また、推定部43は、着用者の顔を示す画像を投影した分散表現空間と、所定の対象の顔を示す画像とに基づいて、所定の対象に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、顔の特徴量が、利用者U1の顔の特徴量と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。 Furthermore, the estimating unit 43 may estimate a combination that looks good on a predetermined target based on a distributed representation space onto which an image showing the wearer's face is projected and an image showing the face of the predetermined target. For example, in the example of FIG. 2, the estimation unit 43 determines that the facial feature amount is Coordination worn by a wearer similar to the facial feature amount of person U1 is estimated to be coordination that suits the user.

また、推定部43は、着用者の体型を示す画像を投影した分散表現空間と、所定の対象の体型を示す画像とに基づいて、所定の対象に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、体型が利用者U1の体型と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。 Furthermore, the estimating unit 43 may estimate a combination that looks good on a predetermined object based on a distributed representation space in which an image showing the wearer's body shape is projected and an image showing the predetermined object's body shape. For example, in the example of FIG. 2, the estimating unit 43 determines that the body type of coordinates #1, #3, and #4 estimated based on the distributed expression space F4 and the attribute information of the user U1 is the body type of the user U1. The coordinates worn by a wearer similar to the user are estimated to be the coordinates that suit the user.

また、推定部43は、組み合わせが所定の対象に似合う度合いをさらに推定してもよい。例えば、図4の例において、推定部43は、分散表現空間F4において属性情報B2からより近い画像が示すコーディネートに関する情報ほど、利用者U1に似合う度合いが高いと推定する。 Furthermore, the estimation unit 43 may further estimate the degree to which the combination suits a predetermined object. For example, in the example of FIG. 4, the estimating unit 43 estimates that the coordination information shown by an image closer to the attribute information B2 in the distributed representation space F4 is more likely to suit the user U1.

(提供部44について)
提供部44は、推定部43により推定された組み合わせに関する組み合わせ情報を利用者に提供する。例えば、図2の例において、提供部44は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、電子商取引サービスにおいて提供する。また、提供部44は、コーディネート#1、#3及び#4の情報を、コーディネートサービスにおいて提供する。
(About the providing section 44)
The providing unit 44 provides the user with combination information regarding the combinations estimated by the estimating unit 43. For example, in the example of FIG. 2, the providing unit 44 provides information on coordinates #1, #3, and #4 and information regarding clothing included in coordinates #1, #3, and #4 in the electronic commerce service. Further, the providing unit 44 provides information on coordinates #1, #3, and #4 in the coordination service.

また、提供部44は、推定部43により推定された組み合わせに関する情報を利用者に提供してもよい。例えば、図2の例において、提供部44は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、電子商取引サービスにおいて提供する。また、提供部44は、コーディネート#1、#3及び#4の情報を、コーディネートサービスにおいて提供する。 Furthermore, the providing unit 44 may provide the user with information regarding the combinations estimated by the estimating unit 43. For example, in the example of FIG. 2, the providing unit 44 provides information on coordinates #1, #3, and #4 and information regarding clothing included in coordinates #1, #3, and #4 in the electronic commerce service. Further, the providing unit 44 provides information on coordinates #1, #3, and #4 in the coordination service.

また、提供部44は、組み合わせを度合いに応じた態様で提供してもよい。例えば、図2の例において、提供部44は、分散表現空間F4において属性情報B2からより近い画像が示すコーディネートに関する情報ほど、利用者U1に似合う度合いが高いと推定し、優先度を高くして提供する。 Further, the providing unit 44 may provide the combinations in a manner depending on the degree. For example, in the example of FIG. 2, the providing unit 44 estimates that the coordination information indicated by an image closer to the attribute information B2 in the distributed expression space F4 is more likely to suit the user U1, and gives it a higher priority. provide.

ここで、図8及び9を用いて、被服の組み合わせに関する情報を利用者端末100に提供する際の態様について説明する。まず、図8を用いて、電子商取引サービスにおいて被服の組み合わせに関する情報を提供する態様について説明する。図8は、利用者端末100の画面の一例を示す図(1)である。 Here, the manner in which information regarding clothing combinations is provided to the user terminal 100 will be described using FIGS. 8 and 9. First, using FIG. 8, a mode of providing information regarding clothing combinations in an electronic commerce service will be described. FIG. 8 is a diagram (1) showing an example of the screen of the user terminal 100.

図8に示すように、提供部44は、電子商取引サービスにおいて利用者U1が入力した検索クエリ「Tシャツ」若しくは「カットソー」に対応する検索結果を示す画面SC1を提供する。例えば、提供部44は、Tシャツ若しくはカットソーが含まれるコーディネートを示す画像を、画像が示すコーディネートが利用者U1に似合う度合いが高い順に示す画面SC1(言い換えると、プルダウンを示す領域AR1において、利用者U1に似合う順に表示することが指定された画面SC1)を提供する。また、提供部44は、領域AR1のプルダウンに表示される情報(すなわち、検索結果の絞り込みの条件)として、「対象者があなた(利用者U1)に似合うと評価する順」や、「対象者が自身に似合うと評価する順」などといった情報を指定可能に表示する。 As shown in FIG. 8, the providing unit 44 provides a screen SC1 showing search results corresponding to the search query "T-shirt" or "cut and sew" input by the user U1 in the electronic commerce service. For example, the providing unit 44 displays images showing coordinations including T-shirts or cut-sews on a screen SC1 (in other words, in an area AR1 showing a pull-down) that displays images showing coordinations including T-shirts or cut-and-sews in descending order of the degree to which the coordinations shown in the images suit the user U1. Screens SC1) are provided that are designated to be displayed in the order that suits U1. In addition, the providing unit 44 provides information to be displayed in the pulldown of area AR1 (i.e., conditions for narrowing down search results) such as "order in which the target person evaluates that you look good on you (user U1)" and "target person Displays information such as "in the order in which people rate that it looks good on you" in a way that allows you to specify.

例えば、「対象者があなたに似合うと評価する順」が領域AR1において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順(言い換えると、対象者が利用者U1に似合うと評価する度合いが高い順)に表示する画面SC1を提供する。なお、このような場合、情報処理装置10は、電子商取引サービスにおいて対象者を識別するための情報(言い換えると、対象者に関する情報と紐付けられた対象者ID)や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC1を提供する。 For example, when "the order in which the target person evaluates that you look good" is specified in the area AR1, the providing unit 44 selects the images projected within a predetermined range from the information regarding the target person in the distributed representation space. Images showing coordination corresponding to information related to user U1, information related to coordination, etc. are projected in the order in which they are projected closer to the information related to the target person (in other words, the target person is evaluated to look good on user U1) A screen SC1 is provided that is displayed in descending order of severity. Note that in such a case, the information processing device 10 uses information for identifying the target person in the electronic commerce service (in other words, a target person ID linked to information about the target person) and information about the target person. The request may be received from person U1. The providing unit 44 then provides the screen SC1 based on the information received from the user U1.

また、「対象者が自身に似合うと評価する順」が領域AR1において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順(言い換えると、対象者が利用者U1に似合うと評価する度合いが高い順)に表示する画面SC1を提供する。なお、このような場合、情報処理装置10は、電子商取引サービスにおいて対象者を識別するための情報や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC1を提供する。 Further, when the "order in which the target person evaluates that it suits him/herself" is specified in the area AR1, the providing unit 44 selects images projected within a predetermined range based on the information regarding the target person in the distributed expression space. The order in which images showing coordination corresponding to information related to the target person, information related to coordination, etc. are projected at positions closer to the information related to the target person (in other words, the degree to which the target person is evaluated to look good on user U1) A screen SC1 is provided that is displayed in descending order (in descending order). Note that in such a case, the information processing device 10 may receive information for identifying the target person in the electronic commerce service and information regarding the target person from the user U1. The providing unit 44 then provides the screen SC1 based on the information received from the user U1.

次に、図9を用いて、コーディネートサービスにおいて被服の組み合わせに関する情報を提供する態様について説明する。図9は、利用者端末100の画面の一例を示す図(2)である。 Next, with reference to FIG. 9, a mode of providing information regarding clothing combinations in the coordination service will be described. FIG. 9 is a diagram (2) showing an example of the screen of the user terminal 100.

図9に示すように、提供部44は、コーディネートサービスにおいて利用者U1が入力した検索クエリに対応する検索結果を示す画面SC2を提供する。例えば、提供部44は、利用者U1が入力した検索クエリに対応するコーディネートを示す画像を、画像が示すコーディネートが利用者U1に似合う度合いが高い順に示す画面SC2(言い換えると、プルダウンを示す領域AR2において、利用者U1に似合う順に表示することが指定された画面SC2)を提供する。また、提供部44は、領域AR2のプルダウンに表示される情報として、「対象者があなた(利用者U1)に似合うと評価する順」や、「対象者が自身に似合うと評価する順」などといった情報を指定可能に表示する。 As shown in FIG. 9, the providing unit 44 provides a screen SC2 showing search results corresponding to the search query input by the user U1 in the coordination service. For example, the providing unit 44 displays a screen SC2 (in other words, an area AR2 showing a pull-down) that displays images showing coordinates corresponding to the search query input by the user U1 in descending order of the degree to which the coordinates shown in the images suit the user U1. , screens SC2) are provided that are designated to be displayed in the order that suits the user U1. The providing unit 44 also provides information to be displayed in the pulldown of area AR2, such as "the order in which the target person evaluates that it suits you (user U1)", "the order in which the target person evaluates that it suits him/herself", etc. Displays information such as configurable information.

例えば、「対象者があなたに似合うと評価する順」が領域AR2において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順に表示する画面SC2を提供する。なお、このような場合、情報処理装置10は、コーディネートサービスにおいて対象者を識別するための情報や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC2を提供する。 For example, when "the order in which the target person evaluates that you look good" is specified in the area AR2, the providing unit 44 selects images projected within a predetermined range based on the information regarding the target person in the distributed representation space. A screen SC2 is provided that displays images showing coordination corresponding to information related to the user U1, information related to coordination, etc. in the order in which they are projected at positions closer to the information related to the target person. Note that in such a case, the information processing device 10 may receive information for identifying the target person in the coordination service and information regarding the target person from the user U1. The providing unit 44 then provides the screen SC2 based on the information received from the user U1.

また、「対象者が自身に似合うと評価する順」が領域AR2において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順に表示する画面SC2を提供する。なお、このような場合、情報処理装置10は、コーディネートサービスにおいて対象者を識別するための情報や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC2を提供する。 Furthermore, when "the order in which the target person evaluates that they look good on him/herself" is specified in the area AR2, the providing unit 44 selects images projected within a predetermined range based on the information regarding the target person in the distributed expression space. A screen SC2 is provided that displays images showing coordination corresponding to information related to the target person, information related to coordination, etc. in the order in which they are projected at positions closer to the information related to the target person. Note that in such a case, the information processing device 10 may receive information for identifying the target person in the coordination service and information regarding the target person from the user U1. The providing unit 44 then provides the screen SC2 based on the information received from the user U1.

なお、図8及び9において、提供部44は、CNNが生成した領域ベクトルを用いて、各画像が示すコーディネートのうち、各評価者が似合うと判断した領域(言い換えると、コーディネートのうちポイントとなる被服)を推定し、推定した領域をヒートマップで示す画像を提供してもよい。 In addition, in FIGS. 8 and 9, the providing unit 44 uses the area vectors generated by the CNN to determine which areas of the coordination shown in each image are judged to be suitable by each evaluator (in other words, the areas that are the points of the coordination). It is also possible to provide an image showing the estimated area as a heat map.

なお、上記の例においては、特定の検索クエリに基づいて似合うと評価する順で商品などの情報を表示する例を示したが、本発明の範囲はその場合に限られない。例えば、提供部44は、商品カテゴリに関する検索クエリが存在しない場合であっても、任意の商品カテゴリを含む商品群に対して当該の利用者に対する似合う度合いの評価を行い、推薦結果として利用者に提供しても良い。 Note that although the above example shows an example in which information such as products is displayed in the order in which they are evaluated as being suitable based on a specific search query, the scope of the present invention is not limited to that case. For example, even if there is no search query related to a product category, the providing unit 44 evaluates the suitability of a group of products including an arbitrary product category for the user, and provides the user with a recommendation result. You may provide it.

また、検索クエリ以外であっても、似合う度合いの評価結果に対して様々なフィルタや他の評価結果を組み合わせて利用者に表示することが可能である。例えば、推薦システムにおいて、利用者に対して推薦するに値するアイテムの候補およびそれらに対する推薦度合いの評価結果をあらかじめ特定しておくとする。そして、これらの推薦候補のアイテムに対して似合う度合いの評価を行い、推薦度合いおよび似合う度合いに応じて順序付けたアイテムを利用者に対して表示することができる。このようにして、似合う度合いを他の要素と複合的に組み合わせた結果を用いて利用者にアイテム(商品)やコーディネートの情報を提供することが可能である。 Furthermore, even for items other than search queries, it is possible to display to the user various filters and other evaluation results in combination with the evaluation results of the degree of suitability. For example, in a recommendation system, it is assumed that candidate items worthy of being recommended to a user and evaluation results of their recommendation degrees are specified in advance. Then, it is possible to evaluate the degree of suitability of these recommended candidate items and display the items ordered according to the degree of recommendation and the degree of suitability to the user. In this way, it is possible to provide the user with information on items (products) and coordination using the result of combining the degree of suitability with other factors in a complex manner.

(判定部45について)
判定部45は、分散表現における複数の領域と、利用者に関する情報とに基づいて、領域に含まれる被服のそれぞれが当該利用者に似合う度合いを判定する。例えば、図4の例において、判定部45は、分散表現が、利用者U1の分散表現と類似する評価者を特定する。そして、判定部45は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、利用者U1に似合う度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、利用者U1に似合う度合いが低いと判定する。
(About the determination unit 45)
The determination unit 45 determines the degree to which each piece of clothing included in the region suits the user, based on the plurality of regions in the distributed representation and information regarding the user. For example, in the example of FIG. 4, the determination unit 45 identifies an evaluator whose distributed expression is similar to the distributed expression of the user U1. Then, the determination unit 45 determines that, among the regions of the image P1, the clothing indicated by the region whose region vector has a higher degree of similarity to the distributed expression of the identified evaluator has a higher degree of suitability for the user U1, It is determined that the clothing indicated by the region having a lower degree of similarity to the distributed expression of the evaluator has a lower degree of suitability for the user U1.

また、判定部45は、分散表現における複数の領域と、対象者に関する情報とに基づいて、領域に含まれる被服のそれぞれを当該対象者が利用者に似合うと評価する度合いを判定してもよい。例えば、図4の例において、判定部45は、対象者の分散表現と類似する評価者を特定する。そして、判定部45は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが低いと判定する。 Further, the determination unit 45 may determine the degree to which the target person evaluates each piece of clothing included in the area as being suitable for the user, based on the plurality of areas in the distributed representation and the information regarding the target person. . For example, in the example of FIG. 4, the determination unit 45 identifies evaluators whose distributed expressions are similar to the target person's distributed expression. Then, the determining unit 45 determines the degree to which the subject evaluates that the clothing indicated by the region whose region vector is more similar to the identified evaluator's distributed expression among the regions of the image P1 suits the user U1. It is determined that the clothing indicated by the region having a lower degree of similarity to the distributed expression of the evaluator is determined to have a lower degree of evaluation that the target person looks good on the user U1.

(出力部46について)
出力部46は、生成部42により生成された畳み込みニューラルネットワークが画像の領域ごとに生成する分散表現に基づく態様で画像を出力する。例えば、図4の例において、出力部46は、CNNが生成した領域ベクトルを用いて、各評価者が似合うと判断した領域を推定し、推定した領域を示すヒートマップを出力する。
(About the output section 46)
The output unit 46 outputs the image in a manner based on the distributed representation generated for each region of the image by the convolutional neural network generated by the generation unit 42. For example, in the example of FIG. 4, the output unit 46 uses the region vectors generated by CNN to estimate the regions that each evaluator has judged to look good, and outputs a heat map showing the estimated regions.

また、出力部46は、分散表現における複数の領域と、評価者を示す評価者情報とに基づく態様で画像を出力してもよい。例えば、図4の例において、出力部46は、各画像について、似合うと評価した評価者の分散表現と類似する分散表現を出力し、似合わないと評価した評価者の評価者情報の分散表現と類似しない分散表現を出力するように学習が行われたCNNが生成する領域ベクトルを用いて、各評価者が似合うと判断した領域を推定し、推定した領域を示すヒートマップを出力する。 Further, the output unit 46 may output the image in a manner based on a plurality of regions in the distributed representation and evaluator information indicating the evaluator. For example, in the example shown in FIG. 4, the output unit 46 outputs, for each image, a distributed representation similar to the distributed representation of the evaluator who evaluated it as suitable, and a distributed representation of the evaluator information of the evaluator who evaluated it as not suitable. Using region vectors generated by a CNN that has been trained to output dissimilar distributed expressions, regions that each evaluator has judged to be suitable are estimated, and a heat map showing the estimated regions is output.

また、出力部46は、分散表現が評価者情報の分散表現と類似する領域ほど強調の度合いを高くし、評価者情報の分散表現と類似しない領域ほど強調の度合いを低くした画像を出力してもよい。例えば、図4の例において、出力部46は、分散表現が評価者情報の分散表現と類似する領域ほど赤色の度合いを高くし、評価者情報の分散表現と類似しない領域ほど青色の度合いを高くしたヒートマップを出力する。 Further, the output unit 46 outputs an image in which the degree of emphasis is increased in areas where the distributed representation is similar to the distributed representation of the evaluator information, and the degree of emphasis is decreased in areas where the distributed representation is not similar to the distributed representation of the evaluator information. Good too. For example, in the example of FIG. 4, the output unit 46 increases the degree of red in an area where the distributed representation is similar to the distributed representation of evaluator information, and increases the degree of blue in an area where it is dissimilar to the distributed representation of evaluator information. Output the heat map.

また、出力部46は、判定部45により判定された利用者に似合う度合いに応じた態様で領域を表示する画像を利用者に出力してもよい。例えば、図4の例において、出力部46は、ステップSb3において特定した評価者の分散表現と、画像P1のボトムスを示す領域の領域ベクトルが類似し、画像P1のトップスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、ボトムスを示す領域を濃い赤色で表示し、トップスを示す領域を濃い青色で表示する画像P1-1を出力する。また、出力部46は、ステップSb3において特定した評価者の分散表現と、画像P1のトップスを示す領域の領域ベクトルが類似し、画像P1のボトムスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、トップスを示す領域を濃い赤色で表示し、ボトムスを示す領域を濃い青色で表示する画像P1-2を出力する。 Further, the output unit 46 may output to the user an image that displays the area in a manner according to the degree of suitability for the user determined by the determination unit 45. For example, in the example of FIG. 4, the output unit 46 determines that the distributed expression of the evaluator identified in step Sb3 is similar to the region vector of the region indicating the bottoms of the image P1, and that the region vector of the region indicating the tops of the image P1 is similar. If they are not similar, the information processing device 10 outputs an image P1-1 in which the area showing the bottoms of the image P1 is displayed in dark red, and the area showing the tops is displayed in dark blue. Further, if the distributed representation of the evaluator identified in step Sb3 and the region vector of the region indicating the tops of the image P1 are similar, but the region vector of the region indicating the bottoms of the image P1 are not similar, the output unit 46 performs information processing. The device 10 outputs an image P1-2 in which the area showing the tops of the image P1 is displayed in dark red, and the area showing the bottoms is displayed in dark blue.

また、出力部46は、判定部45により判定された対象者が利用者に似合うと評価する度合いに応じた態様で領域を表示する画像を利用者に出力してもよい。例えば、図4の例において、出力部46は、画像P1の各領域のうち、領域ベクトルが、対象者の分散表現と類似する評価者の分散表現と類似する度合いが高い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが低いと判定し、判定した度合いに応じた態様で画像P1を出力する。 Further, the output unit 46 may output to the user an image that displays the area in a manner according to the degree to which the target person determined by the determination unit 45 is evaluated to look good on the user. For example, in the example of FIG. 4, the output unit 46 outputs the clothing indicated by the region whose region vector has a higher degree of similarity to the distributed expression of the evaluator, which is similar to the distributed expression of the subject, among the regions of the image P1. It is determined that the degree to which the target person evaluates that the target person looks good on the user U1 is high, and the lower the degree of similarity to the distributed expression of the evaluator is indicated by the area, the lower the degree to which the target person evaluates that the target person looks good on the user U1 is lower. It is determined that the image P1 is output in a manner according to the determined degree.

(取得部47について)
取得部47は、提供部44により提供された組み合わせ情報に対する、利用者、若しくは、利用者と所定の関係を有する他の利用者からのフィードバックを取得する。例えば、図2の例において、取得部47は、電子商取引サービスにおいて、利用者U1がコーディネート#1、#3及び#4に含まれる被服を購入したか否かや、レンタルの申込みを行ったか否かを示す情報(フィードバック)を取得し、利用者情報データベース32に格納する。また、取得部47は、コーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4に対するお気に入り登録を行ったか否かを示す情報(フィードバック)を取得する。また、取得部47は、提供された情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。また、取得部47は、提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際に、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。
(About the acquisition unit 47)
The acquisition unit 47 acquires feedback from the user or another user having a predetermined relationship with the user regarding the combination information provided by the providing unit 44 . For example, in the example of FIG. 2, the acquisition unit 47 determines whether the user U1 has purchased clothes included in coordinates #1, #3, and #4 in the e-commerce service, and whether or not the user has applied for rental. Information (feedback) indicating the user's performance is acquired and stored in the user information database 32. The acquisition unit 47 also acquires information (feedback) indicating whether the user U1 has registered coordinations #1, #3, and #4 as favorites in the coordination service. Further, the acquisition unit 47 transmits information (feedback) indicating whether or not the target person is positive about the user U1 who wears the coordination indicated by the provided information to the user terminal 100 or the target person. Obtain from a terminal device, etc. In addition, when the user U1 presents clothing included in the coordination indicated by the provided information to the target person, the acquisition unit 47 sends information (feedback) indicating whether or not the target person is positive about the clothing to the user terminal. 100 or a terminal device used by the subject.

(更新部48について)
更新部48は、取得部47により取得されたフィードバックに基づいて、分散表現空間を更新する。利用者U1がコーディネート#1に対して肯定的である場合、更新部48は、分散表現空間F4において、属性情報B2と画像P1とを所定の距離近づけるように更新する。一方、利用者U1がコーディネート#3に対して否定的である場合、更新部48は、分散表現空間F4において、属性情報B2と画像P3とを所定の距離遠ざけるように更新する。
(About the update section 48)
The updating unit 48 updates the distributed representation space based on the feedback obtained by the obtaining unit 47. If the user U1 is positive about the coordination #1, the updating unit 48 updates the attribute information B2 and the image P1 to be closer to each other by a predetermined distance in the distributed expression space F4. On the other hand, if the user U1 is negative about coordination #3, the updating unit 48 updates the attribute information B2 and the image P3 to be separated by a predetermined distance in the distributed expression space F4.

また、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的である場合、更新部48は、分散表現空間において、対象者に対応する情報(例えば、属性情報や、アンケートに対する回答など)と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が否定的である場合、更新部48は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。 Further, if the target person is positive about the user U1 who wears the coordination indicated by the provided information, the updating unit 48 updates information corresponding to the target person (for example, attribute information, questionnaire information, etc.) in the distributed expression space. etc.) and the image showing the coordination are updated so that they are brought closer to each other by a predetermined distance. On the other hand, if the target person is negative about the user U1 who wears the coordination indicated by the provided information, the updating unit 48 specifies information corresponding to the target person and an image indicating the coordination in the distributed expression space. Update to move away from the distance.

また、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が肯定的である場合、更新部48は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が否定的である場合、更新部48は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。 Further, when the user U1 presents clothing included in the coordination indicated by the information provided to the user U1 to the target person, if the target person is positive, the updating unit 48 presents the clothes included in the coordination indicated by the information provided to the user U1 to the target person in the distributed expression space. The corresponding information and the image showing the coordination are updated so as to be closer to each other by a predetermined distance. On the other hand, when the user U1 presents clothing included in the coordination indicated by the information provided to the user U1 to the target person, if the target person is negative, the updating unit 48 presents the clothes included in the coordination indicated by the information provided to the user U1 to the target person in the distributed expression space. The corresponding information and the image showing the coordination are updated so as to be separated by a predetermined distance.

〔5.情報処理のフロー〕
図10を用いて、実施形態に係る情報処理装置10の情報処理の手順(1)について説明する。図10は、実施形態に係る情報処理の手順の一例を示すフローチャート(1)である。
[5. Information processing flow]
The information processing procedure (1) of the information processing apparatus 10 according to the embodiment will be described using FIG. 10. FIG. 10 is a flowchart (1) illustrating an example of an information processing procedure according to the embodiment.

図10に示すように、情報処理装置10は、複数の被服の組み合わせを着用した着用者の画像に対する評価を受け付けたか否かを判定する(ステップS101)。評価を受け付けていない場合(ステップS101;No)、情報処理装置10は、評価を受け付けるまで待機する。 As shown in FIG. 10, the information processing device 10 determines whether or not an evaluation of an image of a wearer wearing a plurality of clothing combinations has been received (step S101). If no evaluation has been received (step S101; No), the information processing device 10 waits until the evaluation is received.

一方、評価を受け付けた場合(ステップS101;Yes)、情報処理装置10は、評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成し(ステップS102)、処理を終了する。 On the other hand, when the evaluation is accepted (step S101; Yes), the information processing device 10 generates a distributed representation space on which the image and evaluator information indicating the evaluator are projected based on the evaluation (step S102), Finish the process.

次に、図11を用いて、実施形態に係る情報処理装置10の情報処理の手順(2)について説明する。図11は、実施形態に係る情報処理の手順の一例を示すフローチャート(2)である。 Next, the information processing procedure (2) of the information processing apparatus 10 according to the embodiment will be described using FIG. 11. FIG. 11 is a flowchart (2) illustrating an example of an information processing procedure according to the embodiment.

図11に示すように、情報処理装置10は、複数の被服の組み合わせを着用した着用者の画像に対する評価を受け付けたか否かを判定する(ステップS201)。評価を受け付けていない場合(ステップS201;No)、情報処理装置10は、評価を受け付けるまで待機する。 As shown in FIG. 11, the information processing device 10 determines whether or not an evaluation of an image of a wearer wearing a combination of a plurality of clothing has been received (step S201). If the evaluation is not accepted (step S201; No), the information processing device 10 waits until the evaluation is accepted.

一方、評価を受け付けた場合(ステップS201;Yes)、情報処理装置10は、評価に基づいて、畳み込みニューラルネットワークを生成する(ステップS202)。続いて、情報処理装置10は、畳み込みニューラルネットワークが画像の領域ごとに生成する分散表現に基づく態様で画像を出力し(ステップS203)、処理を終了する。 On the other hand, if the evaluation is accepted (step S201; Yes), the information processing device 10 generates a convolutional neural network based on the evaluation (step S202). Subsequently, the information processing device 10 outputs the image in a manner based on the distributed representation generated by the convolutional neural network for each region of the image (step S203), and ends the process.

次に、図12を用いて、実施形態に係る情報処理装置10の情報処理の手順(3)について説明する。図12は、実施形態に係る情報処理の手順の一例を示すフローチャート(3)である。 Next, the information processing procedure (3) of the information processing apparatus 10 according to the embodiment will be described using FIG. 12. FIG. 12 is a flowchart (3) illustrating an example of an information processing procedure according to the embodiment.

図12に示すように、情報処理装置10は、被服の組み合わせの提供要求を受け付けたか否かを判定する(ステップS301)。提供要求を受け付けていない場合(ステップS301;No)、情報処理装置10は、提供要求を受け付けるまで待機する。 As shown in FIG. 12, the information processing device 10 determines whether a request for providing a clothing combination has been received (step S301). If the provision request has not been received (step S301; No), the information processing device 10 waits until the provision request is received.

一方、提供要求を受け付けた場合(ステップS301;Yes)、情報処理装置10は、評価者からの評価に基づいて生成される、複数の被服の組み合わせを着用した着用者の画像と、評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う複数の被服の組み合わせを推定する(ステップ3202)。続いて、情報処理装置10は、推定された組み合わせに関する情報を利用者に提供し(ステップS303)、処理を終了する。 On the other hand, if the request for provision is received (step S301; Yes), the information processing device 10 displays an image of the wearer wearing the combination of multiple clothing, which is generated based on the evaluation from the evaluator, and the evaluator. Based on the distributed representation space projected with the evaluator information shown, a combination of a plurality of clothing that suits a predetermined object is estimated (step 3202). Subsequently, the information processing device 10 provides information regarding the estimated combination to the user (step S303), and ends the process.

〔6.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
[6. Modified example]
The embodiments described above are merely examples, and various modifications and applications are possible.

〔6-1.評価者に対する情報の提供について〕
上述の実施形態において、情報処理装置10は、評価者による画像に対する評価に基づいて、コーディネートに関する情報を提供してもよい。例えば、情報処理装置10は、評価者が似合うと評価した画像に対応するコーディネートに関する情報を、電子商取引サービスや、コーディネートサービスにおいて提供する。
[6-1. Regarding provision of information to evaluators]
In the embodiment described above, the information processing device 10 may provide information regarding coordination based on the evaluation of the image by the evaluator. For example, the information processing device 10 provides information regarding coordination corresponding to the image that the evaluator has evaluated as suitable, in an electronic commerce service or a coordination service.

〔6-2.対象者について〕
上述の実施形態において、対象者が、利用者が会う相手や、プレゼントを贈る相手である例を示したが、対象者はこのような例に限定されない。例えば、対象者は、ショップの店員やコーディネーターである利用者が接客する相手であってもよい。このような場合、情報処理装置10は、分散表現空間と、利用者が接客する対象者に関する情報とに基づいて、対象者が自身に似合うと評価するコーディネート(言い換えると、対象者が気に入るコーディネート)を推定し、推定したコーディネートに関する情報を利用者に出力する。また、情報処理装置10は、CNNと、利用者が接客する対象者に関する情報とに基づく態様で、コーディネートを示す画像(例えば、コーディネートのうちいずれの被服を対象者が気に入るかを示す画像)を出力する。
[6-2. About the target audience]
In the above-described embodiment, an example was given in which the target person is a person the user meets or a person to whom the user gives a present, but the target person is not limited to such examples. For example, the target person may be a shop clerk or a coordinator with whom the user serves customers. In such a case, the information processing device 10 determines the coordination that the user evaluates as suitable for the user (in other words, the coordination that the user likes) based on the distributed expression space and the information regarding the target person the user serves. and outputs information about the estimated coordination to the user. In addition, the information processing device 10 displays an image showing the coordination (for example, an image showing which clothing of the coordination the subject likes) in a manner based on CNN and information regarding the subject served by the user. Output.

なお、情報処理装置10は、ショップの店員やコーディネーターである利用者と、顧客である対象者とのマッチングを行ってもよい。例えば、情報処理装置10は、各利用者に関する情報と、各対象者に関する情報とに基づき、各利用者及び各対象者を分散表現空間に投影した場合の位置を推定し、投影した位置から所定の範囲内に所在する利用者及び対象者に関する情報を、利用者及び対象者のそれぞれに提供する。 Note that the information processing device 10 may match a user who is a shop clerk or coordinator with a target person who is a customer. For example, the information processing device 10 estimates the position of each user and each target person projected onto the distributed expression space based on the information regarding each user and the information regarding each target person, and selects a predetermined position from the projected position. Provide each user and target person with information regarding users and target persons located within the scope of .

〔6-3.被服のデザインに関する情報の提供について〕
上述の実施形態において、情報処理装置10は、製造元がデザインした被服のデータに対する評価者の評価を受け付け、当該評価に基づく情報を製造元に提供してもよい。例えば、情報処理装置10は、製造元がデザインした被服を着用した着用者を示すデータ(例えば、CADデータ)と、当該データに対する評価者の評価と、評価者に関する評価者情報とを含む学習用データを用いてCNNを生成する。具体的な例を挙げると、情報処理装置10は、データが示す被服のある領域について、その領域について似合うと評価した可能性が高い各評価者の分散表現と類似し、似合わないと評価した可能性が高い各評価者の分散表現と類似しない領域ベクトル(データが示す被服を複数の領域に分割し、分割した領域ごとの特徴を示すベクトル)を生成するよう学習したCNNを生成する。そして、情報処理装置10は、このような学習済みのCNNが生成した領域ベクトルを用いて、各評価者が似合うと判断した領域(言い換えると、襟や裾などといった被服の部位)を推定し、推定した領域を示すヒートマップを出力する。
[6-3. Regarding provision of information regarding clothing designs]
In the embodiment described above, the information processing device 10 may accept an evaluator's evaluation of data on clothing designed by a manufacturer, and may provide information based on the evaluation to the manufacturer. For example, the information processing device 10 stores learning data including data indicating a wearer wearing clothing designed by a manufacturer (for example, CAD data), an evaluator's evaluation of the data, and evaluator information regarding the evaluator. Generate CNN using . To give a specific example, the information processing device 10, for a certain area of clothing indicated by the data, is similar to the distributed expression of each evaluator who is likely to have evaluated that area as fitting, and is likely to have evaluated it as unsuitable. A CNN trained to generate region vectors (vectors that divide the clothing indicated by the data into multiple regions and indicate the characteristics of each divided region) that are dissimilar to the distributed expressions of each evaluator with a high degree of similarity are generated. Then, the information processing device 10 uses the region vectors generated by the trained CNN to estimate the region that each evaluator has judged to look good (in other words, parts of clothing such as the collar and hem), Output a heat map showing the estimated area.

より具体的な例を挙げると、情報処理装置10は、CNNと、所定の利用者(例えば、被服の購買層)に関する情報とに基づき、当該データの各領域が示す被服の部位のそれぞれについて、利用者が似合うと評価する度合いを判定し、判定した度合いをヒートマップで示すデータを製造元に出力する。 To give a more specific example, the information processing device 10, based on CNN and information regarding a predetermined user (for example, clothing purchasing group), for each part of clothing indicated by each region of the data, It determines the degree to which the user evaluates the user's suitability and outputs data showing the determined degree in a heat map to the manufacturer.

これにより、情報処理装置10は、デザイン中の被服のどの部位が、利用者に似合うと評価されるかを把握し、どの部位が似合わないと評価されるかを把握することを可能とするため、被服のデザインにおける利便性を向上させることができる。 This makes it possible for the information processing device 10 to grasp which parts of the clothing being designed are evaluated to look good on the user, and which parts are judged to be unsuitable to the user. , it is possible to improve the convenience in designing clothing.

〔6-4.処理態様について〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6-4. Regarding processing mode]
Among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, and conversely, all of the processes described as being performed manually can be performed manually. Alternatively, some of the steps can be performed automatically using known methods. In addition, the processing procedures, specific names, and information including various data and parameters shown in the above text and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the embodiments described above can be combined as appropriate within a range that does not conflict with the processing contents.

〔6-5.評価の対象について〕
上述の実施形態において、情報処理装置10が、被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成する例を示したが、評価の対象は被服の組み合わせに限定されず、任意のものであってもよい。例えば、情報処理装置10は、複数の家具の組み合わせを示す画像に対する評価であって、当該組み合わせが似合っているか否かを示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成してもよい。具体的な例を挙げると、情報処理装置10は、評価者から受け付けられた評価に基づいて、家具の組み合わせを示す画像や、画像が示す家具に関する情報(例えば、家具タイプ、ブランド、ショップ名、製造地、利用シーン、色、カテゴリ(カジュアル等)、売り文句、素材、サイズ、価格帯など)、評価者に関する情報などを投影した分散表現空間を生成し、利用者が似合うと評価する家具の組み合わせに関する情報を利用者に提供する。また、情報処理装置10は、評価者から受け付けられた評価に基づいてCNNを生成し、CNNが家具の組み合わせを示す画像の領域ごとに生成する分散表現に基づく態様で、家具の組み合わせを示す画像を出力する。
[6-5. Regarding the subject of evaluation]
In the above-described embodiment, the information processing device 10 receives evaluations from a plurality of evaluators of images of a wearer wearing a combination of clothing, indicating whether or not the combination suits the wearer. Although an example has been shown in which a distributed representation space or CNN is generated based on the received evaluation, the object of evaluation is not limited to combinations of clothing, and may be any arbitrary object. For example, the information processing device 10 receives evaluations from a plurality of evaluators regarding images showing combinations of a plurality of pieces of furniture, indicating whether or not the combinations suit each other, and based on the received evaluations, the information processing device 10 generates a distributed representation. Space or CNN may be generated. To give a specific example, the information processing device 10 generates images showing combinations of furniture and information about the furniture shown in the images (for example, furniture type, brand, shop name, etc.) based on evaluations received from evaluators. A distributed expression space is created that projects information such as the place of manufacture, usage scene, color, category (casual, etc.), sales slogan, material, size, price range, etc., and information about the evaluator, and the furniture that the user evaluates as suitable is generated. Provide information about combinations to users. The information processing device 10 also generates a CNN based on the evaluation received from the evaluator, and generates an image showing the combination of furniture in a manner based on a distributed representation that the CNN generates for each area of the image showing the combination of furniture. Output.

また、例えば、情報処理装置10は、複数の料理の組み合わせ(例えば、献立)を示す画像に対する評価であって、当該組み合わせが適切か否か(例えば、見た目や、味の組み合わせが適切か否か)を示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成してもよい。具体的な例を挙げると、情報処理装置10は、評価者から受け付けられた評価に基づいて、料理の組み合わせを示す画像や、画像が示す料理に関する情報(例えば、料理名や、食材、料理のジャンル、旬の季節、味の特徴、価格帯など)、評価者に関する情報などを投影した分散表現空間を生成し、利用者が適切と評価する料理の組み合わせに関する情報を利用者に提供する。また、情報処理装置10は、評価者から受け付けられた評価に基づいてCNNを生成し、CNNが料理の組み合わせを示す画像の領域ごとに生成する分散表現に基づく態様で、料理の組み合わせを示す画像を出力する。 For example, the information processing device 10 may evaluate an image showing a combination of a plurality of dishes (for example, a menu), and determine whether the combination is appropriate (for example, whether the combination of appearance and taste is appropriate or not). ) may be received from a plurality of evaluators, and a distributed representation space or CNN may be generated based on the received evaluations. To give a specific example, the information processing device 10 generates an image showing a combination of dishes and information about the dish shown in the image (for example, the name of the dish, ingredients, The system generates a distributed expression space that projects information such as genre, season, flavor characteristics, price range, etc., and evaluators, and provides users with information on the combinations of dishes that users evaluate as appropriate. The information processing device 10 also generates a CNN based on the evaluation received from the evaluator, and generates an image showing the combination of dishes in a manner based on a distributed representation that the CNN generates for each area of the image showing the combination of dishes. Output.

また、例えば、情報処理装置10は、複数の花の組み合わせ(例えば、花束)を示す画像に対する評価であって、当該組み合わせが適切か否かを示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成してもよい。具体的な例を挙げると、情報処理装置10は、評価者から受け付けられた評価に基づいて、花の組み合わせを示す画像や、画像が示す花に関する情報(例えば、利用シーン、個々の花の名前、色、季節、目的、カテゴリ(カジュアル等)、売り文句、産地、価格帯など)、評価者に関する情報などを投影した分散表現空間を生成し、利用者が適切と評価する花の組み合わせに関する情報を利用者に提供する。また、情報処理装置10は、評価者から受け付けられた評価に基づいてCNNを生成し、CNNが花の組み合わせを示す画像の領域ごとに生成する分散表現に基づく態様で、花の組み合わせを示す画像を出力する。 For example, the information processing device 10 may receive evaluations from a plurality of evaluators regarding an image showing a combination of a plurality of flowers (for example, a bouquet of flowers) and indicate whether or not the combination is appropriate. Based on this, a distributed representation space or CNN may be generated. To give a specific example, the information processing device 10 generates an image showing a combination of flowers and information about the flowers shown in the image (for example, the usage scene, the name of each flower) based on the evaluation received from the evaluator. , color, season, purpose, category (casual, etc., sales phrase, region of origin, price range, etc.), information about the evaluator, etc. is generated, and information about the combination of flowers that the user evaluates as appropriate is generated. to the users. The information processing device 10 also generates a CNN based on the evaluation received from the evaluator, and generates an image showing the combination of flowers in a manner based on a distributed representation that the CNN generates for each region of the image showing the combination of flowers. Output.

〔6-6.画像について〕
上述の実施形態において、情報処理装置10が、複数の被服の組み合わせを着用した着用者の画像に対する処理について記載したが、実施形態はこれに限定されるものではなく、1つの被服を着用した着用者の画像に対して同様の処理を行ってもよい。
[6-6. About images]
In the above-described embodiment, the information processing device 10 described processing for an image of a wearer wearing a combination of a plurality of clothes, but the embodiment is not limited to this, and the information processing device 10 processes an image of a wearer wearing a combination of a plurality of clothes. Similar processing may be performed on images of other people.

〔7.効果〕
上述してきたように、実施形態に係る情報処理装置10は、受付部41と、生成部42と、推定部43と、提供部44と、判定部45と、出力部46と、取得部47と、更新部48とを有する。情報処理装置10は、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける受付部41と、受付部41により受け付けられた評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する生成部42とを有することを特徴とする。また、情報処理装置10は、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける受付部41と、受付部41により受け付けられた評価に基づいて、畳み込みニューラルネットワークを生成する生成部42と、生成部42により生成された畳み込みニューラルネットワークが画像の領域ごとに生成する分散表現に基づく態様で画像を出力する出力部46とを有することを特徴とする。また、情報処理装置10は、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う被服を推定する推定部43と、推定部43により推定された被服に関する情報を利用者に提供する提供部44とを有することを特徴とする。
[7. effect〕
As described above, the information processing device 10 according to the embodiment includes the reception unit 41, the generation unit 42, the estimation unit 43, the provision unit 44, the determination unit 45, the output unit 46, and the acquisition unit 47. , and an update section 48. The information processing device 10 includes a reception unit 41 that receives evaluations from a plurality of evaluators of an image of a wearer wearing clothing, indicating whether or not the clothing suits the wearer; The present invention is characterized by having a generation unit 42 that generates a distributed representation space in which an image and evaluator information indicating an evaluator are projected based on the evaluation received by the evaluator. The information processing device 10 also includes a reception unit 41 that receives evaluations from a plurality of evaluators of an image of a wearer wearing clothing, which indicates whether or not the clothing suits the wearer. A generation unit 42 generates a convolutional neural network based on the evaluation received by the generation unit 41, and the convolutional neural network generated by the generation unit 42 outputs an image in a manner based on a distributed representation generated for each region of the image. It is characterized by having an output section 46. The information processing device 10 also generates an evaluation of an image of a wearer wearing the clothing based on evaluations from a plurality of evaluators indicating whether or not the clothing suits the wearer. An estimating unit 43 estimates clothing that suits a predetermined subject based on a distributed expression space in which the image and evaluator information indicating the evaluator are projected, and information regarding the clothing estimated by the estimating unit 43 is transmitted to the user. It is characterized by having a provision section 44 that provides the information to the users.

また、受付部41は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける。また、受付部41は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける。生成部42は、受付部41により受け付けられた評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する。また、生成部42は、評価者が、組み合わせが着用者に似合っていると高く評価するほど、分散表現空間において画像と、評価者情報とをより近い位置に投影し、評価者が、組み合わせが着用者に似合っていないと低く評価するほど、分散表現空間において画像と、評価者情報とをより遠い位置に投影また、生成部42は、受付部41により受け付けられた評価に基づいて、畳み込みニューラルネットワークを生成する。推定部43は、分散表現空間と、利用者に関する情報とに基づいて、当該利用者に似合う複数の被服の組み合わせを推定する。また、推定部43は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う複数の被服の組み合わせを推定する。また、推定部43は、組み合わせが所定の対象に似合う度合いをさらに推定する。提供部44は、推定部43により推定された組み合わせに関する組み合わせ情報を利用者に提供する。また、提供部44は、推定部43により推定された組み合わせに関する情報を利用者に提供する。また、提供部44は、組み合わせを度合いに応じた態様で提供する。判定部45は、分散表現における複数の領域と、利用者に関する情報とに基づいて、領域に含まれる被服のそれぞれが当該利用者に似合う度合いを判定する。また、判定部45は、分散表現における複数の領域と、対象者に関する情報とに基づいて、領域に含まれる被服のそれぞれを当該対象者が利用者に似合うと評価する度合いを判定する。出力部46は、生成部42により生成された畳み込みニューラルネットワークが画像の領域ごとに生成する分散表現に基づく態様で画像を出力する。また、出力部46は、分散表現における複数の領域と、評価者を示す評価者情報とに基づく態様で画像を出力する。また、出力部46は、分散表現が評価者情報の分散表現と類似する領域ほど強調の度合いを高くし、評価者情報の分散表現と類似しない領域ほど強調の度合いを低くした画像を出力する。また、出力部46は、判定部45により判定された利用者に似合う度合いに応じた態様で領域を表示する画像を利用者に出力する。また、出力部46は、判定部45により判定された対象者が利用者に似合うと評価する度合いに応じた態様で領域を表示する画像を利用者に出力する。取得部47は、提供部44により提供された組み合わせ情報に対する、利用者、若しくは、利用者と所定の関係を有する他の利用者からのフィードバックを取得する。更新部48は、取得部47により取得されたフィードバックに基づいて、分散表現空間を更新する。利用者U1がコーディネート#1に対して肯定的である場合、更新部48は、分散表現空間F4において、属性情報B2と画像P1とを所定の距離近づけるように更新する。 Further, the receiving unit 41 receives evaluations from a plurality of evaluators regarding images of a wearer wearing a plurality of combinations of clothing, indicating whether or not the combination suits the wearer. Further, the receiving unit 41 receives evaluations from a plurality of evaluators regarding images of a wearer wearing a plurality of combinations of clothing, indicating whether or not the combination suits the wearer. The generation unit 42 generates a distributed representation space on which images and evaluator information indicating the evaluator are projected, based on the evaluation received by the reception unit 41. Furthermore, the more highly the evaluator evaluates that the combination suits the wearer, the closer the evaluator projects the image and the evaluator information in the distributed expression space, so that the evaluator The lower the evaluation is that it does not suit the wearer, the further the image and evaluator information are projected in the distributed representation space. Generate a network. The estimation unit 43 estimates a combination of clothing that suits the user based on the distributed expression space and information regarding the user. Furthermore, the estimating unit 43 generates an evaluation for an image of a wearer wearing a plurality of combinations of clothing based on evaluations from a plurality of evaluators indicating whether or not the combination suits the wearer. Based on a distributed representation space in which the image and evaluator information indicating the evaluator are projected, a combination of a plurality of clothing that suits a predetermined object is estimated. Furthermore, the estimation unit 43 further estimates the degree to which the combination suits a predetermined object. The providing unit 44 provides the user with combination information regarding the combinations estimated by the estimating unit 43. Further, the providing unit 44 provides the user with information regarding the combination estimated by the estimating unit 43. Further, the providing unit 44 provides the combinations in a manner depending on the degree. The determination unit 45 determines the degree to which each piece of clothing included in the region suits the user, based on the plurality of regions in the distributed representation and information regarding the user. Furthermore, the determination unit 45 determines the degree to which each item of clothing included in the area is evaluated as suitable for the user by the target person, based on the plurality of areas in the distributed representation and the information regarding the target person. The output unit 46 outputs the image in a manner based on the distributed representation generated for each region of the image by the convolutional neural network generated by the generation unit 42. Further, the output unit 46 outputs the image in a manner based on the plurality of regions in the distributed representation and evaluator information indicating the evaluator. Further, the output unit 46 outputs an image in which the degree of emphasis is increased in an area where the distributed expression is more similar to the distributed expression of the evaluator information, and the degree of emphasis is lowered in an area that is not similar to the distributed expression of the evaluator information. Further, the output unit 46 outputs to the user an image that displays the area in a manner according to the degree of suitability for the user determined by the determination unit 45. Further, the output unit 46 outputs to the user an image that displays the area in a manner according to the degree to which the target person determined by the determination unit 45 is evaluated to look good on the user. The acquisition unit 47 acquires feedback from the user or another user having a predetermined relationship with the user regarding the combination information provided by the providing unit 44 . The updating unit 48 updates the distributed representation space based on the feedback obtained by the obtaining unit 47. If the user U1 is positive about the coordination #1, the updating unit 48 updates the attribute information B2 and the image P1 to be closer to each other by a predetermined distance in the distributed expression space F4.

これにより、実施形態に係る情報処理装置10は、コーディネートを示す画像と、評価者の個性との近さを測れる空間を構成することにより、「似合う」を定量化することができるため、各評価者の主観から被服が着用者に似合っているかを把握することができる。また、実施形態に係る情報処理装置10は、生成した分散表現空間を用いて、利用者と類似する評価者の評価に基づき、利用者に似合うと推定されるコーディネートに関する情報を提供することができるため、所定の対象に似合う被服を利用者が把握することができるという効果を奏する。また、実施形態に係る情報処理装置10は、コーディネートのうち、評価者が似合うと評価した被服や、似合わないと評価した被服を示す領域を可視化することができるため、複数の被服の組み合わせのうち、いずれの被服が着用者に似合っているかを把握することができる。 As a result, the information processing device 10 according to the embodiment can quantify "suitability" by configuring a space that can measure the closeness between the image showing coordination and the evaluator's personality, so that each evaluation It is possible to understand whether the clothing suits the wearer from the subjectivity of the wearer. Furthermore, the information processing device 10 according to the embodiment can use the generated distributed expression space to provide information regarding coordination that is estimated to suit the user based on the evaluations of evaluators similar to the user. Therefore, it is possible for the user to know which clothing suits a predetermined target. In addition, the information processing device 10 according to the embodiment can visualize, in the coordination, areas indicating clothing that the evaluator has evaluated as suitable and clothing that has been evaluated as unsuitable, so that among the combinations of multiple clothing, the information processing device 10 can , it is possible to understand which clothing suits the wearer.

また、実施形態に係る情報処理装置10において、例えば、生成部42は、評価に基づいて、さらに組み合わせに含まれる被服を示す情報を投影した分散表現空間を生成する。また、生成部42は、評価に基づいて、さらに組み合わせが属するカテゴリを示す情報を投影した分散表現空間を生成する。また、生成部42は、評価に基づいて、さらに組み合わせに含まれる被服を提供する提供元を示す情報を投影した分散表現空間を生成する。また、生成部42は、評価者の属性を示す評価者情報を投影した分散表現空間を生成する。また、生成部42は、所定のアンケートに対する評価者の回答を示す評価者情報を投影した分散表現空間を生成する。 Further, in the information processing device 10 according to the embodiment, for example, the generation unit 42 generates a distributed expression space in which information indicating clothing included in the combination is further projected based on the evaluation. Further, based on the evaluation, the generation unit 42 generates a distributed expression space onto which information indicating the category to which the combination belongs is further projected. Further, based on the evaluation, the generation unit 42 further generates a distributed expression space onto which information indicating the provider who provides the clothing included in the combination is projected. The generation unit 42 also generates a distributed representation space onto which evaluator information indicating attributes of evaluators is projected. Furthermore, the generation unit 42 generates a distributed representation space onto which evaluator information indicating the evaluator's answers to a predetermined questionnaire is projected.

これにより、実施形態に係る情報処理装置10は、コーディネートを示す画像と、評価者の個性との近さを測れる空間を構成することにより、「似合う」を定量化することができるため、各評価者の主観から被服が着用者に似合っているかを把握することができる。 As a result, the information processing device 10 according to the embodiment can quantify "suitability" by configuring a space that can measure the closeness between the image showing coordination and the evaluator's personality, so that each evaluation It is possible to understand whether the clothing suits the wearer from the subjectivity of the wearer.

また、実施形態に係る情報処理装置10において、例えば、推定部43は、分散表現空間と、利用者に関する情報とに基づいて、利用者に似合う組み合わせを推定する。また、推定部43は、利用者の属性、利用者が選択した被服のカテゴリ、所定のアンケートに対する利用者の回答のうち少なくともいずれかに基づいて、利用者に似合う組み合わせを推定する。 Further, in the information processing device 10 according to the embodiment, for example, the estimating unit 43 estimates a combination that suits the user based on the distributed expression space and information regarding the user. Furthermore, the estimation unit 43 estimates a combination that suits the user based on at least one of the user's attributes, the clothing category selected by the user, and the user's responses to a predetermined questionnaire.

これにより、実施形態に係る情報処理装置10は、生成した分散表現空間を用いて、利用者と類似する評価者の評価に基づき、利用者に似合うと推定されるコーディネートに関する情報を提供することができるため、自身に似合う被服を利用者が把握することができるという効果を奏する。 As a result, the information processing device 10 according to the embodiment can use the generated distributed expression space to provide information regarding coordination that is estimated to suit the user based on the evaluations of evaluators similar to the user. This has the effect of allowing the user to know which clothing suits him/her.

また、実施形態に係る情報処理装置10において、例えば、推定部43は、分散表現空間と、対象者に関する情報とに基づいて、当該対象者が利用者に似合うと評価する組み合わせを推定する。また、推定部43は、対象者の属性、所定のアンケートに対する対象者の回答のうち少なくともいずれかに基づいて、対象者が利用者に似合うと評価する組み合わせを推定する。 Further, in the information processing device 10 according to the embodiment, for example, the estimating unit 43 estimates a combination that is evaluated as being suitable for the target person as the user, based on the distributed expression space and information regarding the target person. Furthermore, the estimation unit 43 estimates a combination that the target person evaluates as suitable for the user, based on at least one of the target person's attributes and the target person's answers to a predetermined questionnaire.

これにより、実施形態に係る情報処理装置10は、利用者に似合うと対象者が評価すると推定されるコーディネートに関する情報を提供することができるため、対象者に気に入られる被服を利用者が把握することができるという効果を奏する。 As a result, the information processing device 10 according to the embodiment can provide information regarding coordination that is estimated to be evaluated by the target person as looking good on the user, so that the user can grasp the clothes that the target person likes. It has the effect of being able to

また、実施形態に係る情報処理装置10において、例えば、推定部43は、分散表現空間と、対象者に関する情報とに基づいて、当該対象者に似合う組み合わせを推定する。また、推定部43は、対象者の属性、所定のアンケートに対する対象者の回答のうち少なくともいずれかに基づいて、対象者に似合う組み合わせを推定する。 Further, in the information processing device 10 according to the embodiment, for example, the estimating unit 43 estimates a combination that suits the target person based on the distributed expression space and information regarding the target person. Furthermore, the estimation unit 43 estimates a combination that suits the target person based on at least one of the target person's attributes and the target person's answers to a predetermined questionnaire.

これにより、実施形態に係る情報処理装置10は、対象者が自身に似合うと評価すると推定されるコーディネートに関する情報を提供することができるため、対象者に気に入られる被服を利用者が把握することができるという効果を奏する。 As a result, the information processing device 10 according to the embodiment can provide information regarding coordination that is estimated to be evaluated by the target person as looking good on him/herself, so that the user can grasp clothes that the target person will like. It has the effect of being able to do it.

また、実施形態に係る情報処理装置10において、例えば、推定部43は、着用者の顔を示す画像を投影した分散表現空間と、所定の対象の顔を示す画像とに基づいて、所定の対象に似合う組み合わせを推定する。また、推定部43は、着用者の体型を示す画像を投影した分散表現空間と、所定の対象の体型を示す画像とに基づいて、所定の対象に似合う組み合わせを推定する。 Further, in the information processing device 10 according to the embodiment, for example, the estimating unit 43 selects a predetermined object based on a distributed expression space onto which an image showing the wearer's face is projected and an image showing the face of the predetermined object. Estimate the combination that suits you. Furthermore, the estimating unit 43 estimates a combination that looks good on a predetermined object based on a distributed representation space in which an image showing the wearer's body shape is projected and an image showing the predetermined object's body shape.

これにより、実施形態に係る情報処理装置10は、所定の対象の顔や体型に応じたコーディネートに関する情報を提供することができるため、所定の対象に似合う被服を利用者が精度よく把握することができるという効果を奏する。 As a result, the information processing device 10 according to the embodiment can provide information regarding coordination according to the face and body shape of a predetermined target, so that the user can accurately grasp clothing that suits the predetermined target. It has the effect of being able to do it.

〔8.ハードウェア構成〕
また、上述してきた各実施形態に係る情報処理装置10は、例えば、図13に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置10を例に挙げて説明する。図13は、情報処理装置10の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、ROM1200、RAM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[8. Hardware configuration]
Further, the information processing apparatus 10 according to each of the embodiments described above is realized by, for example, a computer 1000 having a configuration as shown in FIG. 13. The information processing device 10 will be described below as an example. FIG. 13 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing device 10. Computer 1000 has CPU 1100, ROM 1200, RAM 1300, HDD 1400, communication interface (I/F) 1500, input/output interface (I/F) 1600, and media interface (I/F) 1700.

CPU1100は、ROM1200又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1200は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 CPU 1100 operates based on a program stored in ROM 1200 or HDD 1400, and controls each part. The ROM 1200 stores a boot program executed by the CPU 1100 when the computer 1000 is started, programs depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. Communication interface 1500 receives data from other devices via communication network 500 (corresponding to network N in the embodiment) and sends it to CPU 1100, and also sends data generated by CPU 1100 to other devices via communication network 500. Send to device.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。 The CPU 1100 controls output devices such as a display and a printer, and input devices such as a keyboard and mouse via an input/output interface 1600. CPU 1100 obtains data from an input device via input/output interface 1600. Further, CPU 1100 outputs the generated data to an output device via input/output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1300を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1300上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1300. CPU 1100 loads this program from recording medium 1800 onto RAM 1300 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が情報処理装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1300上にロードされたプログラムを実行することにより、制御部40の機能を実現する。また、HDD1400には、情報処理装置10の記憶装置内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing device 10, the CPU 1100 of the computer 1000 realizes the functions of the control unit 40 by executing a program loaded onto the RAM 1300. Further, each data in the storage device of the information processing device 10 is stored in the HDD 1400. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via a predetermined communication network.

〔9.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
[9. others〕
Some of the embodiments of the present application have been described above in detail based on the drawings, but these are merely examples, and various modifications and variations may be made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure section of the invention. It is possible to carry out the invention in other forms with modifications.

また、上述した情報処理装置10は、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。 Further, the configuration of the information processing device 10 described above can be changed flexibly, such as implementing some functions by calling an external platform or the like using an API (Application Programming Interface), network computing, or the like.

また、特許請求の範囲に記載した「部」は、「手段」や「回路」などに読み替えることができる。例えば、受付部は、受付手段や受付回路に読み替えることができる。 Further, the "unit" described in the claims can be read as "means", "circuit", etc. For example, the reception unit can be read as reception means or reception circuit.

10 情報処理装置
20 通信部
30 記憶部
31 評価者情報データベース
32 利用者情報データベース
40 制御部
41 受付部
42 生成部
43 推定部
44 提供部
45 判定部
46 出力部
47 取得部
48 更新部
100 利用者端末
200 評価者端末
10 information processing device 20 communication unit 30 storage unit 31 evaluator information database 32 user information database 40 control unit 41 reception unit 42 generation unit 43 estimation unit 44 provision unit 45 determination unit 46 output unit 47 acquisition unit 48 update unit 100 user Terminal 200 Evaluator terminal

Claims (12)

被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う被服を推定する推定部と、
前記推定部により推定された被服に関する情報を利用者に提供する提供部と
を有することを特徴とする情報処理装置。
An evaluation of an image of a wearer wearing clothing, which is generated based on evaluations from multiple evaluators indicating whether or not the clothing suits the wearer. an estimation unit that estimates clothing that looks good on a predetermined target based on a distributed representation space projected with the evaluator information shown;
An information processing device comprising: a providing unit that provides a user with information regarding clothing estimated by the estimating unit.
前記推定部は、
前記分散表現空間と、前記利用者に関する情報とに基づいて、前記利用者に似合う前記被服を推定する
ことを特徴とする請求項1に記載の情報処理装置。
The estimation unit is
The information processing device according to claim 1, wherein the clothing that suits the user is estimated based on the distributed expression space and information regarding the user.
前記推定部は、
前記利用者の属性、前記利用者が選択した被服のカテゴリ、所定のアンケートに対する前記利用者の回答のうち少なくともいずれかに基づいて、前記利用者に似合う前記被服を推定する
ことを特徴とする請求項2に記載の情報処理装置。
The estimation unit is
A claim characterized in that the clothing that suits the user is estimated based on at least one of the user's attributes, the clothing category selected by the user, and the user's answers to a predetermined questionnaire. The information processing device according to item 2.
前記推定部は、
前記分散表現空間と、対象者に関する情報とに基づいて、当該対象者が前記利用者に似合うと評価する前記被服を推定する
ことを特徴とする請求項1に記載の情報処理装置。
The estimation unit is
The information processing device according to claim 1, further comprising: estimating the clothing that the target person evaluates to look good on the user based on the distributed expression space and information regarding the target person.
前記推定部は、
前記対象者の属性、所定のアンケートに対する前記対象者の回答のうち少なくともいずれかに基づいて、前記対象者が前記利用者に似合うと評価する前記被服を推定する
ことを特徴とする請求項4に記載の情報処理装置。
The estimation unit is
According to claim 4, the clothing that the target person evaluates to look good on the user is estimated based on at least one of the target person's attributes and the target person's answers to a predetermined questionnaire. The information processing device described.
前記推定部は、
前記分散表現空間と、対象者に関する情報とに基づいて、当該対象者に似合う前記被服を推定する
ことを特徴とする請求項1に記載の情報処理装置。
The estimation unit is
The information processing device according to claim 1, wherein the clothing that suits the target person is estimated based on the distributed expression space and information regarding the target person.
前記推定部は、
前記対象者の属性、所定のアンケートに対する前記対象者の回答のうち少なくともいずれかに基づいて、前記対象者に似合う前記被服を推定する
ことを特徴とする請求項6に記載の情報処理装置。
The estimation unit is
The information processing device according to claim 6, wherein the clothing that suits the target person is estimated based on at least one of the target person's attributes and the target person's answers to a predetermined questionnaire.
前記推定部は、
前記着用者の顔を示す前記画像を投影した前記分散表現空間と、前記所定の対象の顔を示す画像とに基づいて、前記所定の対象に似合う前記被服を推定する
ことを特徴とする請求項1に記載の情報処理装置。
The estimation unit is
A claim characterized in that the clothing that suits the predetermined object is estimated based on the distributed expression space onto which the image showing the wearer's face is projected and the image showing the face of the predetermined object. 1. The information processing device according to 1.
前記推定部は、
前記着用者の体型を示す前記画像を投影した前記分散表現空間と、前記所定の対象の体型を示す画像とに基づいて、前記所定の対象に似合う前記被服を推定する
ことを特徴とする請求項1に記載の情報処理装置。
The estimation unit is
A claim characterized in that the clothing that suits the predetermined object is estimated based on the distributed representation space onto which the image showing the wearer's body shape is projected and the image showing the predetermined object's body shape. 1. The information processing device according to 1.
前記推定部は、
前記被服が前記所定の対象に似合う度合いをさらに推定し、
前記提供部は、
前記被服を前記度合いに応じた態様で提供する
ことを特徴とする請求項1に記載の情報処理装置。
The estimation unit is
further estimating the degree to which the clothing suits the predetermined target;
The provision department is
The information processing device according to claim 1, wherein the clothing is provided in a manner according to the degree.
コンピュータが実行する情報処理方法であって、
被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う被服を推定する推定工程と、
前記推定工程により推定された被服に関する情報を利用者に提供する提供工程と
を含むことを特徴とする情報処理方法。
An information processing method performed by a computer, the method comprising:
An evaluation of an image of a wearer wearing clothing, which is generated based on evaluations from multiple evaluators indicating whether or not the clothing suits the wearer. an estimation step of estimating clothing that suits a predetermined target based on a distributed expression space projected with evaluator information shown;
An information processing method comprising: a providing step of providing a user with information regarding clothing estimated in the estimating step.
被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う被服を推定する推定手順と、
前記推定手順により推定された被服に関する情報を利用者に提供する提供手順と
をコンピュータに実行させることを特徴とする情報処理プログラム。
An evaluation of an image of a wearer wearing clothing, which is generated based on evaluations from multiple evaluators indicating whether or not the clothing suits the wearer. an estimation procedure for estimating clothing that looks good on a predetermined target based on a distributed expression space projected with evaluator information shown;
An information processing program that causes a computer to execute a providing step of providing a user with information regarding clothing estimated by the estimation step.
JP2022159125A 2022-09-30 2022-09-30 Information processing device, information processing method, and information processing program Active JP7391166B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022159125A JP7391166B1 (en) 2022-09-30 2022-09-30 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022159125A JP7391166B1 (en) 2022-09-30 2022-09-30 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP7391166B1 true JP7391166B1 (en) 2023-12-04
JP2024052423A JP2024052423A (en) 2024-04-11

Family

ID=89023143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022159125A Active JP7391166B1 (en) 2022-09-30 2022-09-30 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7391166B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502713A (en) 2012-11-12 2016-01-28 シンガポール・ユニバーシティ・オブ・テクノロジー・アンド・デザインSingapore University of Technologyand Design Clothing matching system and method
JP2020181278A (en) 2019-04-24 2020-11-05 株式会社Zozoテクノロジーズ Fashion recommendation server, fashion recommendation system, fashion recommendation method, and fashion recommendation program
US20210232633A1 (en) 2018-09-25 2021-07-29 A9.Com, Inc. Indexing and presenting content using latent interests

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502713A (en) 2012-11-12 2016-01-28 シンガポール・ユニバーシティ・オブ・テクノロジー・アンド・デザインSingapore University of Technologyand Design Clothing matching system and method
US20210232633A1 (en) 2018-09-25 2021-07-29 A9.Com, Inc. Indexing and presenting content using latent interests
JP2020181278A (en) 2019-04-24 2020-11-05 株式会社Zozoテクノロジーズ Fashion recommendation server, fashion recommendation system, fashion recommendation method, and fashion recommendation program

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
武井 万恵 他,他者の意見を反映した洋服コーディネート推薦システム,第71回(平成21年)全国大会講演論文集(4),2009年03月10日,pp.503-504
池田 雅隆 他,ニューラルネットワークを用いた衣服のコーディネート提案方式の検討,第84回(2022年)全国大会講演論文集(4),2022年02月17日,pp.35-36
田村 悠 他,ファッションECサイトにおけるアンケートを用いたブランド推薦システム,経営の科学 オペレーションズ・リサーチ,2018年02月01日,第63巻、第2号,pp.91-98
知見 優一 他,コーディネート検索におけるユーザ評価の提示によるファッションへの意識変化手法とその評価,第13回データ工学と情報マネジメントに関するフォーラム (第19回日本データベース学会年次大会) [Online] ,2021年03月01日,pp.1-8

Also Published As

Publication number Publication date
JP2024052423A (en) 2024-04-11

Similar Documents

Publication Publication Date Title
US20180308151A1 (en) Enhancing revenue of a retailer by making a recommendation to a customer
US10402917B2 (en) Color-related social networking recommendations using affiliated colors
CN106462979B (en) Fashion preference analysis
US20170039628A1 (en) Image processing method and apparatus
US10074121B2 (en) Shopper helper
US20140032359A1 (en) System and method for providing intelligent recommendations
JP6212013B2 (en) Product recommendation device and product recommendation method
JP2018018136A (en) Electronic commercial transaction system
KR20210098884A (en) A method of providing a fashion item recommendation service using a body shape and purchase history
US20160267576A1 (en) System and Method for Controlling and Sharing Online Images of Merchandise
KR102415338B1 (en) Apparatus and method for clothing sales service based on augmented reality
KR102550214B1 (en) Artificial intelligence-based styling recommendation system for body parts and situations
KR102295459B1 (en) A method of providing a fashion item recommendation service to a user using a date
KR20210031223A (en) Method and System of recommending fashion based on vector based deep learning
US20170364982A1 (en) Systems and methods for improved apparel fit and apparel distribution
CA2942696C (en) Secondary market integration within existing data framework
JP7391166B1 (en) Information processing device, information processing method, and information processing program
JP7391165B1 (en) Information processing device, information processing method, and information processing program
JP7459206B1 (en) Information processing device, information processing method, and information processing program
JP2018045288A (en) Advertisement distribution program, advertisement distribution system and advertisement distribution method
WO2022240420A1 (en) Adaptable systems and methods for matching available clothing to appropriate customers based on profile data
JP7241842B1 (en) Information processing device, information processing method, and information processing program
JP2015219529A (en) Merchandise information presentation device and program
KR102480884B1 (en) Online dress room platform system
NL2022937B1 (en) Method and Apparatus for Accessing Clothing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231121

R150 Certificate of patent or registration of utility model

Ref document number: 7391166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150