JP2015228129A - Coordination recommendation device and program - Google Patents
Coordination recommendation device and program Download PDFInfo
- Publication number
- JP2015228129A JP2015228129A JP2014113466A JP2014113466A JP2015228129A JP 2015228129 A JP2015228129 A JP 2015228129A JP 2014113466 A JP2014113466 A JP 2014113466A JP 2014113466 A JP2014113466 A JP 2014113466A JP 2015228129 A JP2015228129 A JP 2015228129A
- Authority
- JP
- Japan
- Prior art keywords
- item
- feature amount
- model
- feature
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、コーディネートを推薦する技術に関する。 The present invention relates to a technique for recommending coordinates.
従来、日々のコーディネートを天気や会う人といった情報とともに記録しておき、天気予報や、スケジュール、会う人などに応じて、記録していた情報を参照して、コーディネートを推薦するシステムがある(非特許文献1参照)。
また、鏡の前に立つと、その日のコーディネートが撮影・記録され、それらの過去のユーザの履歴からコーディネートを推薦するシステムがある(非特許文献2参照)。
Conventionally, there is a system that records daily coordinates together with information such as weather and meeting people, and recommends coordinates by referring to the recorded information according to the weather forecast, schedule, meeting people, etc. Patent Document 1).
Further, when standing in front of a mirror, there is a system in which the coordinates of the day are photographed and recorded, and the coordinates are recommended from the past user's history (see Non-Patent Document 2).
しかしながら、従来のシステムにおいては、今までに使ったことのない衣服や、アクセサリなどのアイテムを推薦することができないという問題があった。 However, the conventional system has a problem that it is not possible to recommend items such as clothes and accessories that have not been used before.
上記事情に鑑み、本発明は、新しい衣服や、アクセサリなどのアイテムであっても推薦することができる技術を提供することを目的としている。 In view of the above circumstances, an object of the present invention is to provide a technique that can recommend new items such as clothes and accessories.
本発明の一態様は、服装を分割した複数の領域各々の第1特徴量の、少なくとも一つの他の領域の第1特徴量との組み合わせの適合度を示すモデル情報を記憶するモデル記憶部と、服装を構成するアイテムの候補各々に関する第2特徴量を記憶する候補アイテム記憶部と、服装を構成する少なくとも一つのアイテムを示す指定情報を取得する指定取得部と、前記複数の領域のうち、前記指定情報が示すアイテムに対応する領域各々の第3特徴量を算出する特徴量抽出部と、前記第3特徴量と、前記候補アイテム記憶部と、前記モデル記憶部とを参照して、前記アイテムの候補の中から、前記指定情報が示すアイテムとの適合度が高いアイテムの候補を選択する推薦アイテム選択部とを有するコーディネート推薦装置である。 One aspect of the present invention is a model storage unit that stores model information indicating a degree of matching of a first feature amount of each of a plurality of regions obtained by dividing clothes with a first feature amount of at least one other region; A candidate item storage unit that stores a second feature amount relating to each item candidate that constitutes clothing, a designation acquisition unit that obtains designation information indicating at least one item that constitutes clothing, and the plurality of regions, With reference to the feature quantity extraction unit that calculates the third feature quantity of each region corresponding to the item indicated by the designation information, the third feature quantity, the candidate item storage unit, and the model storage unit, It is a coordination recommendation apparatus which has a recommendation item selection part which selects the candidate of an item with a high matching degree with the item which the said designation | designated information shows from the item candidate.
本発明の一態様は、上記のコーディネート推薦装置であって、前記第1特徴量、前記第2特徴量、および前記第3特徴量は、アイテムの色または形状に関する特徴量であることを特徴とする。 One aspect of the present invention is the coordination recommendation device described above, wherein the first feature value, the second feature value, and the third feature value are feature values related to a color or a shape of an item. To do.
本発明の一態様は、上記のコーディネート推薦装置であって、複数の学習用画像各々から、前記複数の領域について、前記第1特徴量を算出するモデル特徴量抽出部と、前記モデル特徴量抽出部が算出した第1特徴量を参照して、前記モデル情報を生成し、前記モデル記憶部に格納するモデル生成部とを有することを特徴とする。 One aspect of the present invention is the above-described coordinate recommendation device, wherein a model feature amount extraction unit that calculates the first feature amount for each of the plurality of regions from each of a plurality of learning images, and the model feature amount extraction A model generation unit configured to generate the model information with reference to the first feature amount calculated by the unit and store the model information in the model storage unit.
本発明の一態様は、上記のコーディネート推薦装置であって、前記モデル情報は、前記複数の領域とは異なる基準で服装を分割した複数の領域各々の特徴量の、少なくとも一つの他の領域の特徴量との組み合わせの適合度を示す情報を含むことを特徴とする。 One aspect of the present invention is the coordinate recommendation device described above, wherein the model information includes at least one other region of the feature amount of each of the plurality of regions obtained by dividing the clothing based on a reference different from the plurality of regions. It includes information indicating the matching degree of the combination with the feature amount.
本発明の一態様は、コンピュータを、上記のいずれかのコーディネート推薦装置として機能させるためのプログラムである。 One aspect of the present invention is a program for causing a computer to function as any of the above coordinate recommendation devices.
本発明により、新しい衣服や、アクセサリなどのアイテムであっても推薦することが可能となる。 According to the present invention, it is possible to recommend new items such as clothes and accessories.
[第1の実施形態]
以下、本発明の第1の実施形態を、図面を参照しながら説明する。
図1は、本実施形態におけるコーディネート推薦システムのシステム構成を示す図である。本実施形態のコーディネート推薦システムは、複数の端末装置10(10−1〜10−N:Nは1以上の整数)、コーディネート推薦装置20、ネットワーク30及び共有サーバ40を備える。
コーディネート推薦システムは、ユーザに対して服装のコーディネートを推薦する。まず、以下の説明において使用する文言を定義する。
コーディネート画像とは、コーディネートのモデルを生成するための学習用画像である。
アイテムとは、衣服、靴、アクセサリなど、服装を構成する要素である。
保有アイテムとは、ユーザが保有している、アイテムである。
保有アイテム画像とは、保有アイテムの画像である。
まず、コーディネートの推薦を要求したいユーザは、端末装置10を操作してコーディネート推薦装置20に、ベースとなるコーディネートの入力画像(指定情報)と、推薦を希望するアイテムの種別とを送信する。コーディネート推薦装置20は、ネットワーク30上や共有サーバ40から取得したコーディネート画像から生成したコーディネートのモデルを参照して、受信した入力画像が表すベースとなるコーディネートに対して組み合わせる、指定された種別のアイテムを選択し、端末装置10に提示させる。
[First Embodiment]
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a first embodiment of the invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a system configuration of a coordination recommendation system in the present embodiment. The coordinate recommendation system of the present embodiment includes a plurality of terminal devices 10 (10-1 to 10-N: N is an integer equal to or greater than 1), a
The coordination recommendation system recommends the coordination of clothes to the user. First, the wording used in the following description is defined.
The coordinate image is a learning image for generating a coordinate model.
An item is an element constituting clothing such as clothes, shoes, and accessories.
The possessed item is an item possessed by the user.
The possessed item image is an image of the retained item.
First, a user who wants to request a recommendation of coordination operates the
端末装置10は、例えばスマートフォン、携帯電話機、PDA(Personal Digital Assistant)、携帯ゲーム装置、タブレット装置、パーソナルコンピュータ等の情報処理装置を用いて構成される。端末装置10は、ユーザによって入力された入力画像と、推薦を希望するアイテムの種別とから、推薦要求情報を生成し、ネットワーク30を介してコーディネート推薦装置20に送信する。
The
コーディネート推薦装置20は、情報処理装置を用いて構成される。コーディネート推薦装置20は、端末装置10から送信された推薦要求情報に応じて、推薦するアイテムを、保有アイテムの中から選択する。また、コーディネート推薦装置20は、選択したアイテムを示す情報を端末装置10に送信する。
ネットワーク30は、どのように構成されたネットワークでもよい。例えば、ネットワーク30はインターネットを用いて構成されてもよい。
The
The
共有サーバ40は、情報処理装置を用いて構成される。共有サーバ40は、端末装置10から送信された保有アイテム画像を、端末装置10のユーザに割り当てられたユーザIDに対応付けて蓄積する。以下の説明では、共有サーバ40に蓄積された画像を「蓄積画像」という。共有サーバ40は、例えば画像共有サイトを提供するサーバとして構築されてもよい。
The shared
図2は、本実施形態における端末装置10及びコーディネート推薦装置20の機能構成を表す概略ブロック図である。まず、端末装置10の機能構成を説明する。端末装置10は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、検索要求プログラムを実行する。検索要求プログラムの実行によって、端末装置10は、入力部101、要求部102、通信部103、表示部104を備える装置として機能する。なお、端末装置10の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、検索要求プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、検索要求プログラムは、電気通信回線を介して送受信されてもよい。
FIG. 2 is a schematic block diagram showing functional configurations of the
入力部101は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル、デジタルカメラ、メモリカードリーダ等の既存の入力装置を用いて構成される。入力部101は、ユーザの推薦要求の指示を端末装置10に入力する際にユーザによって操作される。推薦要求の指示は、ベースとなるコーディネートを表す入力画像と、そのコーディネートへの組合せを推薦するアイテムの種別の指定とを含む。例えば、入力画像は、デジタルカメラが撮像することで入力され、アイテムの種別の指定は、キーボードを操作することで入力される。
The
なお、入力部101は、入力装置を端末装置10に接続するためのインタフェースであってもよい。この場合、入力部101は、入力装置においてユーザの入力に応じて生成された入力信号を端末装置10に入力する。
要求部102は、入力部101に入力された推薦要求の指示に基づいて推薦要求情報を生成する。
The
The
通信部103は、コーディネート推薦装置20との間で通信を行う。通信部103は、例えば要求部102によって生成された推薦要求情報をコーディネート推薦装置20に送信する。また、通信部103は、例えばコーディネート推薦装置20から送信された、推薦するアイテムを示す情報を受信する。通信部103が受信するアイテムを示す情報は、例えば保有アイテム画像や、保有アイテム画像へのURL(Uniform Resource Locator)などである。なお、通信部103は、アイテムを示す情報が、保有アイテム画像へのURLであるときは、そのURLが示す保有アイテム画像を、ネットワーク30を介して取得する。
The
表示部104は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の画像表示装置である。表示部104は、例えば保有アイテム画像を表示する。表示部104は、画像表示装置を端末装置10に接続するためのインタフェースであってもよい。この場合、表示部104は、保有アイテム画像を表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。
The
次に、コーディネート推薦装置20の機能構成を説明する。コーディネート推薦装置20は、バスで接続されたCPUやメモリや補助記憶装置などを備え、配信プログラムを実行する。配信プログラムの実行によって、コーディネート推薦装置20は、通信部201、制御部202、画像取得部203、モデル特徴量抽出部204、モデル生成部205、モデルDB(データベース)206、保有特徴量抽出部207、候補アイテムDB208、推薦アイテム選択部209、配信部210、入力特徴量抽出部211を備える装置として機能する。なお、コーディネート推薦装置20の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、配信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、配信プログラムは、電気通信回線を介して送受信されてもよい。
Next, the functional configuration of the
通信部201は、端末装置10、共有サーバ40との間で通信を行う。コーディネート推薦装置20の各部は、端末装置10、共有サーバ40などの他装置と通信をする際は、通信部201を介して行う。通信部201は、例えば端末装置10から送信された推薦要求情報を受信する。また、通信部201は、例えば受信された推薦要求情報に応じたアイテムを示す情報を端末装置10に送信する。
制御部202は、コーディネート推薦装置20の各機能部を制御する。例えば、制御部202(指定取得部)は、通信部201が受信した推薦要求情報を、入力特徴量抽出部211に入力し、通信部201が受信したコーディネート画像を、画像取得部203に入力し、通信部201が受信した保有アイテム画像を、保有特徴量抽出部207に入力する。
The
The
画像取得部203は、共有サーバ40に記憶されている蓄積画像に含まれているコーディネート画像やネットワーク30上からコーディネート画像を取得する。
モデル特徴量抽出部204は、画像取得部203によって取得されたコーディネート画像各々から、服装を分割した複数の領域各々の特徴量(第1特徴量)を抽出する。この特徴量の抽出の詳細は、後述する。
The
The model feature
モデル生成部205は、モデル特徴量抽出部204によって抽出されたコーディネート画像の特徴量に基づいてモデル情報を生成する。モデル情報は、服装を分割した複数の領域各々の特徴量の、少なくとも一つの他の領域の特徴量との組み合わせの適合度を示す情報である。この適合度は、画像取得部203が取得したコーディネート画像群における出現確率である。なお、モデル情報およびその生成方法についての詳細は、後述する。
モデルDB206は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。モデルDB206(モデル記憶部)は、モデル生成部205によって生成されたモデル情報を記憶している。
The
The
保有特徴量抽出部207は、共有サーバ40に記憶されている蓄積画像に含まれている保有アイテム画像から、特徴量(第2特徴量)を抽出する。保有特徴量抽出部207は、抽出した特徴量を、保有アイテム画像へのURL、保有アイテム画像が表すアイテムの識別情報および保有アイテム画像が表すアイテムの種別と対応付けて、候補アイテムDB208に格納する。なお、アイテムの識別情報や、アイテムの種別は、例えば、保有アイテム画像のファイルにタグ情報として格納されていてもよいし、画像認識などにより、保有特徴量抽出部207が生成するようにしてもよい。
The possessed feature
候補アイテムDB208は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。候補アイテムDB208(候補アイテム記憶部)は、保有アイテム画像のアイテムの識別情報、URL、アイテムの種別、および特徴量を対応付けて記憶している。
入力特徴量抽出部211は、推薦要求情報に含まれる入力画像から、モデル特徴量抽出部204と同様にして、特徴量(第3特徴量)を抽出する。
The
The input feature
推薦アイテム選択部209は、入力特徴量抽出部211が抽出した入力画像の特徴量と、候補アイテムDB208と、モデルDB206とを参照して、入力画像のコーディネートとの適合度が高い保有アイテムを選択する。
配信部210は、推薦アイテム選択部209が選択した保有アイテムを示す情報を端末装置10に送信する。配信部210は、例えば保有アイテムを示す情報として、保有アイテムのURLを端末装置10に送信してもよい。
The recommended
The
次に、モデルDB206の生成方法について説明する。
画像取得部203は、ネットワーク30上や共有サーバ40から、手本とすべきコーディネート画像として、ユーザにより指定されたコーディネート画像を取得する。ネットワーク30上のwebサイト(例えば、ファッション店舗のホームページなど)には、ファッション雑誌やファッション店舗が商品の宣伝をするために、商品を組み合わせたコーディネート例の画像が数多く掲載されている。また、ネットワーク30上には、ファッションブランドのコレクションなどで発表されたコーディネート例の画像も数多く掲載されている。さらに、一般の人々が日々のコーディネート例をブログ等に掲載している場合もある。そのため、画像取得部203は、ネットワーク30上から多くのコーディネート画像を取得することができる。なお、コーディネート画像は、人手で収集されてもよい。なお、コーディネート画像は、推薦したいアイテムを含むコーディネート例であることが望ましい。
Next, a method for generating the
The
次に、モデル特徴量抽出部204は、複数のコーディネート画像から特徴量を抽出する。以下、特徴量を抽出する方法について具体的に説明する。特徴量を抽出する方法は、コーディネート画像から人物領域の抽出を行うステップ、抽出された人物領域をさらに細かいパーツ領域に分割するステップ、パーツ領域ごとに特徴量を抽出するステップ、の3つのステップによって実行される。以下、各ステップの処理について説明する。人物領域とは、衣服や衣服を着用している人物が撮像されている領域である。パーツ領域とは、人物の胴や腕、足などの各部位が撮像されている領域である。
Next, the model feature
まず、コーディネート画像から人物領域を抽出する処理について説明する。
図3は、コーディネート画像をパーツ領域に分割した具体例を示す図である。まず、モデル特徴量抽出部204は、コーディネート画像に対し、参考文献1の技術を用いることでコーディネート画像から人物領域を囲む矩形領域を抽出する。参考文献1は、事前に人物領域の学習用画像と人物領域以外の学習用画像とを学習させた識別器を作成し、エッジなどの特徴量からAdaboostなどにより識別に有効な特徴量を選択する手法である。(参考文献1:信学技法2012.11.17 「サーベイ論文」 統計的学習手法による人検出)。また、Adaboostの具体例として、例えば以下の文献に開示される技術が適用されてもよい。情報処理学会研究報告2009 「人検出のためのreal AdaboostによるHOG特徴量の効率的な削減法」。
First, processing for extracting a person area from a coordinated image will be described.
FIG. 3 is a diagram illustrating a specific example in which the coordinated image is divided into parts regions. First, the model feature
モデル特徴量抽出部204は、このようにコーディネート画像から人物領域を囲む矩形領域を抽出することによって矩形領域画像を生成する。次に、モデル特徴量抽出部204は、Graph cutにより矩形領域画像の前景領域と背景領域とを分離する。その後、モデル特徴量抽出部204は、分離した前景領域を人物領域として抽出することによって人物領域画像を生成する。前景領域とは、矩形領域画像内の手前に撮像されている物体の領域である。前景領域の具体例として、人物や人物が着用している衣服の領域などがある。背景領域とは、矩形領域画像内の前景領域以外の領域である。背景領域の具体例として、壁や天井などの領域がある。モデル特徴量抽出部204は、このように矩形領域画像から人物領域を抽出することによって人物領域画像を生成する。Graph cutの具体例として、例えば以下の文献に開示される技術が適用されてもよい。情報処理学会 研究報告 2007-CVIM-158 「グラフカット」 石川 博。
以上で、矩形領域画像から人物領域を抽出する処理についての説明を終了する。
The model feature
Above, the description about the process which extracts a person area | region from a rectangular area image is complete | finished.
次に、人物領域画像をパーツ領域に分割する処理について説明する。パーツ領域に分割する方法として、例えば、以下の文献で開示される技術を用いる。Mun Wai Lee、Ram Nevatia、「Body Part Detection for Human Pose Estimation and Tracking」、IEEE Workshop on Motion and Video Computing(WMVC'07)。
パーツ領域は、例えば、図3に示す、頭PA1、首PA2、右腕PA3、左腕PA4、胴PA5、ひざ上PA6、ひざ下PA7、靴PA8の領域である。
以上で、人物領域画像をパーツ領域に分割する処理についての説明を終了する。
Next, a process for dividing a person area image into parts areas will be described. For example, the technique disclosed in the following document is used as a method of dividing the part area. Mun Wai Lee, Ram Nevatia, “Body Part Detection for Human Pose Estimation and Tracking”, IEEE Workshop on Motion and Video Computing (WMVC'07).
The part region is, for example, the region of the head PA1, the neck PA2, the right arm PA3, the left arm PA4, the torso PA5, the knee upper PA6, the knee lower PA7, and the shoe PA8 shown in FIG.
Above, description about the process which divides | segments a person area image into parts area is complete | finished.
そして、特徴量抽出部204は、分割されたパーツ領域ごとに特徴量を抽出する。
抽出される特徴量としては、カラー、形状、柄といったファッションに関する特徴を捉える特徴量が好ましい。例えば、カラーを表現する方法として、カラーヒストグラムが用いられてもよい。なお、特徴量抽出部204は、カラーヒストグラムを、k−means法などによりクラスタリングし、そのクラスタの重心ベクトルを特徴量としてもよい。k−means法は、例えば、以下の文献に記載されている。八木康史・齋藤英雄編、「コンピュータビジョン最先端ガイド2」アドコムメディア株式会社、pp65、2010年6月発行。また、形状を表現する方法として、HOG(Histgrams of Oriented Gradients)特徴量が用いられてもよい。また、柄を表現する方法として、直線検出を行うことによって、検出された直線の数を柄の特徴量として用いられてもよい。また、これらの特徴量を組み合わせたものを用いてもよい。
以下では、カラーヒストグラムの重心ベクトルを特徴量とするとして説明する。
Then, the feature
As the feature quantity to be extracted, a feature quantity that captures fashion-related features such as color, shape, and pattern is preferable. For example, a color histogram may be used as a method for expressing color. Note that the feature
In the following description, it is assumed that the centroid vector of the color histogram is a feature amount.
特徴量抽出部204は、上述した3つのステップを実行することによって、コーディネート画像から特徴量を抽出する。服は撮影された画像によって変形度が大きい。変形度とは、変形の度合いの高さを表す。変形度の値が高いほど、元の形状から形が変形している。例えば、肘が伸びている状態で撮影された画像と肘が曲がっている状態で撮影された画像とでは、服の形状に大きな変化が生じている。そのため、変形度が大きくなる。変形度が大きい場合、同じ衣服であっても違う衣服と判定されてしまうおそれがある。特に、腕は、動きが大きく、上述したように肘の状態などによっては衣服の変形度が大きくなってしまうため、照合が困難になる。そこで、上述したようなパーツ領域に分割することにより、コーディネート画像そのものから特徴量を抽出するよりも衣服の変形の影響を受けにくい領域の特徴量を選択して照合に用いることができる。そのため、変形度の大きさによる誤判定を軽減することが可能になる。
The feature
モデル生成部205は、パーツ領域の特徴量の組み合わせの適合度を示すモデル情報を構築する。モデル生成部205は、より多くのコーディネート画像に現われた組み合わせを、適合度が高いとみなし、N−グラムによるモデル情報を生成する。N−グラムは、ある特徴量の出現確率は、直前の(N−1)個の領域の特徴量にのみ影響されるという仮定をおいたモデルである。N−グラムは、例えば、以下の文献で開示されている。「フリーソフトで作る音声認識システム」、森北出版株式会社、pp164−170。
The
例えば、Nが3の3−グラムであれば、頭PA1、首PA2、右腕PA3、左腕PA4、胴PA5、ひざ上PA6、ひざ下PA7、靴PA8のパーツ領域を3パーツごとに区切り、その中で出現確率に影響を与えると仮定する。このとき、並びは、頭から靴へ向かってでもよいが、ファッションの場合、トップスから選ぶ場合が多いと考えられるので、並びは、胴から頭へ向かってと、胴から靴への向かってとすることが望ましい。以降、本実施形態では、並びは、胴から頭へ向かってと、胴から靴への向かってとする。 For example, if N is 3-gram, the head PA1, neck PA2, right arm PA3, left arm PA4, torso PA5, knee upper PA6, knee lower PA7, and shoe PA8 are divided into three parts. Assume that the probability of appearance is affected. At this time, the alignment may be from the head to the shoes, but in the case of fashion, it is considered that there are many choices from the tops, so the alignment is from the torso to the head and from the torso to the shoes. It is desirable to do. Hereinafter, in this embodiment, the alignment is from the torso to the head and from the torso to the shoes.
したがって、本実施形態では、頭PA1のある特徴量の出現確率は、首PA2および右腕PA3の特徴量に影響を受け、首PA2のある特徴量の出現確率は、右腕PA3および左腕PA4の特徴量に影響を受けるとして、モデル情報を生成する。具体的には、モデル生成部205は、モデル特徴量抽出部204が、複数のコーディネート画像から抽出した特徴量について、首PA2の特徴量と、右腕PA3の特徴量との値の組み合わせ毎に、頭PA1のある特徴量の出現確率をカウントする。
Therefore, in this embodiment, the appearance probability of a certain feature value of the head PA1 is affected by the feature values of the neck PA2 and the right arm PA3, and the appearance probability of the feature value of the neck PA2 is the feature value of the right arm PA3 and the left arm PA4. Model information is generated assuming that Specifically, the
図4は、モデル生成部205が生成し、モデルDB206が記憶するモデル情報の例を示すテーブルである。図4の例は、右腕PA3の特徴量と、首PA2の特徴量と、頭PA1の特徴量と、その出現確率とを対応付けている。例えば、右腕PA3の特徴量である右腕特徴量の値が「RC1」であり、首PA2の特徴量である首特徴量の値が「NC1」であるときは、頭PA1の特徴量である頭特徴量の値「HC1」の出現確率は「Ph1」であり、頭特徴量の値「HC2」の出現確率は「Ph2」である。図4では、頭特徴量の出現確率に関するテーブルのみを示したが、モデル生成部205は、その他の特徴量の出現確率についてもカウントして、モデル情報を生成する。
以上で、モデルDB206の生成方法についての説明を終了する。
FIG. 4 is a table showing an example of model information generated by the
Above, description about the production | generation method of model DB206 is complete | finished.
次に、候補アイテムDB208の生成方法について説明する。
制御部202は、ユーザから指定された保有アイテム画像を、ネットワーク30上や共有サーバ40から取得する。この指定は、例えば、端末装置10から行う。制御部202は、取得した保有アイテム画像を、保有特徴量抽出部207に入力する。
Next, a method for generating the
The
次に、保有特徴量抽出部207は、保有アイテム画像から特徴量を抽出する。保有特徴量抽出部207は、モデル特徴量抽出部204と同様にして、保有アイテム画像から特徴量を抽出する。ただし、保有特徴量抽出部207は、保有アイテム画像のうち、そのアイテムの種別に対応する領域の特徴量のみを抽出する。例えば、アイテムの種別が、帽子であれば、頭PA1の特徴量のみを抽出する。また、アイテムの種別が、スラックスやロングスカートであれば、ひざ上PA6の特徴量と、ひざ下PA7の特徴量とを抽出する。保有特徴量抽出部207は、抽出した特徴量と、保有アイテムに関する情報とを対応付けて候補アイテムDB208に記憶させる。
Next, the retained feature
図5は、候補アイテムDB208の記憶内容例を示すテーブルである。保有アイテムに関する情報は、アイテム名、保有アイテム画像へのURL、アイテムの種別を含む。例えば、アイテム名「帽子H1」には、URL「http:・・・」と、種別「帽子」と、領域「頭」と、特徴量「HC1」とが対応付けられている。帽子の場合、このように、対応する領域は「頭」のみなので、特徴量として「HC1」のみが、保有アイテムに関する情報に対応付けられている。一方、アイテム名「スラックスS1」と、URL「http:・・・」と、種別「帽子」とに対しては、領域「ひざ上」と特徴量「LUC1」、および領域「ひざ下」と特徴量「LBC1」が対応付けられている。
以上で、候補アイテムDB208の生成方法についての説明を終了する。
FIG. 5 is a table showing an example of the contents stored in the
Above, description about the production | generation method of candidate item DB208 is complete | finished.
図6は、モデルDB206の生成処理を説明するフローチャートである。まず、画像取得部203は、コーディネート画像群を取得する(Sa1)。次に、モデル特徴量抽出部204は、コーディネート画像を、パーツ領域に分割する(Sa2)。次に、モデル特徴量抽出部204は、各パーツ領域の特徴量を抽出する(Sa3)。次に、モデル特徴量抽出部204は、ステップSa1にて取得したコーディネート画像群の全画像について、特徴量の抽出が完了したか否かを判定する(Sa4)。完了していないと判定したときは(Sa4−No)、モデル特徴量抽出部204は、ステップSa2に戻り、特徴量を未抽出のコーディネート画像について処理を行う。
FIG. 6 is a flowchart for explaining the generation process of the
一方、ステップSa4にて、全画像について、特徴量の抽出が完了したと判定したときは(Sa4−Yes)、モデル生成部205は、各パーツ領域のN−グラムを算出する(Sa5)。次に、モデル生成部205は、算出したN−グラムを、モデル情報としてモデルDB206に格納し(Sa6)、処理を終了する。
On the other hand, when it is determined in step Sa4 that the feature amount extraction has been completed for all the images (Sa4-Yes), the
図7は、コーディネートの推薦処理を説明するフローチャートである。まず、制御部202は、推薦要求情報として、ベースとなるコーディネートの入力画像と、推薦するアイテムの種別とを、通信部201を介して端末装置10から取得する(Sb1)。次に、入力特徴量抽出部211は、入力画像を、パーツ領域に分割する(Sb2)。次に、入力特徴量抽出部211は、各パーツ領域の特徴量を抽出する(Sb3)。これら、ステップSb2、Sb3の処理は、モデル特徴量抽出部204がコーディネート画像に対して行う処理と同様である。
FIG. 7 is a flowchart for explaining coordination recommendation processing. First, the
次に、推薦アイテム選択部209は、ステップSb1にて取得した、推薦するアイテムの種別の各保有アイテムについて、ステップSb5の処理を行う(Sb4、Sb6)。ステップSb5では、推薦アイテム選択部209は、パーツ領域の特徴量に該当するモデル情報のうち、対象の保有アイテムの特徴量に最も近いものの出現確率を、モデルDB206から読み出す(Sb5)。例えば、ステップSb4、Sb6によるループ中のあるループにおいて、対象の保有アイテムが、図5の帽子H1であり、ステップSb3にて抽出した右腕特徴量が「RC1」、首特徴量が「NC1」であるときは、推薦アイテム選択部209は、モデルDB206から、右腕特徴量「RC1」と、首特徴量「NC1」と、帽子H1による頭特徴量「HC1」と対応付けられている出現確率「Ph1」を読み出す。
Next, the recommended
また、ステップSb4、Sb6によるループ中のあるループにおいて、対象の保有アイテムが、図5のスラックスS1であり、ステップSb3にて抽出した胴特徴量が「BC1」であるときは、推薦アイテム選択部209は、モデルDB206から、胴特徴量が「BC1」と、スラックスS1によるひざ上特徴量「LUC1」とひざ下特徴量「LBC1」と対応付けられている出現確率を読み出す。
Also, in a loop in the loop of steps Sb4 and Sb6, when the target possessed item is the slacks S1 in FIG. 5 and the trunk feature amount extracted in step Sb3 is “BC1”, the recommended
そして、ステップSb4、Sb6によるループが終了すると、推薦アイテム選択部209は、読み出した出現確率が最も大きい保有アイテムを推薦するアイテムとして選択する。配信部210は、推薦アイテム選択部209が選択した保有アイテムのURLを、推薦するアイテムを示す情報として、制御部202、通信部201を介して、端末装置10に配信する(Sb7)。
And when the loop by step Sb4 and Sb6 is complete | finished, the recommended
以上のように構成されたコーディネート推薦装置20によれば、服装を分割した複数の領域各々の特徴量の、少なくとも一つの他の領域の特徴量との組み合わせの適合度を示すモデル情報に基づいて、ベースとなるコーディネートとの適合度が高いアイテムを推薦する。したがって、ユーザがベースとなるコーディネートを指定すると、ユーザが着たことのない新しい衣服や、アクセサリなどのアイテムであっても、そのコーディネートに適合したアイテムを推薦することができる。
According to the coordinate
[第2の実施形態]
以下、本発明の第2の実施形態を、図面を参照しながら説明する。本実施形態におけるコーディネート推薦システムは、図1におけるコーディネート推薦システムと同様の構成であるが、コーディネート推薦装置20に代えてコーディネート推薦装置20aを有する点が異なる。コーディネート推薦装置20は、パーツ領域の特徴量を用いて、推薦するアイテムを選択したが、コーディネート推薦装置20aは、パーツ領域の特徴量に加えて、ベースカラー、アソートカラー、アクセントカラーからなるカラーモデルの特徴量を用いて、推薦するアイテムを選択する。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. The coordinate recommendation system in the present embodiment has the same configuration as the coordinate recommendation system in FIG. 1 except that a coordinate
図8は、本実施形態における端末装置10及びコーディネート推薦装置20aの機能構成を表す概略ブロック図である。同図にいて、図2の各部に対応する部分には、同一の符号を付し、説明を省略する。コーディネート推薦装置20aは、バスで接続されたCPUやメモリや補助記憶装置などを備え、配信プログラムを実行する。配信プログラムの実行によって、コーディネート推薦装置20aは、通信部201、制御部202、画像取得部203、モデル特徴量抽出部204a、モデル生成部205a、モデルDB206a、保有特徴量抽出部207a、候補アイテムDB208a、推薦アイテム選択部209a、配信部210、入力特徴量抽出部211aを備える装置として機能する。なお、コーディネート推薦装置20aの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、配信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、配信プログラムは、電気通信回線を介して送受信されてもよい。
FIG. 8 is a schematic block diagram showing functional configurations of the
モデル特徴量抽出部204aは、図2のモデル特徴量抽出部204と同様に、コーディネート画像のパーツ領域の特徴量を抽出するが、さらに、コーディネート画像のベースカラー、アソートカラー、アクセントカラーの特徴量(第1特徴量)を抽出する。なお、この特徴量は、カラーヒストグラムに基づく特徴量である。例えば、この特徴量は、パーツ領域の特徴量と同様、該当する領域のカラーヒストグラムを、k−means法などによりクラスタリングしたクラスタの重心ベクトルである。
The model feature
また、ベースカラーとは、服装の全体的な見た目の雰囲気を決める色であり、全体の7割ほどの占める色のことである。スーツや、ワンピース、コートなど大きい面積を占める服の色がベースカラーとなる。アソートカラーとは、ベースカラーを引き立てて全体を纏める色で、全体の2割から3割ほどを占める色のことである。ブラウスやベスト、スカート、パンツ、靴、バッグなどの色がアソートカラーとなる。アクセントカラーはファッションを引き締める全体の1割ほどを占める色のことである。アクセントカラーには、ベースカラーと対照的な色や、目立つ色を選ぶとメリハリができると言われている。アクセサリやネクタイ、スカーフなどの色が、アクセントカラーとなるとことが多い。 The base color is a color that determines the overall appearance atmosphere of the clothes, and is a color that occupies about 70% of the whole. The base color is the color of clothes that occupy a large area, such as suits, dresses, and coats. The assorted color is a color that brings together the entire base color and occupies about 20% to 30% of the whole. The colors of blouse, vest, skirt, pants, shoes, bags, etc. are assorted colors. Accent color is a color that accounts for about 10% of the overall fashion. It is said that the accent color can be sharpened by selecting a color that contrasts with the base color or a conspicuous color. The colors of accessories, ties, scarves, etc. often become accent colors.
モデル特徴量抽出部204aは、SaliencyMapを用いて、コーディネート画像各々から、ベースカラーの特徴量、アソートカラーの特徴量、アクセントカラーの特徴量を抽出する。SaliecyMapとは、画像領域に対する人の注目度を表したもので、エッジや色などの特徴量を組み合わせて算出する。モデル特徴量抽出部204aは、コーディネート画像の人物領域のSaliencyMapを算出する。SaliencyMapの算出には、例えば以下の文献に開示される技術が適用されてもよい。L.itti, C.Koch, E.Niebur, "A Model of Saliency-Based Visual Attention for Rapid Scene Analysis", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.20, No.11, pp.1254-1259, Nov 1998。
The model feature
例えば、モデル特徴量抽出部204aは、Saliency値が閾値Th1より低く、かつ、全体の面積を1としたときの面積が閾値Th2よりも大きい領域をベースカラーの領域とする。また、モデル特徴量抽出部204aは、Saliency値が閾値Th3より高く、かつ、面積が閾値Th4よりも小さい領域をアクセントカラーの領域とする。また、Saliency値が閾値Th1より高く、閾値Th3より低く、面積が閾値Th4よりも大きく、閾値Th2よりも小さい領域をアソートカラーの領域とする。モデル特徴量抽出部204aは、コーディネート画像各々について、ベースカラーの特徴量、アクセントカラーの特徴量、アソートカラーの特徴量を抽出する。
For example, the model feature
モデル生成部205aは、図2のモデル生成部205と同様に、パーツ領域に関するモデル情報を生成するが、さらに、ベースカラー、アソートカラー、アクセントカラーに関するモデル情報も生成する。具体的には、モデル生成部205aは、コーディネート画像群における、ベースカラーの特徴量のある値と、アソートカラーの特徴量のある値と、アクセントカラーの特徴量のある値との共起数をカウントし、その組み合わせの出現確率を算出する。モデル生成部205aは、算出した出現確率を、特徴量の値の組み合わせと対応付けて、モデルDB206aに記憶させる。
The model generation unit 205a generates model information related to the part area in the same manner as the
モデルDB206aは、図2のモデルDB206と同様に、パーツ領域に関するモデル情報を記憶するが、さらに、ベースカラー、アソートカラー、アクセントカラーに関するモデル情報も記憶する。図9は、モデルDB206aの記憶内容例を示すテーブルである。図9に示す例は、ベースカラー、アソートカラー、アクセントカラーに関するモデル情報である。図9の例では、ベースカラー特徴量の値「BC1」と、アソートカラー特徴量の値「SC1」と、アクセントカラーの特徴量の値「AC1」と、出現確率「PC1」とが対応付けられている。同様に、ベースカラー特徴量の値「BC1」と、アソートカラー特徴量の値「SC1」と、アクセントカラーの特徴量の値「AC2」と、出現確率「PC2」とが対応付けられている。
The
保有特徴量抽出部207aは、図2の保有特徴量抽出部207と同様に、保有アイテムのパーツ領域に関する特徴量を抽出するが、さらに、ベースカラー、アソートカラー、アクセントカラーのうち、対応するものに関する特徴量(第2特徴量)も抽出する。なお、その保有アイテムが、ベースカラー、アソートカラー、アクセントカラーのうち、どのカラー分類に対応するかは、例えば、アイテムの種別に応じて、予め決められていてもよい。保有特徴量抽出部207aは、抽出した特徴量を、候補アイテムDB208aに記憶させる。
The possessed feature
候補アイテムDB208aは、図2の候補アイテムDB208と同様に、保有アイテムのパーツ領域に関する特徴量と、保有アイテムに関する情報とを記憶するが、さらに、ベースカラー、アソートカラー、アクセントカラーなどのカラー分類と、その特徴量とを記憶する。図10は、候補アイテムDB208aの記憶内容例を示すテーブルである。図10に示す例では、候補アイテムDB208aは、アイテム名と、カラー分類と、その特徴量とを対応付けて記憶する。例えば、アイテム名「帽子H1」には、カラー分類「アクセントカラー」と、特徴量「AC3」とを対応付けて記憶する。また、複数のカラー分類に対応するアイテム名「ジャケットJ1」には、カラー分類「ベースカラー」と特徴量「BC2」、カラー分類「アクセントカラー」と特徴量「AC5」が対応付けられている。
Similar to the
入力特徴量抽出部211aは、モデル特徴量抽出部204aと同様にして、入力画像について、パーツ領域の特徴量と、カラー分類の特徴量(第3特徴量)とを抽出する。
推薦アイテム選択部209aは、図2の推薦アイテム選択部209と同様にして、推薦要求情報で指定された種別の各保有アイテムの出現確率を、第1の出現確率として、モデルDB206aから読み出す。さらに、推薦アイテム選択部209aは、カラー分類の特徴量に関する出現確率についても、パーツ領域の場合と同様にして、推薦要求情報で指定された種別の各保有アイテムの出現確率を、第2の出現確率として、モデルDB206aから読み出す。推薦アイテム選択部209aは、保有アイテムごとに、第1の出現確率と第2の出現確率との和をとり、その保有アイテムの評価値とする。推薦アイテム選択部209aは、この評価値が最も大きい保有アイテムを、推薦するアイテムとして選択する。なお、評価値は、第1の出現確率と、第2の出現確率との積であってもよい。
The input feature
The recommended
以上のように構成されたコーディネート推薦装置20aによれば、パーツ領域とは異なる基準で服装を分割した複数の領域各々の特徴量の、少なくとも一つの他の領域の特徴量との組み合わせの適合度を示すモデル情報を、パーツ領域によるモデル情報に加えて、参照して、ベースとなるコーディネートとの適合度が高いアイテムを推薦する。したがって、パーツ領域によるモデル情報のみを参照する際に比べて、そのコーディネートにより確実に適合したアイテムを推薦することができる。
According to the coordinate
[変形例]
なお、上述の各実施形態では、画像取得部203が、取得したコーディネート画像をカテゴリごとに分類し、モデル生成部205は、カテゴリごとにモデルを生成してもよい。この場合、ユーザは、アイテムの推薦を要求する際にカテゴリも指定し、推薦アイテム選択部209は、モデルDB206を参照する際に、ユーザにより指定されたカテゴリのモデルのみを参照する。
[Modification]
In each of the above-described embodiments, the
カテゴリごとに分類する方法として、例えば画像を収集するサイトでカテゴリ別にタグ付されている場合には、画像取得部203は取得したコーディネート画像をそれぞれのカテゴリの中から適合するカテゴリに分類する。また、画像取得部203は、コーディネート画像を取得したサイトごとにコーディネート画像を分類してもよいし、季節や天候、出かけ先などTPO(Time Place Occasion)にあったカテゴリごとに分類してもよい。また、カテゴリは、上述したカテゴリ以外のカテゴリに分類されてもよい。例えば、カテゴリは、「春、暖かい、入学式」、「春、肌寒い、卒業式」などの季節や用途ごとのカテゴリであってもよいし、「30代、身長低い、フェミニン」、「40代、大柄、フォーマル」などの雰囲気ごとのカテゴリであってもよい。なお、カテゴリの分類は、人手で行われてもよい。
As a method of classifying by category, for example, when a tag is attached to each category on the site where the images are collected, the
また、上述の各実施形態では、保有アイテムは、ユーザが保有しているアイテムであるとして説明したが、これに限らない。例えば、保有アイテムは、店舗が保有しているアイテムであり、販売促進のために、コーディネート推薦装置20、20aが、店舗が保有しているアイテムを、ユーザに推薦するようにしてもよい。
Moreover, although each above-mentioned embodiment demonstrated the possession item as the item which the user possesses, it is not restricted to this. For example, the possessed item is an item possessed by the store, and the
また、上述の各実施形態では、コーディネート推薦装置20、20aは、画像取得部203、モデル特徴量抽出部204、モデル生成部205を有しているが、これに限らない。例えば、これらを別の装置が有しており、モデルDB206は、その別の装置が生成したモデル情報を格納していてもよい。
また、上述の各実施形態では、推薦要求情報に含まれる入力画像は、コーディネート画像であるとしたが、全てのアイテムが含まれているコーディネートの画像でなくてもよい。例えば、モデルが2−グラムであれば、入力画像に含まれるアイテムは一つであってもよい。また、入力画像には、推薦するアイテムと同じ種別のアイテムが含まれていてもよい。
In each of the above-described embodiments, the
In each of the above-described embodiments, the input image included in the recommendation request information is a coordinated image. However, the input image may not be a coordinated image including all items. For example, if the model is 2-gram, the number of items included in the input image may be one. The input image may include an item of the same type as the recommended item.
また、上述の各実施形態では、パーツ領域に関するモデル情報として、N−グラムを用いたが、式(1)で表される共起確率P(c1・・・cQ)を用いてもよい。なお、ciは、i番目のパーツ領域の特徴量であり、Qは、パーツ領域の数である。
また、N−グラムのNの値を、パーツ領域によって、異なる値としてもよい。
In each of the above-described embodiments, N-grams are used as the model information related to the part region. However, the co-occurrence probability P (c 1 ... C Q ) represented by Expression (1) may be used. . Note that c i is a feature amount of the i-th part area, and Q is the number of part areas.
Further, the value of N in the N-gram may be different depending on the part region.
また、上述の各実施形態では、パーツ領域を、人物の胴、腕、足などの各部位が撮像されている領域としたが、これに限らない。例えば、パーツ領域は、衣服やアクセサリ毎の領域であってもよい。
また、上述の各実施形態において、推薦アイテム選択部209、209aは、出現確率などの評価値が最も大きい保有アイテムのみを推薦しているが、最も大きいものだけでなくなく、大きい方から3番目のものまで、あるいは、評価値が所定の閾値以上のものなど、複数の保有アイテムを推薦するようにしてもよい。
また、上述の各実施形態において、パーツ領域の特徴量として、複数の特徴量(例えばカラーヒストグラムとHOG)を算出する場合は、図7のステップSb7において、各特徴量についての出現確率を要素とするベクトルの大きさが最も大きい保有アイテムを推薦するようにしてもよい。
Further, in each of the above-described embodiments, the parts area is an area in which each part such as a person's torso, arms, and legs is imaged, but is not limited thereto. For example, the part area may be an area for each piece of clothing or accessory.
In each of the above-described embodiments, the recommended
Further, in each of the above-described embodiments, when a plurality of feature amounts (for example, a color histogram and HOG) are calculated as the feature amounts of the part area, in step Sb7 in FIG. The possessed item having the largest vector size may be recommended.
さらに、上述の第2の実施形態において、パーツ領域の特徴量として、複数の特徴量を算出する場合は、各特徴量の第1の出現確率を要素とするベクトルに対して、各特徴量の第2の出現確率を要素とするベクトルを以下の文献に記載されているManifoldRankingの手法を用いて作用させることで、第1の出現確率を要素とするベクトルを修正したベクトルの大きさを評価値として用いるようにしてもよい。「Manifold-Ranking Based Image Retrieval」、MM'04, October10-16, 2004, NEW YORK。ManifoldRankingは、式(2)で表される。f*は、修正後のベクトル、yは、各特徴量の第1の出現確率を要素とするベクトルであり、Sは、カラー分類とパーツ領域に関する共起確率行列であり、式(3)で表される。αは[0,1)の値をとるパラメータである。なお、式(3)において、P()は、数(1)で定義される関数であり、ciは、そのアイテムに対応するパーツ領域の特徴量、cjは、そのアイテムに対応するカラー分類の特徴量である。パーツ領域、カラー分類の各々でN個の特徴量を算出している場合は、共起確率行列はN×Nの正方行列である。 Furthermore, in the above-described second embodiment, when a plurality of feature amounts are calculated as the feature amounts of the part region, each feature amount is calculated with respect to a vector having the first appearance probability of each feature amount as an element. The magnitude of the vector obtained by modifying the vector having the first appearance probability as an element is evaluated by applying the vector having the second appearance probability as an element using the method of ManifoldRanking described in the following document. You may make it use as. “Manifold-Ranking Based Image Retrieval”, MM'04, October 10-16, 2004, NEW YORK. ManifoldRanking is represented by the formula (2). f * is a corrected vector, y is a vector having the first appearance probability of each feature amount as an element, S is a co-occurrence probability matrix regarding the color classification and the part region, and expressed. α is a parameter having a value of [0, 1). In Expression (3), P () is a function defined by the number (1), c i is a feature amount of the part area corresponding to the item, and c j is a color corresponding to the item. This is a feature amount of classification. When N feature values are calculated for each of the part region and the color classification, the co-occurrence probability matrix is an N × N square matrix.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
10…端末装置, 20、20a…コーディネート推薦装置, 30…ネットワーク, 40…共有サーバ, 101…入力部, 102…要求部, 103…通信部, 104…表示部, 201…通信部, 202…制御部, 203…画像取得部, 204、204a…モデル特徴量抽出部, 205、205a…モデル生成部, 206、206a…モデルDB, 207、207a…保有特徴量抽出部, 208、208a…候補アイテムDB, 209、209a…推薦アイテム選択部, 210…配信部, 211、211a…入力特徴量抽出部
DESCRIPTION OF
Claims (5)
服装を構成するアイテムの候補各々に関する第2特徴量を記憶する候補アイテム記憶部と、
服装を構成する少なくとも一つのアイテムを示す指定情報を取得する指定取得部と、
前記複数の領域のうち、前記指定情報が示すアイテムに対応する領域各々の第3特徴量を算出する特徴量抽出部と、
前記第3特徴量と、前記候補アイテム記憶部と、前記モデル記憶部とを参照して、前記アイテムの候補の中から、前記指定情報が示すアイテムとの適合度が高いアイテムの候補を選択する推薦アイテム選択部と
を有するコーディネート推薦装置。 A model storage unit that stores model information indicating a degree of suitability of a combination of a first feature amount of each of a plurality of regions into which clothes are divided and a first feature amount of at least one other region;
A candidate item storage unit that stores a second feature amount relating to each of the item candidates constituting the clothes;
A designation acquisition unit for acquiring designation information indicating at least one item constituting the clothes;
A feature amount extraction unit that calculates a third feature amount of each region corresponding to the item indicated by the designation information among the plurality of regions;
With reference to the third feature value, the candidate item storage unit, and the model storage unit, an item candidate having a high degree of matching with the item indicated by the designation information is selected from the item candidates. A coordinate recommendation device comprising: a recommended item selection unit.
前記モデル特徴量抽出部が算出した第1特徴量を参照して、前記モデル情報を生成し、前記モデル記憶部に格納するモデル生成部と
を有することを特徴とする請求項1または請求項2に記載のコーディネート推薦装置。 A model feature amount extraction unit for calculating the first feature amount for each of the plurality of regions from a plurality of learning images;
The model generation unit that generates the model information with reference to the first feature amount calculated by the model feature amount extraction unit and stores the model information in the model storage unit. Coordinate recommendation device described in 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014113466A JP2015228129A (en) | 2014-05-30 | 2014-05-30 | Coordination recommendation device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014113466A JP2015228129A (en) | 2014-05-30 | 2014-05-30 | Coordination recommendation device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015228129A true JP2015228129A (en) | 2015-12-17 |
Family
ID=54885559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014113466A Pending JP2015228129A (en) | 2014-05-30 | 2014-05-30 | Coordination recommendation device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015228129A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6209298B1 (en) * | 2016-11-15 | 2017-10-04 | 一般社団法人日本ファッションスタイリスト協会 | Information providing apparatus and information providing method |
JP2022153197A (en) * | 2021-03-29 | 2022-10-12 | 株式会社Zozo | Information processing apparatus, information processing method, and information processing program |
JP2022153196A (en) * | 2021-03-29 | 2022-10-12 | 株式会社Zozo | Information processing apparatus, information processing method, and information processing program |
JP2022153195A (en) * | 2021-03-29 | 2022-10-12 | 株式会社Zozo | Information display device, method for displaying information, and information display program |
JP7391131B2 (en) | 2022-03-25 | 2023-12-04 | 株式会社Zozo | Information processing device, information processing method, and information processing program |
-
2014
- 2014-05-30 JP JP2014113466A patent/JP2015228129A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6209298B1 (en) * | 2016-11-15 | 2017-10-04 | 一般社団法人日本ファッションスタイリスト協会 | Information providing apparatus and information providing method |
JP2018085086A (en) * | 2016-11-15 | 2018-05-31 | 一般社団法人日本ファッションスタイリスト協会 | Information providing device and information providing method |
JP2022153197A (en) * | 2021-03-29 | 2022-10-12 | 株式会社Zozo | Information processing apparatus, information processing method, and information processing program |
JP2022153196A (en) * | 2021-03-29 | 2022-10-12 | 株式会社Zozo | Information processing apparatus, information processing method, and information processing program |
JP2022153195A (en) * | 2021-03-29 | 2022-10-12 | 株式会社Zozo | Information display device, method for displaying information, and information display program |
JP7391131B2 (en) | 2022-03-25 | 2023-12-04 | 株式会社Zozo | Information processing device, information processing method, and information processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3483741B1 (en) | Image retrieving apparatus, image retrieving method, and setting screen used therefor | |
KR102426489B1 (en) | SERVER FOR PROVIDING SHOPPING MALL PLATFORM USING ARTIFICAL INTELLIGENCE NETWROK INCLUDING Recurrent Neural Network AND Deep Neural Network | |
US11080918B2 (en) | Method and system for predicting garment attributes using deep learning | |
US9460518B2 (en) | Visual clothing retrieval | |
WO2020119311A1 (en) | Neural network training method and image matching method and device | |
CN108229559B (en) | Clothing detection method, clothing detection device, electronic device, program, and medium | |
US20130185288A1 (en) | Product search device, product search method, and computer program product | |
JP2020522072A (en) | Fashion coordination recommendation method and device, electronic device, and storage medium | |
JP2015228129A (en) | Coordination recommendation device and program | |
CN106055710A (en) | Video-based commodity recommendation method and device | |
CN110334687A (en) | A kind of pedestrian retrieval Enhancement Method based on pedestrian detection, attribute study and pedestrian's identification | |
JP2018084890A (en) | Information processing unit, information processing method, and program | |
CN103140862A (en) | User interface system and method of operation thereof | |
CN109614925A (en) | Dress ornament attribute recognition approach and device, electronic equipment, storage medium | |
CN106030610A (en) | Real-time 3D gesture recognition and tracking system for mobile devices | |
CN102567716A (en) | Face synthetic system and implementation method | |
KR20200141375A (en) | System, method and program for obtaining appearance descriptive data from image data | |
JP2014229129A (en) | Combination presentation system and computer program | |
Kumar et al. | 3D sign language recognition using spatio temporal graph kernels | |
JP2017084078A (en) | Style search apparatus, method, and program | |
Sajjad et al. | A study on the learning based human pose recognition | |
Lorenzo-Navarro et al. | Evaluation of LBP and HOG descriptors for clothing attribute description | |
JP5720843B1 (en) | Position conversion program and information processing apparatus | |
JP2017167759A (en) | Coordination recommendation device and program | |
JP2015179431A (en) | Retrieval device, retrieval method, and program |