JP2015228129A - Coordination recommendation device and program - Google Patents

Coordination recommendation device and program Download PDF

Info

Publication number
JP2015228129A
JP2015228129A JP2014113466A JP2014113466A JP2015228129A JP 2015228129 A JP2015228129 A JP 2015228129A JP 2014113466 A JP2014113466 A JP 2014113466A JP 2014113466 A JP2014113466 A JP 2014113466A JP 2015228129 A JP2015228129 A JP 2015228129A
Authority
JP
Japan
Prior art keywords
item
feature amount
model
feature
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014113466A
Other languages
Japanese (ja)
Inventor
香織 片岡
Kaori Kataoka
香織 片岡
行信 谷口
Yukinobu Taniguchi
行信 谷口
数藤 恭子
Kyoko Sudo
恭子 数藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014113466A priority Critical patent/JP2015228129A/en
Publication of JP2015228129A publication Critical patent/JP2015228129A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To recommend even a new clothing, and items such as an accessory.SOLUTION: A coordination recommendation device comprises: a model storage part for storing model information which indicates fidelity of a combination of a first feature amount of each of plural areas obtained by dividing a dress, and a first feature amount of at least one of other areas; a candidate item storage part for storing a second feature amount related to each of item candidates forming the dress; a designation acquisition part for acquiring designation information which indicates at least one item forming the dress; a feature amount extraction part for calculating a third feature amount of each of areas corresponding to the items indicated by the designation information; and a recommendation item selection part for selecting the candidate of the item having high fidelity with the item indicated by the designation information, among the candidates of the items, by referring to the third feature amount, candidate item storage part, and model storage part.

Description

本発明は、コーディネートを推薦する技術に関する。   The present invention relates to a technique for recommending coordinates.

従来、日々のコーディネートを天気や会う人といった情報とともに記録しておき、天気予報や、スケジュール、会う人などに応じて、記録していた情報を参照して、コーディネートを推薦するシステムがある(非特許文献1参照)。
また、鏡の前に立つと、その日のコーディネートが撮影・記録され、それらの過去のユーザの履歴からコーディネートを推薦するシステムがある(非特許文献2参照)。
Conventionally, there is a system that records daily coordinates together with information such as weather and meeting people, and recommends coordinates by referring to the recorded information according to the weather forecast, schedule, meeting people, etc. Patent Document 1).
Further, when standing in front of a mirror, there is a system in which the coordinates of the day are photographed and recorded, and the coordinates are recommended from the past user's history (see Non-Patent Document 2).

辻田 眸、外4名、“Asa1−coordinator:履歴情報を利用したファッションコーディネート支援”、ヒューマンインターフェース学会、ヒューマンインターフェースシンポジウム2009、2009年9月Satoshi Hamada, 4 others, “Asa1-coordinator: Fashion coordination support using history information”, Human Interface Society, Human Interface Symposium 2009, September 2009 佐藤 彩夏、外2名、“姿を利用したファッションコーディネート支援システムsuGATALOGの提案と評価”、情報処理学会シンポジウムシリーズ、ISSN1344-0640、2011.3.10-12、Vol. 2011、No. 3、pp.41-48Ayaka Sato, 2 others, “Proposal and Evaluation of Fashion Coordination Support System suGATALOG Using Figure”, IPSJ Symposium Series, ISSN1344-0640, 2011.3.10-12, Vol. 2011, No. 3, pp.41 -48

しかしながら、従来のシステムにおいては、今までに使ったことのない衣服や、アクセサリなどのアイテムを推薦することができないという問題があった。   However, the conventional system has a problem that it is not possible to recommend items such as clothes and accessories that have not been used before.

上記事情に鑑み、本発明は、新しい衣服や、アクセサリなどのアイテムであっても推薦することができる技術を提供することを目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique that can recommend new items such as clothes and accessories.

本発明の一態様は、服装を分割した複数の領域各々の第1特徴量の、少なくとも一つの他の領域の第1特徴量との組み合わせの適合度を示すモデル情報を記憶するモデル記憶部と、服装を構成するアイテムの候補各々に関する第2特徴量を記憶する候補アイテム記憶部と、服装を構成する少なくとも一つのアイテムを示す指定情報を取得する指定取得部と、前記複数の領域のうち、前記指定情報が示すアイテムに対応する領域各々の第3特徴量を算出する特徴量抽出部と、前記第3特徴量と、前記候補アイテム記憶部と、前記モデル記憶部とを参照して、前記アイテムの候補の中から、前記指定情報が示すアイテムとの適合度が高いアイテムの候補を選択する推薦アイテム選択部とを有するコーディネート推薦装置である。   One aspect of the present invention is a model storage unit that stores model information indicating a degree of matching of a first feature amount of each of a plurality of regions obtained by dividing clothes with a first feature amount of at least one other region; A candidate item storage unit that stores a second feature amount relating to each item candidate that constitutes clothing, a designation acquisition unit that obtains designation information indicating at least one item that constitutes clothing, and the plurality of regions, With reference to the feature quantity extraction unit that calculates the third feature quantity of each region corresponding to the item indicated by the designation information, the third feature quantity, the candidate item storage unit, and the model storage unit, It is a coordination recommendation apparatus which has a recommendation item selection part which selects the candidate of an item with a high matching degree with the item which the said designation | designated information shows from the item candidate.

本発明の一態様は、上記のコーディネート推薦装置であって、前記第1特徴量、前記第2特徴量、および前記第3特徴量は、アイテムの色または形状に関する特徴量であることを特徴とする。   One aspect of the present invention is the coordination recommendation device described above, wherein the first feature value, the second feature value, and the third feature value are feature values related to a color or a shape of an item. To do.

本発明の一態様は、上記のコーディネート推薦装置であって、複数の学習用画像各々から、前記複数の領域について、前記第1特徴量を算出するモデル特徴量抽出部と、前記モデル特徴量抽出部が算出した第1特徴量を参照して、前記モデル情報を生成し、前記モデル記憶部に格納するモデル生成部とを有することを特徴とする。   One aspect of the present invention is the above-described coordinate recommendation device, wherein a model feature amount extraction unit that calculates the first feature amount for each of the plurality of regions from each of a plurality of learning images, and the model feature amount extraction A model generation unit configured to generate the model information with reference to the first feature amount calculated by the unit and store the model information in the model storage unit.

本発明の一態様は、上記のコーディネート推薦装置であって、前記モデル情報は、前記複数の領域とは異なる基準で服装を分割した複数の領域各々の特徴量の、少なくとも一つの他の領域の特徴量との組み合わせの適合度を示す情報を含むことを特徴とする。   One aspect of the present invention is the coordinate recommendation device described above, wherein the model information includes at least one other region of the feature amount of each of the plurality of regions obtained by dividing the clothing based on a reference different from the plurality of regions. It includes information indicating the matching degree of the combination with the feature amount.

本発明の一態様は、コンピュータを、上記のいずれかのコーディネート推薦装置として機能させるためのプログラムである。   One aspect of the present invention is a program for causing a computer to function as any of the above coordinate recommendation devices.

本発明により、新しい衣服や、アクセサリなどのアイテムであっても推薦することが可能となる。   According to the present invention, it is possible to recommend new items such as clothes and accessories.

この発明の第1の実施形態におけるコーディネート推薦システムのシステム構成を示す図である。It is a figure which shows the system configuration | structure of the coordination recommendation system in 1st Embodiment of this invention. 同実施形態における端末装置10及びコーディネート推薦装置20の機能構成を表す概略ブロック図である。It is a schematic block diagram showing the functional structure of the terminal device 10 and the coordination recommendation apparatus 20 in the embodiment. 同実施形態におけるコーディネート画像をパーツ領域に分割した具体例を示す図である。It is a figure which shows the specific example which divided | segmented the coordinate image in the embodiment into parts area. 同実施形態におけるモデルDB206が記憶するモデル情報の例を示すテーブルである。It is a table which shows the example of the model information which model DB206 in the embodiment memorizes. 同実施形態における候補アイテムDB208の記憶内容例を示すテーブルである。It is a table which shows the example of the memory content of candidate item DB208 in the embodiment. 同実施形態におけるモデルDB206の生成処理を説明するフローチャートである。It is a flowchart explaining the production | generation process of model DB206 in the embodiment. 同実施形態におけるコーディネートの推薦処理を説明するフローチャートである。It is a flowchart explaining the recommendation process of coordination in the same embodiment. この発明の第2の実施形態における端末装置10及びコーディネート推薦装置20aの機能構成を表す概略ブロック図である。It is a schematic block diagram showing the function structure of the terminal device 10 in the 2nd Embodiment of this invention, and the coordination recommendation apparatus 20a. 同実施形態におけるモデルDB206aの記憶内容例を示すテーブルである。It is a table which shows the example of storage contents of model DB206a in the embodiment. 同実施形態における候補アイテムDB208aの記憶内容例を示すテーブルである。It is a table which shows the example of the memory content of candidate item DB208a in the embodiment.

[第1の実施形態]
以下、本発明の第1の実施形態を、図面を参照しながら説明する。
図1は、本実施形態におけるコーディネート推薦システムのシステム構成を示す図である。本実施形態のコーディネート推薦システムは、複数の端末装置10(10−1〜10−N:Nは1以上の整数)、コーディネート推薦装置20、ネットワーク30及び共有サーバ40を備える。
コーディネート推薦システムは、ユーザに対して服装のコーディネートを推薦する。まず、以下の説明において使用する文言を定義する。
コーディネート画像とは、コーディネートのモデルを生成するための学習用画像である。
アイテムとは、衣服、靴、アクセサリなど、服装を構成する要素である。
保有アイテムとは、ユーザが保有している、アイテムである。
保有アイテム画像とは、保有アイテムの画像である。
まず、コーディネートの推薦を要求したいユーザは、端末装置10を操作してコーディネート推薦装置20に、ベースとなるコーディネートの入力画像(指定情報)と、推薦を希望するアイテムの種別とを送信する。コーディネート推薦装置20は、ネットワーク30上や共有サーバ40から取得したコーディネート画像から生成したコーディネートのモデルを参照して、受信した入力画像が表すベースとなるコーディネートに対して組み合わせる、指定された種別のアイテムを選択し、端末装置10に提示させる。
[First Embodiment]
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a first embodiment of the invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a system configuration of a coordination recommendation system in the present embodiment. The coordinate recommendation system of the present embodiment includes a plurality of terminal devices 10 (10-1 to 10-N: N is an integer equal to or greater than 1), a coordinate recommendation device 20, a network 30, and a shared server 40.
The coordination recommendation system recommends the coordination of clothes to the user. First, the wording used in the following description is defined.
The coordinate image is a learning image for generating a coordinate model.
An item is an element constituting clothing such as clothes, shoes, and accessories.
The possessed item is an item possessed by the user.
The possessed item image is an image of the retained item.
First, a user who wants to request a recommendation of coordination operates the terminal device 10 and transmits to the coordination recommendation device 20 an input image (designation information) of a base coordination and the type of item desired to be recommended. The coordinate recommendation device 20 refers to the coordinate model generated from the coordinate image acquired from the network 30 or from the shared server 40, and is combined with the coordinate as a base represented by the received input image. Is displayed on the terminal device 10.

端末装置10は、例えばスマートフォン、携帯電話機、PDA(Personal Digital Assistant)、携帯ゲーム装置、タブレット装置、パーソナルコンピュータ等の情報処理装置を用いて構成される。端末装置10は、ユーザによって入力された入力画像と、推薦を希望するアイテムの種別とから、推薦要求情報を生成し、ネットワーク30を介してコーディネート推薦装置20に送信する。   The terminal device 10 is configured using an information processing device such as a smartphone, a mobile phone, a PDA (Personal Digital Assistant), a mobile game device, a tablet device, or a personal computer. The terminal device 10 generates recommendation request information from the input image input by the user and the type of item desired to be recommended, and transmits the recommendation request information to the coordination recommendation device 20 via the network 30.

コーディネート推薦装置20は、情報処理装置を用いて構成される。コーディネート推薦装置20は、端末装置10から送信された推薦要求情報に応じて、推薦するアイテムを、保有アイテムの中から選択する。また、コーディネート推薦装置20は、選択したアイテムを示す情報を端末装置10に送信する。
ネットワーク30は、どのように構成されたネットワークでもよい。例えば、ネットワーク30はインターネットを用いて構成されてもよい。
The coordination recommendation device 20 is configured using an information processing device. The coordination recommendation device 20 selects an item to be recommended from the possessed items according to the recommendation request information transmitted from the terminal device 10. Also, the coordination recommendation device 20 transmits information indicating the selected item to the terminal device 10.
The network 30 may be a network configured in any way. For example, the network 30 may be configured using the Internet.

共有サーバ40は、情報処理装置を用いて構成される。共有サーバ40は、端末装置10から送信された保有アイテム画像を、端末装置10のユーザに割り当てられたユーザIDに対応付けて蓄積する。以下の説明では、共有サーバ40に蓄積された画像を「蓄積画像」という。共有サーバ40は、例えば画像共有サイトを提供するサーバとして構築されてもよい。   The shared server 40 is configured using an information processing apparatus. The shared server 40 stores the stored item image transmitted from the terminal device 10 in association with the user ID assigned to the user of the terminal device 10. In the following description, an image stored in the shared server 40 is referred to as “stored image”. The shared server 40 may be constructed as a server that provides an image sharing site, for example.

図2は、本実施形態における端末装置10及びコーディネート推薦装置20の機能構成を表す概略ブロック図である。まず、端末装置10の機能構成を説明する。端末装置10は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、検索要求プログラムを実行する。検索要求プログラムの実行によって、端末装置10は、入力部101、要求部102、通信部103、表示部104を備える装置として機能する。なお、端末装置10の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、検索要求プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、検索要求プログラムは、電気通信回線を介して送受信されてもよい。   FIG. 2 is a schematic block diagram showing functional configurations of the terminal device 10 and the coordination recommendation device 20 in the present embodiment. First, the functional configuration of the terminal device 10 will be described. The terminal device 10 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a search request program. By executing the search request program, the terminal device 10 functions as a device including the input unit 101, the request unit 102, the communication unit 103, and the display unit 104. Note that all or a part of each function of the terminal device 10 may be realized by using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The search request program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the search request program may be transmitted / received via a telecommunication line.

入力部101は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル、デジタルカメラ、メモリカードリーダ等の既存の入力装置を用いて構成される。入力部101は、ユーザの推薦要求の指示を端末装置10に入力する際にユーザによって操作される。推薦要求の指示は、ベースとなるコーディネートを表す入力画像と、そのコーディネートへの組合せを推薦するアイテムの種別の指定とを含む。例えば、入力画像は、デジタルカメラが撮像することで入力され、アイテムの種別の指定は、キーボードを操作することで入力される。   The input unit 101 is configured using an existing input device such as a keyboard, a pointing device (mouse, tablet, etc.), a button, a touch panel, a digital camera, and a memory card reader. The input unit 101 is operated by the user when inputting a user's recommendation request instruction to the terminal device 10. The recommendation request instruction includes an input image representing a base coordinate and designation of an item type for recommending a combination to the coordinate. For example, an input image is input by being captured by a digital camera, and designation of an item type is input by operating a keyboard.

なお、入力部101は、入力装置を端末装置10に接続するためのインタフェースであってもよい。この場合、入力部101は、入力装置においてユーザの入力に応じて生成された入力信号を端末装置10に入力する。
要求部102は、入力部101に入力された推薦要求の指示に基づいて推薦要求情報を生成する。
The input unit 101 may be an interface for connecting the input device to the terminal device 10. In this case, the input unit 101 inputs an input signal generated according to a user input in the input device to the terminal device 10.
The request unit 102 generates recommendation request information based on a recommendation request instruction input to the input unit 101.

通信部103は、コーディネート推薦装置20との間で通信を行う。通信部103は、例えば要求部102によって生成された推薦要求情報をコーディネート推薦装置20に送信する。また、通信部103は、例えばコーディネート推薦装置20から送信された、推薦するアイテムを示す情報を受信する。通信部103が受信するアイテムを示す情報は、例えば保有アイテム画像や、保有アイテム画像へのURL(Uniform Resource Locator)などである。なお、通信部103は、アイテムを示す情報が、保有アイテム画像へのURLであるときは、そのURLが示す保有アイテム画像を、ネットワーク30を介して取得する。   The communication unit 103 communicates with the coordination recommendation device 20. For example, the communication unit 103 transmits the recommendation request information generated by the request unit 102 to the coordination recommendation device 20. In addition, the communication unit 103 receives, for example, information indicating the recommended item transmitted from the coordination recommendation device 20. The information indicating the item received by the communication unit 103 is, for example, a possessed item image or a URL (Uniform Resource Locator) to the possessed item image. Note that when the information indicating the item is the URL to the possessed item image, the communication unit 103 acquires the possessed item image indicated by the URL via the network 30.

表示部104は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の画像表示装置である。表示部104は、例えば保有アイテム画像を表示する。表示部104は、画像表示装置を端末装置10に接続するためのインタフェースであってもよい。この場合、表示部104は、保有アイテム画像を表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。   The display unit 104 is an image display device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, or an organic EL (Electro Luminescence) display. The display unit 104 displays, for example, a possessed item image. The display unit 104 may be an interface for connecting the image display device to the terminal device 10. In this case, the display unit 104 generates a video signal for displaying the possessed item image, and outputs the video signal to an image display device connected to the display unit 104.

次に、コーディネート推薦装置20の機能構成を説明する。コーディネート推薦装置20は、バスで接続されたCPUやメモリや補助記憶装置などを備え、配信プログラムを実行する。配信プログラムの実行によって、コーディネート推薦装置20は、通信部201、制御部202、画像取得部203、モデル特徴量抽出部204、モデル生成部205、モデルDB(データベース)206、保有特徴量抽出部207、候補アイテムDB208、推薦アイテム選択部209、配信部210、入力特徴量抽出部211を備える装置として機能する。なお、コーディネート推薦装置20の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、配信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、配信プログラムは、電気通信回線を介して送受信されてもよい。   Next, the functional configuration of the coordination recommendation device 20 will be described. The coordination recommendation device 20 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes a distribution program. By executing the distribution program, the coordination recommendation device 20 includes a communication unit 201, a control unit 202, an image acquisition unit 203, a model feature amount extraction unit 204, a model generation unit 205, a model DB (database) 206, and a retained feature amount extraction unit 207. , Function as an apparatus including a candidate item DB 208, a recommended item selection unit 209, a distribution unit 210, and an input feature amount extraction unit 211. Note that all or part of the functions of the coordination recommendation device 20 may be realized by using hardware such as ASIC, PLD, or FPGA. The distribution program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the distribution program may be transmitted / received via a telecommunication line.

通信部201は、端末装置10、共有サーバ40との間で通信を行う。コーディネート推薦装置20の各部は、端末装置10、共有サーバ40などの他装置と通信をする際は、通信部201を介して行う。通信部201は、例えば端末装置10から送信された推薦要求情報を受信する。また、通信部201は、例えば受信された推薦要求情報に応じたアイテムを示す情報を端末装置10に送信する。
制御部202は、コーディネート推薦装置20の各機能部を制御する。例えば、制御部202(指定取得部)は、通信部201が受信した推薦要求情報を、入力特徴量抽出部211に入力し、通信部201が受信したコーディネート画像を、画像取得部203に入力し、通信部201が受信した保有アイテム画像を、保有特徴量抽出部207に入力する。
The communication unit 201 communicates with the terminal device 10 and the shared server 40. Each unit of the coordination recommendation device 20 communicates with other devices such as the terminal device 10 and the shared server 40 via the communication unit 201. For example, the communication unit 201 receives recommendation request information transmitted from the terminal device 10. Moreover, the communication part 201 transmits the information which shows the item according to the received recommendation request information to the terminal device 10, for example.
The control unit 202 controls each functional unit of the coordination recommendation device 20. For example, the control unit 202 (designation acquisition unit) inputs the recommendation request information received by the communication unit 201 to the input feature amount extraction unit 211, and inputs the coordinated image received by the communication unit 201 to the image acquisition unit 203. The possessed item image received by the communication unit 201 is input to the retained feature amount extraction unit 207.

画像取得部203は、共有サーバ40に記憶されている蓄積画像に含まれているコーディネート画像やネットワーク30上からコーディネート画像を取得する。
モデル特徴量抽出部204は、画像取得部203によって取得されたコーディネート画像各々から、服装を分割した複数の領域各々の特徴量(第1特徴量)を抽出する。この特徴量の抽出の詳細は、後述する。
The image acquisition unit 203 acquires a coordinated image included in the accumulated image stored in the shared server 40 and a coordinated image from the network 30.
The model feature quantity extraction unit 204 extracts the feature quantities (first feature quantities) of the plurality of regions obtained by dividing the clothing from each coordinate image acquired by the image acquisition unit 203. Details of this feature amount extraction will be described later.

モデル生成部205は、モデル特徴量抽出部204によって抽出されたコーディネート画像の特徴量に基づいてモデル情報を生成する。モデル情報は、服装を分割した複数の領域各々の特徴量の、少なくとも一つの他の領域の特徴量との組み合わせの適合度を示す情報である。この適合度は、画像取得部203が取得したコーディネート画像群における出現確率である。なお、モデル情報およびその生成方法についての詳細は、後述する。
モデルDB206は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。モデルDB206(モデル記憶部)は、モデル生成部205によって生成されたモデル情報を記憶している。
The model generation unit 205 generates model information based on the feature amount of the coordinated image extracted by the model feature amount extraction unit 204. The model information is information indicating the degree of suitability of the combination of the feature amount of each of the plurality of regions obtained by dividing the clothing with the feature amount of at least one other region. This fitness is the appearance probability in the coordinated image group acquired by the image acquisition unit 203. Details of the model information and its generation method will be described later.
The model DB 206 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The model DB 206 (model storage unit) stores model information generated by the model generation unit 205.

保有特徴量抽出部207は、共有サーバ40に記憶されている蓄積画像に含まれている保有アイテム画像から、特徴量(第2特徴量)を抽出する。保有特徴量抽出部207は、抽出した特徴量を、保有アイテム画像へのURL、保有アイテム画像が表すアイテムの識別情報および保有アイテム画像が表すアイテムの種別と対応付けて、候補アイテムDB208に格納する。なお、アイテムの識別情報や、アイテムの種別は、例えば、保有アイテム画像のファイルにタグ情報として格納されていてもよいし、画像認識などにより、保有特徴量抽出部207が生成するようにしてもよい。   The possessed feature amount extraction unit 207 extracts a feature amount (second feature amount) from the retained item image included in the accumulated image stored in the shared server 40. The possessed feature amount extraction unit 207 stores the extracted feature amount in the candidate item DB 208 in association with the URL to the retained item image, the item identification information represented by the retained item image, and the item type represented by the retained item image. . Note that the item identification information and the item type may be stored as tag information in a file of the possessed item image, for example, or may be generated by the retained feature amount extraction unit 207 by image recognition or the like. Good.

候補アイテムDB208は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。候補アイテムDB208(候補アイテム記憶部)は、保有アイテム画像のアイテムの識別情報、URL、アイテムの種別、および特徴量を対応付けて記憶している。
入力特徴量抽出部211は、推薦要求情報に含まれる入力画像から、モデル特徴量抽出部204と同様にして、特徴量(第3特徴量)を抽出する。
The candidate item DB 208 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The candidate item DB 208 (candidate item storage unit) stores the item identification information, URL, item type, and feature amount of the possessed item image in association with each other.
The input feature quantity extraction unit 211 extracts a feature quantity (third feature quantity) from the input image included in the recommendation request information in the same manner as the model feature quantity extraction unit 204.

推薦アイテム選択部209は、入力特徴量抽出部211が抽出した入力画像の特徴量と、候補アイテムDB208と、モデルDB206とを参照して、入力画像のコーディネートとの適合度が高い保有アイテムを選択する。
配信部210は、推薦アイテム選択部209が選択した保有アイテムを示す情報を端末装置10に送信する。配信部210は、例えば保有アイテムを示す情報として、保有アイテムのURLを端末装置10に送信してもよい。
The recommended item selection unit 209 refers to the feature amount of the input image extracted by the input feature amount extraction unit 211, the candidate item DB 208, and the model DB 206, and selects a possessed item having a high degree of matching with the coordination of the input image. To do.
The distribution unit 210 transmits information indicating the possessed item selected by the recommended item selection unit 209 to the terminal device 10. The distribution unit 210 may transmit the URL of the possessed item to the terminal device 10 as information indicating the retained item, for example.

次に、モデルDB206の生成方法について説明する。
画像取得部203は、ネットワーク30上や共有サーバ40から、手本とすべきコーディネート画像として、ユーザにより指定されたコーディネート画像を取得する。ネットワーク30上のwebサイト(例えば、ファッション店舗のホームページなど)には、ファッション雑誌やファッション店舗が商品の宣伝をするために、商品を組み合わせたコーディネート例の画像が数多く掲載されている。また、ネットワーク30上には、ファッションブランドのコレクションなどで発表されたコーディネート例の画像も数多く掲載されている。さらに、一般の人々が日々のコーディネート例をブログ等に掲載している場合もある。そのため、画像取得部203は、ネットワーク30上から多くのコーディネート画像を取得することができる。なお、コーディネート画像は、人手で収集されてもよい。なお、コーディネート画像は、推薦したいアイテムを含むコーディネート例であることが望ましい。
Next, a method for generating the model DB 206 will be described.
The image acquisition unit 203 acquires a coordinated image designated by the user as a coordinated image to be used as a model from the network 30 or the shared server 40. On the web site on the network 30 (for example, the homepage of a fashion store, etc.), many images of coordinate examples in which products are combined in order for fashion magazines and fashion stores to advertise products are posted. In addition, on the network 30, there are many images of coordinate examples published in fashion brand collections. In addition, ordinary people may post examples of daily coordination on blogs. Therefore, the image acquisition unit 203 can acquire many coordinated images from the network 30. The coordinated image may be collected manually. The coordinated image is preferably a coordinate example including an item to be recommended.

次に、モデル特徴量抽出部204は、複数のコーディネート画像から特徴量を抽出する。以下、特徴量を抽出する方法について具体的に説明する。特徴量を抽出する方法は、コーディネート画像から人物領域の抽出を行うステップ、抽出された人物領域をさらに細かいパーツ領域に分割するステップ、パーツ領域ごとに特徴量を抽出するステップ、の3つのステップによって実行される。以下、各ステップの処理について説明する。人物領域とは、衣服や衣服を着用している人物が撮像されている領域である。パーツ領域とは、人物の胴や腕、足などの各部位が撮像されている領域である。   Next, the model feature amount extraction unit 204 extracts feature amounts from a plurality of coordinate images. Hereinafter, a method for extracting feature amounts will be described in detail. The method for extracting the feature amount includes three steps: a step of extracting a person region from the coordinated image, a step of dividing the extracted person region into finer part regions, and a step of extracting the feature amount for each part region. Executed. Hereinafter, processing of each step will be described. The person area is an area where clothes or a person wearing clothes is imaged. The parts area is an area where each part such as a person's torso, arms, and legs is imaged.

まず、コーディネート画像から人物領域を抽出する処理について説明する。
図3は、コーディネート画像をパーツ領域に分割した具体例を示す図である。まず、モデル特徴量抽出部204は、コーディネート画像に対し、参考文献1の技術を用いることでコーディネート画像から人物領域を囲む矩形領域を抽出する。参考文献1は、事前に人物領域の学習用画像と人物領域以外の学習用画像とを学習させた識別器を作成し、エッジなどの特徴量からAdaboostなどにより識別に有効な特徴量を選択する手法である。(参考文献1:信学技法2012.11.17 「サーベイ論文」 統計的学習手法による人検出)。また、Adaboostの具体例として、例えば以下の文献に開示される技術が適用されてもよい。情報処理学会研究報告2009 「人検出のためのreal AdaboostによるHOG特徴量の効率的な削減法」。
First, processing for extracting a person area from a coordinated image will be described.
FIG. 3 is a diagram illustrating a specific example in which the coordinated image is divided into parts regions. First, the model feature quantity extraction unit 204 extracts a rectangular area surrounding the person area from the coordinated image by using the technique of Reference 1 for the coordinated image. Reference 1 creates a discriminator in which a learning image of a person area and a learning image other than a person area are learned in advance, and selects a feature quantity effective for discrimination from an feature quantity such as an edge by Adaboost or the like. It is a technique. (Reference 1: Science Technique 2012.11.17 "Survey Papers" Human Detection by Statistical Learning Method). In addition, as a specific example of Adaboost, for example, techniques disclosed in the following documents may be applied. IPSJ Research Report 2009 “Efficient reduction of HOG features using real Adaboost for human detection”.

モデル特徴量抽出部204は、このようにコーディネート画像から人物領域を囲む矩形領域を抽出することによって矩形領域画像を生成する。次に、モデル特徴量抽出部204は、Graph cutにより矩形領域画像の前景領域と背景領域とを分離する。その後、モデル特徴量抽出部204は、分離した前景領域を人物領域として抽出することによって人物領域画像を生成する。前景領域とは、矩形領域画像内の手前に撮像されている物体の領域である。前景領域の具体例として、人物や人物が着用している衣服の領域などがある。背景領域とは、矩形領域画像内の前景領域以外の領域である。背景領域の具体例として、壁や天井などの領域がある。モデル特徴量抽出部204は、このように矩形領域画像から人物領域を抽出することによって人物領域画像を生成する。Graph cutの具体例として、例えば以下の文献に開示される技術が適用されてもよい。情報処理学会 研究報告 2007-CVIM-158 「グラフカット」 石川 博。
以上で、矩形領域画像から人物領域を抽出する処理についての説明を終了する。
The model feature amount extraction unit 204 thus generates a rectangular area image by extracting a rectangular area surrounding the person area from the coordinated image. Next, the model feature quantity extraction unit 204 separates the foreground area and the background area of the rectangular area image using Graph cut. Thereafter, the model feature quantity extraction unit 204 generates a person area image by extracting the separated foreground area as a person area. The foreground area is an area of an object that is imaged in the foreground in the rectangular area image. A specific example of the foreground area is a person or an area of clothes worn by a person. The background area is an area other than the foreground area in the rectangular area image. Specific examples of the background area include areas such as walls and ceilings. The model feature quantity extraction unit 204 generates a person area image by extracting a person area from the rectangular area image in this way. As a specific example of Graph cut, for example, techniques disclosed in the following documents may be applied. Information Processing Society of Japan Research Report 2007-CVIM-158 “Graph Cut” Hiroshi Ishikawa.
Above, the description about the process which extracts a person area | region from a rectangular area image is complete | finished.

次に、人物領域画像をパーツ領域に分割する処理について説明する。パーツ領域に分割する方法として、例えば、以下の文献で開示される技術を用いる。Mun Wai Lee、Ram Nevatia、「Body Part Detection for Human Pose Estimation and Tracking」、IEEE Workshop on Motion and Video Computing(WMVC'07)。
パーツ領域は、例えば、図3に示す、頭PA1、首PA2、右腕PA3、左腕PA4、胴PA5、ひざ上PA6、ひざ下PA7、靴PA8の領域である。
以上で、人物領域画像をパーツ領域に分割する処理についての説明を終了する。
Next, a process for dividing a person area image into parts areas will be described. For example, the technique disclosed in the following document is used as a method of dividing the part area. Mun Wai Lee, Ram Nevatia, “Body Part Detection for Human Pose Estimation and Tracking”, IEEE Workshop on Motion and Video Computing (WMVC'07).
The part region is, for example, the region of the head PA1, the neck PA2, the right arm PA3, the left arm PA4, the torso PA5, the knee upper PA6, the knee lower PA7, and the shoe PA8 shown in FIG.
Above, description about the process which divides | segments a person area image into parts area is complete | finished.

そして、特徴量抽出部204は、分割されたパーツ領域ごとに特徴量を抽出する。
抽出される特徴量としては、カラー、形状、柄といったファッションに関する特徴を捉える特徴量が好ましい。例えば、カラーを表現する方法として、カラーヒストグラムが用いられてもよい。なお、特徴量抽出部204は、カラーヒストグラムを、k−means法などによりクラスタリングし、そのクラスタの重心ベクトルを特徴量としてもよい。k−means法は、例えば、以下の文献に記載されている。八木康史・齋藤英雄編、「コンピュータビジョン最先端ガイド2」アドコムメディア株式会社、pp65、2010年6月発行。また、形状を表現する方法として、HOG(Histgrams of Oriented Gradients)特徴量が用いられてもよい。また、柄を表現する方法として、直線検出を行うことによって、検出された直線の数を柄の特徴量として用いられてもよい。また、これらの特徴量を組み合わせたものを用いてもよい。
以下では、カラーヒストグラムの重心ベクトルを特徴量とするとして説明する。
Then, the feature quantity extraction unit 204 extracts a feature quantity for each divided part area.
As the feature quantity to be extracted, a feature quantity that captures fashion-related features such as color, shape, and pattern is preferable. For example, a color histogram may be used as a method for expressing color. Note that the feature amount extraction unit 204 may cluster the color histogram by the k-means method or the like, and use the centroid vector of the cluster as the feature amount. The k-means method is described in the following documents, for example. Yagi Yasushi and Saito Hideo, “Computer Vision Advanced Guide 2”, Adcom Media Co., Ltd., pp65, published in June 2010. Further, as a method for expressing the shape, HOG (Histgrams of Oriented Gradients) feature values may be used. Further, as a method of expressing a pattern, the number of detected straight lines may be used as a pattern feature amount by performing straight line detection. Moreover, you may use what combined these feature-values.
In the following description, it is assumed that the centroid vector of the color histogram is a feature amount.

特徴量抽出部204は、上述した3つのステップを実行することによって、コーディネート画像から特徴量を抽出する。服は撮影された画像によって変形度が大きい。変形度とは、変形の度合いの高さを表す。変形度の値が高いほど、元の形状から形が変形している。例えば、肘が伸びている状態で撮影された画像と肘が曲がっている状態で撮影された画像とでは、服の形状に大きな変化が生じている。そのため、変形度が大きくなる。変形度が大きい場合、同じ衣服であっても違う衣服と判定されてしまうおそれがある。特に、腕は、動きが大きく、上述したように肘の状態などによっては衣服の変形度が大きくなってしまうため、照合が困難になる。そこで、上述したようなパーツ領域に分割することにより、コーディネート画像そのものから特徴量を抽出するよりも衣服の変形の影響を受けにくい領域の特徴量を選択して照合に用いることができる。そのため、変形度の大きさによる誤判定を軽減することが可能になる。   The feature amount extraction unit 204 extracts the feature amount from the coordinated image by executing the above-described three steps. The degree of deformation of clothes varies greatly depending on the images taken. The degree of deformation represents the height of the degree of deformation. The higher the degree of deformation, the more the shape is deformed from the original shape. For example, there is a large change in the shape of clothes between an image taken with the elbow extended and an image taken with the elbow bent. As a result, the degree of deformation increases. When the degree of deformation is large, even the same clothes may be determined as different clothes. In particular, the arm has a large movement, and as described above, the degree of deformation of the clothes increases depending on the state of the elbow and the like. Therefore, by dividing the parts into the above-described parts regions, it is possible to select and use the feature amount of the region that is less susceptible to the deformation of the clothes than to extract the feature amount from the coordinated image itself. For this reason, it is possible to reduce erroneous determination due to the degree of deformation.

モデル生成部205は、パーツ領域の特徴量の組み合わせの適合度を示すモデル情報を構築する。モデル生成部205は、より多くのコーディネート画像に現われた組み合わせを、適合度が高いとみなし、N−グラムによるモデル情報を生成する。N−グラムは、ある特徴量の出現確率は、直前の(N−1)個の領域の特徴量にのみ影響されるという仮定をおいたモデルである。N−グラムは、例えば、以下の文献で開示されている。「フリーソフトで作る音声認識システム」、森北出版株式会社、pp164−170。   The model generation unit 205 constructs model information indicating the suitability of the combination of feature quantities in the part area. The model generation unit 205 regards combinations that appear in more coordinated images as having a high degree of matching, and generates model information based on N-grams. The N-gram is a model based on the assumption that the appearance probability of a certain feature value is affected only by the feature values of the immediately preceding (N-1) regions. N-grams are disclosed in, for example, the following documents. “Voice recognition system made with free software”, Morikita Publishing Co., Ltd., pp164-170.

例えば、Nが3の3−グラムであれば、頭PA1、首PA2、右腕PA3、左腕PA4、胴PA5、ひざ上PA6、ひざ下PA7、靴PA8のパーツ領域を3パーツごとに区切り、その中で出現確率に影響を与えると仮定する。このとき、並びは、頭から靴へ向かってでもよいが、ファッションの場合、トップスから選ぶ場合が多いと考えられるので、並びは、胴から頭へ向かってと、胴から靴への向かってとすることが望ましい。以降、本実施形態では、並びは、胴から頭へ向かってと、胴から靴への向かってとする。   For example, if N is 3-gram, the head PA1, neck PA2, right arm PA3, left arm PA4, torso PA5, knee upper PA6, knee lower PA7, and shoe PA8 are divided into three parts. Assume that the probability of appearance is affected. At this time, the alignment may be from the head to the shoes, but in the case of fashion, it is considered that there are many choices from the tops, so the alignment is from the torso to the head and from the torso to the shoes. It is desirable to do. Hereinafter, in this embodiment, the alignment is from the torso to the head and from the torso to the shoes.

したがって、本実施形態では、頭PA1のある特徴量の出現確率は、首PA2および右腕PA3の特徴量に影響を受け、首PA2のある特徴量の出現確率は、右腕PA3および左腕PA4の特徴量に影響を受けるとして、モデル情報を生成する。具体的には、モデル生成部205は、モデル特徴量抽出部204が、複数のコーディネート画像から抽出した特徴量について、首PA2の特徴量と、右腕PA3の特徴量との値の組み合わせ毎に、頭PA1のある特徴量の出現確率をカウントする。   Therefore, in this embodiment, the appearance probability of a certain feature value of the head PA1 is affected by the feature values of the neck PA2 and the right arm PA3, and the appearance probability of the feature value of the neck PA2 is the feature value of the right arm PA3 and the left arm PA4. Model information is generated assuming that Specifically, the model generation unit 205 includes, for each combination of values of the feature amount of the neck PA2 and the feature amount of the right arm PA3, for the feature amounts extracted by the model feature amount extraction unit 204 from a plurality of coordinate images. The appearance probability of a certain feature amount of the head PA1 is counted.

図4は、モデル生成部205が生成し、モデルDB206が記憶するモデル情報の例を示すテーブルである。図4の例は、右腕PA3の特徴量と、首PA2の特徴量と、頭PA1の特徴量と、その出現確率とを対応付けている。例えば、右腕PA3の特徴量である右腕特徴量の値が「RC1」であり、首PA2の特徴量である首特徴量の値が「NC1」であるときは、頭PA1の特徴量である頭特徴量の値「HC1」の出現確率は「Ph1」であり、頭特徴量の値「HC2」の出現確率は「Ph2」である。図4では、頭特徴量の出現確率に関するテーブルのみを示したが、モデル生成部205は、その他の特徴量の出現確率についてもカウントして、モデル情報を生成する。
以上で、モデルDB206の生成方法についての説明を終了する。
FIG. 4 is a table showing an example of model information generated by the model generation unit 205 and stored in the model DB 206. In the example of FIG. 4, the feature amount of the right arm PA3, the feature amount of the neck PA2, the feature amount of the head PA1, and the appearance probability thereof are associated with each other. For example, when the value of the right arm feature amount that is the feature amount of the right arm PA3 is “RC1” and the value of the neck feature amount that is the feature amount of the neck PA2 is “NC1”, the head that is the feature amount of the head PA1 The appearance probability of the feature value “HC1” is “Ph1”, and the appearance probability of the head feature value “HC2” is “Ph2”. In FIG. 4, only the table related to the appearance probability of the head feature amount is shown, but the model generation unit 205 also counts the appearance probability of other feature amounts to generate model information.
Above, description about the production | generation method of model DB206 is complete | finished.

次に、候補アイテムDB208の生成方法について説明する。
制御部202は、ユーザから指定された保有アイテム画像を、ネットワーク30上や共有サーバ40から取得する。この指定は、例えば、端末装置10から行う。制御部202は、取得した保有アイテム画像を、保有特徴量抽出部207に入力する。
Next, a method for generating the candidate item DB 208 will be described.
The control unit 202 acquires the possessed item image designated by the user from the network 30 or the shared server 40. This designation is performed from the terminal device 10, for example. The control unit 202 inputs the acquired possessed item image to the retained feature amount extraction unit 207.

次に、保有特徴量抽出部207は、保有アイテム画像から特徴量を抽出する。保有特徴量抽出部207は、モデル特徴量抽出部204と同様にして、保有アイテム画像から特徴量を抽出する。ただし、保有特徴量抽出部207は、保有アイテム画像のうち、そのアイテムの種別に対応する領域の特徴量のみを抽出する。例えば、アイテムの種別が、帽子であれば、頭PA1の特徴量のみを抽出する。また、アイテムの種別が、スラックスやロングスカートであれば、ひざ上PA6の特徴量と、ひざ下PA7の特徴量とを抽出する。保有特徴量抽出部207は、抽出した特徴量と、保有アイテムに関する情報とを対応付けて候補アイテムDB208に記憶させる。   Next, the retained feature amount extraction unit 207 extracts a feature amount from the retained item image. The retained feature amount extraction unit 207 extracts feature amounts from the retained item image in the same manner as the model feature amount extraction unit 204. However, the possessed feature amount extraction unit 207 extracts only the feature amount of the area corresponding to the type of the item from the possessed item image. For example, if the item type is a hat, only the feature amount of the head PA1 is extracted. If the item type is slacks or a long skirt, the feature amount of the knee upper PA6 and the feature amount of the knee lower PA7 are extracted. The possessed feature amount extraction unit 207 associates the extracted feature amount with information related to the possessed item and stores the associated feature amount in the candidate item DB 208.

図5は、候補アイテムDB208の記憶内容例を示すテーブルである。保有アイテムに関する情報は、アイテム名、保有アイテム画像へのURL、アイテムの種別を含む。例えば、アイテム名「帽子H1」には、URL「http:・・・」と、種別「帽子」と、領域「頭」と、特徴量「HC1」とが対応付けられている。帽子の場合、このように、対応する領域は「頭」のみなので、特徴量として「HC1」のみが、保有アイテムに関する情報に対応付けられている。一方、アイテム名「スラックスS1」と、URL「http:・・・」と、種別「帽子」とに対しては、領域「ひざ上」と特徴量「LUC1」、および領域「ひざ下」と特徴量「LBC1」が対応付けられている。
以上で、候補アイテムDB208の生成方法についての説明を終了する。
FIG. 5 is a table showing an example of the contents stored in the candidate item DB 208. The information regarding the possessed item includes the item name, the URL to the possessed item image, and the item type. For example, the item name “hat H1” is associated with the URL “http:...”, The type “hat”, the region “head”, and the feature amount “HC1”. In the case of a hat, since the corresponding region is only “head”, only “HC1” is associated with the information related to the possessed item. On the other hand, for the item name “Slack S1”, the URL “http:. The quantity “LBC1” is associated.
Above, description about the production | generation method of candidate item DB208 is complete | finished.

図6は、モデルDB206の生成処理を説明するフローチャートである。まず、画像取得部203は、コーディネート画像群を取得する(Sa1)。次に、モデル特徴量抽出部204は、コーディネート画像を、パーツ領域に分割する(Sa2)。次に、モデル特徴量抽出部204は、各パーツ領域の特徴量を抽出する(Sa3)。次に、モデル特徴量抽出部204は、ステップSa1にて取得したコーディネート画像群の全画像について、特徴量の抽出が完了したか否かを判定する(Sa4)。完了していないと判定したときは(Sa4−No)、モデル特徴量抽出部204は、ステップSa2に戻り、特徴量を未抽出のコーディネート画像について処理を行う。   FIG. 6 is a flowchart for explaining the generation process of the model DB 206. First, the image acquisition unit 203 acquires a coordinated image group (Sa1). Next, the model feature amount extraction unit 204 divides the coordinated image into parts regions (Sa2). Next, the model feature quantity extraction unit 204 extracts the feature quantity of each part region (Sa3). Next, the model feature quantity extraction unit 204 determines whether or not feature quantity extraction has been completed for all images in the coordinated image group acquired in step Sa1 (Sa4). If it is determined that it has not been completed (Sa4-No), the model feature quantity extraction unit 204 returns to step Sa2 and performs processing on the coordinate image from which feature quantities have not been extracted.

一方、ステップSa4にて、全画像について、特徴量の抽出が完了したと判定したときは(Sa4−Yes)、モデル生成部205は、各パーツ領域のN−グラムを算出する(Sa5)。次に、モデル生成部205は、算出したN−グラムを、モデル情報としてモデルDB206に格納し(Sa6)、処理を終了する。   On the other hand, when it is determined in step Sa4 that the feature amount extraction has been completed for all the images (Sa4-Yes), the model generation unit 205 calculates an N-gram of each part region (Sa5). Next, the model generation unit 205 stores the calculated N-gram as model information in the model DB 206 (Sa6), and ends the process.

図7は、コーディネートの推薦処理を説明するフローチャートである。まず、制御部202は、推薦要求情報として、ベースとなるコーディネートの入力画像と、推薦するアイテムの種別とを、通信部201を介して端末装置10から取得する(Sb1)。次に、入力特徴量抽出部211は、入力画像を、パーツ領域に分割する(Sb2)。次に、入力特徴量抽出部211は、各パーツ領域の特徴量を抽出する(Sb3)。これら、ステップSb2、Sb3の処理は、モデル特徴量抽出部204がコーディネート画像に対して行う処理と同様である。   FIG. 7 is a flowchart for explaining coordination recommendation processing. First, the control unit 202 acquires, as recommendation request information, a coordinate input image serving as a base and the type of item to recommend from the terminal device 10 via the communication unit 201 (Sb1). Next, the input feature amount extraction unit 211 divides the input image into parts regions (Sb2). Next, the input feature quantity extraction unit 211 extracts the feature quantity of each part region (Sb3). The processes in steps Sb2 and Sb3 are the same as the processes performed by the model feature amount extraction unit 204 on the coordinate image.

次に、推薦アイテム選択部209は、ステップSb1にて取得した、推薦するアイテムの種別の各保有アイテムについて、ステップSb5の処理を行う(Sb4、Sb6)。ステップSb5では、推薦アイテム選択部209は、パーツ領域の特徴量に該当するモデル情報のうち、対象の保有アイテムの特徴量に最も近いものの出現確率を、モデルDB206から読み出す(Sb5)。例えば、ステップSb4、Sb6によるループ中のあるループにおいて、対象の保有アイテムが、図5の帽子H1であり、ステップSb3にて抽出した右腕特徴量が「RC1」、首特徴量が「NC1」であるときは、推薦アイテム選択部209は、モデルDB206から、右腕特徴量「RC1」と、首特徴量「NC1」と、帽子H1による頭特徴量「HC1」と対応付けられている出現確率「Ph1」を読み出す。   Next, the recommended item selection unit 209 performs the process of step Sb5 for each possessed item of the recommended item type acquired in step Sb1 (Sb4, Sb6). In step Sb5, the recommended item selection unit 209 reads, from the model DB 206, the appearance probability of the model information corresponding to the feature amount of the part area that is closest to the feature amount of the target possessed item (Sb5). For example, in a loop in the loop of steps Sb4 and Sb6, the target possessed item is the hat H1 in FIG. 5, the right arm feature value extracted in step Sb3 is “RC1”, and the neck feature value is “NC1”. In some cases, the recommended item selection unit 209 determines, from the model DB 206, the appearance probability “Ph1” associated with the right arm feature “RC1”, the neck feature “NC1”, and the head feature “HC1” with the hat H1. "Is read out.

また、ステップSb4、Sb6によるループ中のあるループにおいて、対象の保有アイテムが、図5のスラックスS1であり、ステップSb3にて抽出した胴特徴量が「BC1」であるときは、推薦アイテム選択部209は、モデルDB206から、胴特徴量が「BC1」と、スラックスS1によるひざ上特徴量「LUC1」とひざ下特徴量「LBC1」と対応付けられている出現確率を読み出す。   Also, in a loop in the loop of steps Sb4 and Sb6, when the target possessed item is the slacks S1 in FIG. 5 and the trunk feature amount extracted in step Sb3 is “BC1”, the recommended item selection unit 209 reads out from the model DB 206 the appearance probability associated with the body feature amount “BC1”, the above-knee feature amount “LUC1” and the below-knee feature amount “LBC1” by the slacks S1.

そして、ステップSb4、Sb6によるループが終了すると、推薦アイテム選択部209は、読み出した出現確率が最も大きい保有アイテムを推薦するアイテムとして選択する。配信部210は、推薦アイテム選択部209が選択した保有アイテムのURLを、推薦するアイテムを示す情報として、制御部202、通信部201を介して、端末装置10に配信する(Sb7)。   And when the loop by step Sb4 and Sb6 is complete | finished, the recommended item selection part 209 selects the possessed item with the largest appearance probability read as an item to recommend. The distribution unit 210 distributes the URL of the possessed item selected by the recommended item selection unit 209 as information indicating the recommended item to the terminal device 10 via the control unit 202 and the communication unit 201 (Sb7).

以上のように構成されたコーディネート推薦装置20によれば、服装を分割した複数の領域各々の特徴量の、少なくとも一つの他の領域の特徴量との組み合わせの適合度を示すモデル情報に基づいて、ベースとなるコーディネートとの適合度が高いアイテムを推薦する。したがって、ユーザがベースとなるコーディネートを指定すると、ユーザが着たことのない新しい衣服や、アクセサリなどのアイテムであっても、そのコーディネートに適合したアイテムを推薦することができる。   According to the coordinate recommendation device 20 configured as described above, based on the model information indicating the fitness of the combination of the feature values of each of the plurality of regions obtained by dividing the clothing with the feature values of at least one other region. Recommend items that are highly compatible with the base coordinates. Therefore, when the user designates a base coordinate, an item suitable for the coordinate can be recommended even if the item is new clothes or accessories that the user has never worn.

[第2の実施形態]
以下、本発明の第2の実施形態を、図面を参照しながら説明する。本実施形態におけるコーディネート推薦システムは、図1におけるコーディネート推薦システムと同様の構成であるが、コーディネート推薦装置20に代えてコーディネート推薦装置20aを有する点が異なる。コーディネート推薦装置20は、パーツ領域の特徴量を用いて、推薦するアイテムを選択したが、コーディネート推薦装置20aは、パーツ領域の特徴量に加えて、ベースカラー、アソートカラー、アクセントカラーからなるカラーモデルの特徴量を用いて、推薦するアイテムを選択する。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. The coordinate recommendation system in the present embodiment has the same configuration as the coordinate recommendation system in FIG. 1 except that a coordinate recommendation device 20a is provided instead of the coordinate recommendation device 20. The coordinate recommendation device 20 selects an item to be recommended using the feature amount of the part area, but the coordinate recommendation device 20a is a color model including a base color, an assorted color, and an accent color in addition to the feature amount of the part region. The recommended item is selected using the feature amount.

図8は、本実施形態における端末装置10及びコーディネート推薦装置20aの機能構成を表す概略ブロック図である。同図にいて、図2の各部に対応する部分には、同一の符号を付し、説明を省略する。コーディネート推薦装置20aは、バスで接続されたCPUやメモリや補助記憶装置などを備え、配信プログラムを実行する。配信プログラムの実行によって、コーディネート推薦装置20aは、通信部201、制御部202、画像取得部203、モデル特徴量抽出部204a、モデル生成部205a、モデルDB206a、保有特徴量抽出部207a、候補アイテムDB208a、推薦アイテム選択部209a、配信部210、入力特徴量抽出部211aを備える装置として機能する。なお、コーディネート推薦装置20aの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、配信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、配信プログラムは、電気通信回線を介して送受信されてもよい。   FIG. 8 is a schematic block diagram showing functional configurations of the terminal device 10 and the coordination recommendation device 20a in the present embodiment. In the figure, parts corresponding to the respective parts in FIG. The coordination recommendation device 20a includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes a distribution program. By executing the distribution program, the coordination recommendation device 20a includes a communication unit 201, a control unit 202, an image acquisition unit 203, a model feature amount extraction unit 204a, a model generation unit 205a, a model DB 206a, a retained feature amount extraction unit 207a, and a candidate item DB 208a. , Function as an apparatus including a recommended item selection unit 209a, a distribution unit 210, and an input feature amount extraction unit 211a. Note that all or part of the functions of the coordination recommendation device 20a may be realized using hardware such as an ASIC, PLD, or FPGA. The distribution program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the distribution program may be transmitted / received via a telecommunication line.

モデル特徴量抽出部204aは、図2のモデル特徴量抽出部204と同様に、コーディネート画像のパーツ領域の特徴量を抽出するが、さらに、コーディネート画像のベースカラー、アソートカラー、アクセントカラーの特徴量(第1特徴量)を抽出する。なお、この特徴量は、カラーヒストグラムに基づく特徴量である。例えば、この特徴量は、パーツ領域の特徴量と同様、該当する領域のカラーヒストグラムを、k−means法などによりクラスタリングしたクラスタの重心ベクトルである。   The model feature quantity extraction unit 204a extracts the feature quantity of the part area of the coordinated image in the same manner as the model feature quantity extraction unit 204 of FIG. 2, but further, the feature quantity of the base color, the assorted color, and the accent color of the coordinated image (First feature amount) is extracted. This feature amount is a feature amount based on a color histogram. For example, this feature amount is a centroid vector of a cluster obtained by clustering the color histogram of the corresponding region by the k-means method or the like, similar to the feature amount of the part region.

また、ベースカラーとは、服装の全体的な見た目の雰囲気を決める色であり、全体の7割ほどの占める色のことである。スーツや、ワンピース、コートなど大きい面積を占める服の色がベースカラーとなる。アソートカラーとは、ベースカラーを引き立てて全体を纏める色で、全体の2割から3割ほどを占める色のことである。ブラウスやベスト、スカート、パンツ、靴、バッグなどの色がアソートカラーとなる。アクセントカラーはファッションを引き締める全体の1割ほどを占める色のことである。アクセントカラーには、ベースカラーと対照的な色や、目立つ色を選ぶとメリハリができると言われている。アクセサリやネクタイ、スカーフなどの色が、アクセントカラーとなるとことが多い。   The base color is a color that determines the overall appearance atmosphere of the clothes, and is a color that occupies about 70% of the whole. The base color is the color of clothes that occupy a large area, such as suits, dresses, and coats. The assorted color is a color that brings together the entire base color and occupies about 20% to 30% of the whole. The colors of blouse, vest, skirt, pants, shoes, bags, etc. are assorted colors. Accent color is a color that accounts for about 10% of the overall fashion. It is said that the accent color can be sharpened by selecting a color that contrasts with the base color or a conspicuous color. The colors of accessories, ties, scarves, etc. often become accent colors.

モデル特徴量抽出部204aは、SaliencyMapを用いて、コーディネート画像各々から、ベースカラーの特徴量、アソートカラーの特徴量、アクセントカラーの特徴量を抽出する。SaliecyMapとは、画像領域に対する人の注目度を表したもので、エッジや色などの特徴量を組み合わせて算出する。モデル特徴量抽出部204aは、コーディネート画像の人物領域のSaliencyMapを算出する。SaliencyMapの算出には、例えば以下の文献に開示される技術が適用されてもよい。L.itti, C.Koch, E.Niebur, "A Model of Saliency-Based Visual Attention for Rapid Scene Analysis", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.20, No.11, pp.1254-1259, Nov 1998。   The model feature amount extraction unit 204a extracts a base color feature amount, an assorted color feature amount, and an accent color feature amount from each coordinated image using the SaliencyMap. SaliencyMap represents the degree of attention of a person with respect to an image area, and is calculated by combining feature quantities such as edges and colors. The model feature quantity extraction unit 204a calculates the SalietyMap of the person area of the coordinated image. For example, the technology disclosed in the following document may be applied to the calculation of the SaliencyMap. L.itti, C.Koch, E.Niebur, "A Model of Saliency-Based Visual Attention for Rapid Scene Analysis", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.20, No.11, pp.1254-1259, Nov 1998.

例えば、モデル特徴量抽出部204aは、Saliency値が閾値Th1より低く、かつ、全体の面積を1としたときの面積が閾値Th2よりも大きい領域をベースカラーの領域とする。また、モデル特徴量抽出部204aは、Saliency値が閾値Th3より高く、かつ、面積が閾値Th4よりも小さい領域をアクセントカラーの領域とする。また、Saliency値が閾値Th1より高く、閾値Th3より低く、面積が閾値Th4よりも大きく、閾値Th2よりも小さい領域をアソートカラーの領域とする。モデル特徴量抽出部204aは、コーディネート画像各々について、ベースカラーの特徴量、アクセントカラーの特徴量、アソートカラーの特徴量を抽出する。   For example, the model feature amount extraction unit 204a sets a region having a Salientity value lower than the threshold value Th1 and a larger area than the threshold value Th2 when the total area is 1 as the base color region. Further, the model feature amount extraction unit 204a sets an area having an Saliency value higher than the threshold Th3 and an area smaller than the threshold Th4 as an accent color area. Further, a region where the Saliency value is higher than the threshold value Th1, lower than the threshold value Th3, the area is larger than the threshold value Th4, and smaller than the threshold value Th2 is set as an assorted color region. The model feature quantity extraction unit 204a extracts a base color feature quantity, an accent color feature quantity, and an assorted color feature quantity for each coordinated image.

モデル生成部205aは、図2のモデル生成部205と同様に、パーツ領域に関するモデル情報を生成するが、さらに、ベースカラー、アソートカラー、アクセントカラーに関するモデル情報も生成する。具体的には、モデル生成部205aは、コーディネート画像群における、ベースカラーの特徴量のある値と、アソートカラーの特徴量のある値と、アクセントカラーの特徴量のある値との共起数をカウントし、その組み合わせの出現確率を算出する。モデル生成部205aは、算出した出現確率を、特徴量の値の組み合わせと対応付けて、モデルDB206aに記憶させる。   The model generation unit 205a generates model information related to the part area in the same manner as the model generation unit 205 in FIG. 2, but also generates model information related to the base color, assortment color, and accent color. Specifically, the model generation unit 205a determines the number of co-occurrence values of the base color feature value, the assorted color feature value, and the accent color feature value in the coordinated image group. Count and calculate the appearance probability of the combination. The model generation unit 205a stores the calculated appearance probability in the model DB 206a in association with the combination of feature value values.

モデルDB206aは、図2のモデルDB206と同様に、パーツ領域に関するモデル情報を記憶するが、さらに、ベースカラー、アソートカラー、アクセントカラーに関するモデル情報も記憶する。図9は、モデルDB206aの記憶内容例を示すテーブルである。図9に示す例は、ベースカラー、アソートカラー、アクセントカラーに関するモデル情報である。図9の例では、ベースカラー特徴量の値「BC1」と、アソートカラー特徴量の値「SC1」と、アクセントカラーの特徴量の値「AC1」と、出現確率「PC1」とが対応付けられている。同様に、ベースカラー特徴量の値「BC1」と、アソートカラー特徴量の値「SC1」と、アクセントカラーの特徴量の値「AC2」と、出現確率「PC2」とが対応付けられている。   The model DB 206a stores model information related to the part area in the same manner as the model DB 206 in FIG. 2, but also stores model information related to the base color, assorted color, and accent color. FIG. 9 is a table showing an example of the contents stored in the model DB 206a. The example shown in FIG. 9 is model information regarding the base color, assorted color, and accent color. In the example of FIG. 9, the base color feature value “BC1”, the assorted color feature value “SC1”, the accent color feature value “AC1”, and the appearance probability “PC1” are associated with each other. ing. Similarly, the base color feature value “BC1”, the assorted color feature value “SC1”, the accent color feature value “AC2”, and the appearance probability “PC2” are associated with each other.

保有特徴量抽出部207aは、図2の保有特徴量抽出部207と同様に、保有アイテムのパーツ領域に関する特徴量を抽出するが、さらに、ベースカラー、アソートカラー、アクセントカラーのうち、対応するものに関する特徴量(第2特徴量)も抽出する。なお、その保有アイテムが、ベースカラー、アソートカラー、アクセントカラーのうち、どのカラー分類に対応するかは、例えば、アイテムの種別に応じて、予め決められていてもよい。保有特徴量抽出部207aは、抽出した特徴量を、候補アイテムDB208aに記憶させる。   The possessed feature quantity extraction unit 207a extracts feature quantities related to the part area of the possessed item in the same manner as the possessed feature quantity extraction unit 207 of FIG. 2, and further, a corresponding one of the base color, assort color, and accent color The feature amount related to (second feature amount) is also extracted. In addition, which color classification corresponds to the possessed item among the base color, the assortment color, and the accent color may be determined in advance according to the type of the item, for example. The possessed feature amount extraction unit 207a stores the extracted feature amount in the candidate item DB 208a.

候補アイテムDB208aは、図2の候補アイテムDB208と同様に、保有アイテムのパーツ領域に関する特徴量と、保有アイテムに関する情報とを記憶するが、さらに、ベースカラー、アソートカラー、アクセントカラーなどのカラー分類と、その特徴量とを記憶する。図10は、候補アイテムDB208aの記憶内容例を示すテーブルである。図10に示す例では、候補アイテムDB208aは、アイテム名と、カラー分類と、その特徴量とを対応付けて記憶する。例えば、アイテム名「帽子H1」には、カラー分類「アクセントカラー」と、特徴量「AC3」とを対応付けて記憶する。また、複数のカラー分類に対応するアイテム名「ジャケットJ1」には、カラー分類「ベースカラー」と特徴量「BC2」、カラー分類「アクセントカラー」と特徴量「AC5」が対応付けられている。   Similar to the candidate item DB 208 in FIG. 2, the candidate item DB 208 a stores the feature amount relating to the part area of the possessed item and the information relating to the possessed item, and further includes color classification such as base color, assorted color, and accent color. The feature amount is stored. FIG. 10 is a table showing an example of stored contents of the candidate item DB 208a. In the example illustrated in FIG. 10, the candidate item DB 208 a stores the item name, the color classification, and the feature amount in association with each other. For example, the item name “hat H1” stores the color classification “accent color” and the feature amount “AC3” in association with each other. In addition, the item name “jacket J1” corresponding to a plurality of color classifications is associated with the color classification “base color” and the feature quantity “BC2”, the color classification “accent color”, and the feature quantity “AC5”.

入力特徴量抽出部211aは、モデル特徴量抽出部204aと同様にして、入力画像について、パーツ領域の特徴量と、カラー分類の特徴量(第3特徴量)とを抽出する。
推薦アイテム選択部209aは、図2の推薦アイテム選択部209と同様にして、推薦要求情報で指定された種別の各保有アイテムの出現確率を、第1の出現確率として、モデルDB206aから読み出す。さらに、推薦アイテム選択部209aは、カラー分類の特徴量に関する出現確率についても、パーツ領域の場合と同様にして、推薦要求情報で指定された種別の各保有アイテムの出現確率を、第2の出現確率として、モデルDB206aから読み出す。推薦アイテム選択部209aは、保有アイテムごとに、第1の出現確率と第2の出現確率との和をとり、その保有アイテムの評価値とする。推薦アイテム選択部209aは、この評価値が最も大きい保有アイテムを、推薦するアイテムとして選択する。なお、評価値は、第1の出現確率と、第2の出現確率との積であってもよい。
The input feature amount extraction unit 211a extracts the feature amount of the part area and the color classification feature amount (third feature amount) from the input image in the same manner as the model feature amount extraction unit 204a.
The recommended item selection unit 209a reads the appearance probability of each possessed item of the type specified by the recommendation request information from the model DB 206a as the first appearance probability in the same manner as the recommended item selection unit 209 in FIG. Further, the recommended item selection unit 209a also determines the appearance probability of each possessed item of the type specified in the recommendation request information for the appearance probability related to the feature amount of the color classification in the same manner as in the part area. Read out from the model DB 206a as a probability. The recommended item selection unit 209a calculates the sum of the first appearance probability and the second appearance probability for each possessed item and sets the sum as the evaluation value of the possessed item. The recommended item selection unit 209a selects the possessed item having the largest evaluation value as the recommended item. The evaluation value may be a product of the first appearance probability and the second appearance probability.

以上のように構成されたコーディネート推薦装置20aによれば、パーツ領域とは異なる基準で服装を分割した複数の領域各々の特徴量の、少なくとも一つの他の領域の特徴量との組み合わせの適合度を示すモデル情報を、パーツ領域によるモデル情報に加えて、参照して、ベースとなるコーディネートとの適合度が高いアイテムを推薦する。したがって、パーツ領域によるモデル情報のみを参照する際に比べて、そのコーディネートにより確実に適合したアイテムを推薦することができる。   According to the coordinate recommendation device 20a configured as described above, the fitness of the combination of the feature quantities of each of the plurality of areas obtained by dividing the clothing with a reference different from the part area, with the feature quantities of at least one other area. In addition to the model information by the parts area, the model information indicating is referred to and an item having a high degree of fitness with the base coordinate is recommended. Therefore, it is possible to recommend an item that is surely matched by the coordination as compared with the case where only the model information by the part area is referred to.

[変形例]
なお、上述の各実施形態では、画像取得部203が、取得したコーディネート画像をカテゴリごとに分類し、モデル生成部205は、カテゴリごとにモデルを生成してもよい。この場合、ユーザは、アイテムの推薦を要求する際にカテゴリも指定し、推薦アイテム選択部209は、モデルDB206を参照する際に、ユーザにより指定されたカテゴリのモデルのみを参照する。
[Modification]
In each of the above-described embodiments, the image acquisition unit 203 may classify the acquired coordinated images for each category, and the model generation unit 205 may generate a model for each category. In this case, the user also specifies a category when requesting item recommendation, and the recommended item selection unit 209 refers only to a model of the category specified by the user when referring to the model DB 206.

カテゴリごとに分類する方法として、例えば画像を収集するサイトでカテゴリ別にタグ付されている場合には、画像取得部203は取得したコーディネート画像をそれぞれのカテゴリの中から適合するカテゴリに分類する。また、画像取得部203は、コーディネート画像を取得したサイトごとにコーディネート画像を分類してもよいし、季節や天候、出かけ先などTPO(Time Place Occasion)にあったカテゴリごとに分類してもよい。また、カテゴリは、上述したカテゴリ以外のカテゴリに分類されてもよい。例えば、カテゴリは、「春、暖かい、入学式」、「春、肌寒い、卒業式」などの季節や用途ごとのカテゴリであってもよいし、「30代、身長低い、フェミニン」、「40代、大柄、フォーマル」などの雰囲気ごとのカテゴリであってもよい。なお、カテゴリの分類は、人手で行われてもよい。   As a method of classifying by category, for example, when a tag is attached to each category on the site where the images are collected, the image acquisition unit 203 classifies the acquired coordinated image into a suitable category from each category. In addition, the image acquisition unit 203 may classify the coordinated image for each site from which the coordinated image is acquired, or may classify the image according to the category in accordance with TPO (Time Place Occasion) such as season, weather, and destination. . Further, the category may be classified into a category other than the above-described categories. For example, the category may be a category for each season or usage such as “spring, warm, entrance ceremony”, “spring, chilly, graduation ceremony”, “30s, short stature, feminine”, “40s” , Large, formal, etc. The classification of categories may be performed manually.

また、上述の各実施形態では、保有アイテムは、ユーザが保有しているアイテムであるとして説明したが、これに限らない。例えば、保有アイテムは、店舗が保有しているアイテムであり、販売促進のために、コーディネート推薦装置20、20aが、店舗が保有しているアイテムを、ユーザに推薦するようにしてもよい。   Moreover, although each above-mentioned embodiment demonstrated the possession item as the item which the user possesses, it is not restricted to this. For example, the possessed item is an item possessed by the store, and the coordination recommendation devices 20 and 20a may recommend the item retained by the store to the user for sales promotion.

また、上述の各実施形態では、コーディネート推薦装置20、20aは、画像取得部203、モデル特徴量抽出部204、モデル生成部205を有しているが、これに限らない。例えば、これらを別の装置が有しており、モデルDB206は、その別の装置が生成したモデル情報を格納していてもよい。
また、上述の各実施形態では、推薦要求情報に含まれる入力画像は、コーディネート画像であるとしたが、全てのアイテムが含まれているコーディネートの画像でなくてもよい。例えば、モデルが2−グラムであれば、入力画像に含まれるアイテムは一つであってもよい。また、入力画像には、推薦するアイテムと同じ種別のアイテムが含まれていてもよい。
In each of the above-described embodiments, the coordination recommendation devices 20 and 20a include the image acquisition unit 203, the model feature amount extraction unit 204, and the model generation unit 205. However, the present invention is not limited to this. For example, these may be stored in another device, and the model DB 206 may store model information generated by the other device.
In each of the above-described embodiments, the input image included in the recommendation request information is a coordinated image. However, the input image may not be a coordinated image including all items. For example, if the model is 2-gram, the number of items included in the input image may be one. The input image may include an item of the same type as the recommended item.

また、上述の各実施形態では、パーツ領域に関するモデル情報として、N−グラムを用いたが、式(1)で表される共起確率P(c・・・c)を用いてもよい。なお、cは、i番目のパーツ領域の特徴量であり、Qは、パーツ領域の数である。
また、N−グラムのNの値を、パーツ領域によって、異なる値としてもよい。
In each of the above-described embodiments, N-grams are used as the model information related to the part region. However, the co-occurrence probability P (c 1 ... C Q ) represented by Expression (1) may be used. . Note that c i is a feature amount of the i-th part area, and Q is the number of part areas.
Further, the value of N in the N-gram may be different depending on the part region.

Figure 2015228129
Figure 2015228129

また、上述の各実施形態では、パーツ領域を、人物の胴、腕、足などの各部位が撮像されている領域としたが、これに限らない。例えば、パーツ領域は、衣服やアクセサリ毎の領域であってもよい。
また、上述の各実施形態において、推薦アイテム選択部209、209aは、出現確率などの評価値が最も大きい保有アイテムのみを推薦しているが、最も大きいものだけでなくなく、大きい方から3番目のものまで、あるいは、評価値が所定の閾値以上のものなど、複数の保有アイテムを推薦するようにしてもよい。
また、上述の各実施形態において、パーツ領域の特徴量として、複数の特徴量(例えばカラーヒストグラムとHOG)を算出する場合は、図7のステップSb7において、各特徴量についての出現確率を要素とするベクトルの大きさが最も大きい保有アイテムを推薦するようにしてもよい。
Further, in each of the above-described embodiments, the parts area is an area in which each part such as a person's torso, arms, and legs is imaged, but is not limited thereto. For example, the part area may be an area for each piece of clothing or accessory.
In each of the above-described embodiments, the recommended item selection units 209 and 209a recommend only the possessed item having the highest evaluation value such as the appearance probability, but not only the largest item but also the third item from the largest. A plurality of possessed items may be recommended, for example, items having an evaluation value equal to or greater than a predetermined threshold.
Further, in each of the above-described embodiments, when a plurality of feature amounts (for example, a color histogram and HOG) are calculated as the feature amounts of the part area, in step Sb7 in FIG. The possessed item having the largest vector size may be recommended.

さらに、上述の第2の実施形態において、パーツ領域の特徴量として、複数の特徴量を算出する場合は、各特徴量の第1の出現確率を要素とするベクトルに対して、各特徴量の第2の出現確率を要素とするベクトルを以下の文献に記載されているManifoldRankingの手法を用いて作用させることで、第1の出現確率を要素とするベクトルを修正したベクトルの大きさを評価値として用いるようにしてもよい。「Manifold-Ranking Based Image Retrieval」、MM'04, October10-16, 2004, NEW YORK。ManifoldRankingは、式(2)で表される。f*は、修正後のベクトル、yは、各特徴量の第1の出現確率を要素とするベクトルであり、Sは、カラー分類とパーツ領域に関する共起確率行列であり、式(3)で表される。αは[0,1)の値をとるパラメータである。なお、式(3)において、P()は、数(1)で定義される関数であり、cは、そのアイテムに対応するパーツ領域の特徴量、cは、そのアイテムに対応するカラー分類の特徴量である。パーツ領域、カラー分類の各々でN個の特徴量を算出している場合は、共起確率行列はN×Nの正方行列である。 Furthermore, in the above-described second embodiment, when a plurality of feature amounts are calculated as the feature amounts of the part region, each feature amount is calculated with respect to a vector having the first appearance probability of each feature amount as an element. The magnitude of the vector obtained by modifying the vector having the first appearance probability as an element is evaluated by applying the vector having the second appearance probability as an element using the method of ManifoldRanking described in the following document. You may make it use as. “Manifold-Ranking Based Image Retrieval”, MM'04, October 10-16, 2004, NEW YORK. ManifoldRanking is represented by the formula (2). f * is a corrected vector, y is a vector having the first appearance probability of each feature amount as an element, S is a co-occurrence probability matrix regarding the color classification and the part region, and expressed. α is a parameter having a value of [0, 1). In Expression (3), P () is a function defined by the number (1), c i is a feature amount of the part area corresponding to the item, and c j is a color corresponding to the item. This is a feature amount of classification. When N feature values are calculated for each of the part region and the color classification, the co-occurrence probability matrix is an N × N square matrix.

Figure 2015228129
Figure 2015228129

Figure 2015228129
Figure 2015228129

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

10…端末装置, 20、20a…コーディネート推薦装置, 30…ネットワーク, 40…共有サーバ, 101…入力部, 102…要求部, 103…通信部, 104…表示部, 201…通信部, 202…制御部, 203…画像取得部, 204、204a…モデル特徴量抽出部, 205、205a…モデル生成部, 206、206a…モデルDB, 207、207a…保有特徴量抽出部, 208、208a…候補アイテムDB, 209、209a…推薦アイテム選択部, 210…配信部, 211、211a…入力特徴量抽出部 DESCRIPTION OF SYMBOLS 10 ... Terminal device 20, 20a ... Coordination recommendation device, 30 ... Network, 40 ... Shared server, 101 ... Input part, 102 ... Request part, 103 ... Communication part, 104 ... Display part, 201 ... Communication part, 202 ... Control 203, image acquisition unit, 204, 204a ... model feature amount extraction unit, 205, 205a ... model generation unit, 206, 206a ... model DB, 207, 207a ... possessed feature amount extraction unit, 208, 208a ... candidate item DB , 209, 209a ... recommended item selection unit, 210 ... distribution unit, 211, 211a ... input feature amount extraction unit

Claims (5)

服装を分割した複数の領域各々の第1特徴量の、少なくとも一つの他の領域の第1特徴量との組み合わせの適合度を示すモデル情報を記憶するモデル記憶部と、
服装を構成するアイテムの候補各々に関する第2特徴量を記憶する候補アイテム記憶部と、
服装を構成する少なくとも一つのアイテムを示す指定情報を取得する指定取得部と、
前記複数の領域のうち、前記指定情報が示すアイテムに対応する領域各々の第3特徴量を算出する特徴量抽出部と、
前記第3特徴量と、前記候補アイテム記憶部と、前記モデル記憶部とを参照して、前記アイテムの候補の中から、前記指定情報が示すアイテムとの適合度が高いアイテムの候補を選択する推薦アイテム選択部と
を有するコーディネート推薦装置。
A model storage unit that stores model information indicating a degree of suitability of a combination of a first feature amount of each of a plurality of regions into which clothes are divided and a first feature amount of at least one other region;
A candidate item storage unit that stores a second feature amount relating to each of the item candidates constituting the clothes;
A designation acquisition unit for acquiring designation information indicating at least one item constituting the clothes;
A feature amount extraction unit that calculates a third feature amount of each region corresponding to the item indicated by the designation information among the plurality of regions;
With reference to the third feature value, the candidate item storage unit, and the model storage unit, an item candidate having a high degree of matching with the item indicated by the designation information is selected from the item candidates. A coordinate recommendation device comprising: a recommended item selection unit.
前記第1特徴量、前記第2特徴量、および前記第3特徴量は、アイテムの色または形状に関する特徴量であることを特徴とする請求項1に記載のコーディネート推薦装置。   The coordinate recommendation device according to claim 1, wherein the first feature value, the second feature value, and the third feature value are feature values related to a color or a shape of an item. 複数の学習用画像各々から、前記複数の領域について、前記第1特徴量を算出するモデル特徴量抽出部と、
前記モデル特徴量抽出部が算出した第1特徴量を参照して、前記モデル情報を生成し、前記モデル記憶部に格納するモデル生成部と
を有することを特徴とする請求項1または請求項2に記載のコーディネート推薦装置。
A model feature amount extraction unit for calculating the first feature amount for each of the plurality of regions from a plurality of learning images;
The model generation unit that generates the model information with reference to the first feature amount calculated by the model feature amount extraction unit and stores the model information in the model storage unit. Coordinate recommendation device described in 1.
前記モデル情報は、前記複数の領域とは異なる基準で服装を分割した複数の領域各々の特徴量の、少なくとも一つの他の領域の特徴量との組み合わせの適合度を示す情報を含むことを特徴とする請求項1に記載のコーディネート推薦装置。   The model information includes information indicating a matching degree of a combination of a feature amount of each of a plurality of regions obtained by dividing clothes with a different standard from the plurality of regions and a feature amount of at least one other region. The coordinate recommendation device according to claim 1. コンピュータを、請求項1から請求項4のいずれか一項に記載のコーディネート推薦装置として機能させるためのプログラム。   The program for functioning a computer as a coordination recommendation apparatus as described in any one of Claims 1-4.
JP2014113466A 2014-05-30 2014-05-30 Coordination recommendation device and program Pending JP2015228129A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014113466A JP2015228129A (en) 2014-05-30 2014-05-30 Coordination recommendation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014113466A JP2015228129A (en) 2014-05-30 2014-05-30 Coordination recommendation device and program

Publications (1)

Publication Number Publication Date
JP2015228129A true JP2015228129A (en) 2015-12-17

Family

ID=54885559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014113466A Pending JP2015228129A (en) 2014-05-30 2014-05-30 Coordination recommendation device and program

Country Status (1)

Country Link
JP (1) JP2015228129A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6209298B1 (en) * 2016-11-15 2017-10-04 一般社団法人日本ファッションスタイリスト協会 Information providing apparatus and information providing method
JP2022153197A (en) * 2021-03-29 2022-10-12 株式会社Zozo Information processing apparatus, information processing method, and information processing program
JP2022153196A (en) * 2021-03-29 2022-10-12 株式会社Zozo Information processing apparatus, information processing method, and information processing program
JP2022153195A (en) * 2021-03-29 2022-10-12 株式会社Zozo Information display device, method for displaying information, and information display program
JP7391131B2 (en) 2022-03-25 2023-12-04 株式会社Zozo Information processing device, information processing method, and information processing program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6209298B1 (en) * 2016-11-15 2017-10-04 一般社団法人日本ファッションスタイリスト協会 Information providing apparatus and information providing method
JP2018085086A (en) * 2016-11-15 2018-05-31 一般社団法人日本ファッションスタイリスト協会 Information providing device and information providing method
JP2022153197A (en) * 2021-03-29 2022-10-12 株式会社Zozo Information processing apparatus, information processing method, and information processing program
JP2022153196A (en) * 2021-03-29 2022-10-12 株式会社Zozo Information processing apparatus, information processing method, and information processing program
JP2022153195A (en) * 2021-03-29 2022-10-12 株式会社Zozo Information display device, method for displaying information, and information display program
JP7391131B2 (en) 2022-03-25 2023-12-04 株式会社Zozo Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
EP3483741B1 (en) Image retrieving apparatus, image retrieving method, and setting screen used therefor
KR102426489B1 (en) SERVER FOR PROVIDING SHOPPING MALL PLATFORM USING ARTIFICAL INTELLIGENCE NETWROK INCLUDING Recurrent Neural Network AND Deep Neural Network
US11080918B2 (en) Method and system for predicting garment attributes using deep learning
US9460518B2 (en) Visual clothing retrieval
WO2020119311A1 (en) Neural network training method and image matching method and device
CN108229559B (en) Clothing detection method, clothing detection device, electronic device, program, and medium
US20130185288A1 (en) Product search device, product search method, and computer program product
JP2020522072A (en) Fashion coordination recommendation method and device, electronic device, and storage medium
JP2015228129A (en) Coordination recommendation device and program
CN106055710A (en) Video-based commodity recommendation method and device
CN110334687A (en) A kind of pedestrian retrieval Enhancement Method based on pedestrian detection, attribute study and pedestrian's identification
JP2018084890A (en) Information processing unit, information processing method, and program
CN103140862A (en) User interface system and method of operation thereof
CN109614925A (en) Dress ornament attribute recognition approach and device, electronic equipment, storage medium
CN106030610A (en) Real-time 3D gesture recognition and tracking system for mobile devices
CN102567716A (en) Face synthetic system and implementation method
KR20200141375A (en) System, method and program for obtaining appearance descriptive data from image data
JP2014229129A (en) Combination presentation system and computer program
Kumar et al. 3D sign language recognition using spatio temporal graph kernels
JP2017084078A (en) Style search apparatus, method, and program
Sajjad et al. A study on the learning based human pose recognition
Lorenzo-Navarro et al. Evaluation of LBP and HOG descriptors for clothing attribute description
JP5720843B1 (en) Position conversion program and information processing apparatus
JP2017167759A (en) Coordination recommendation device and program
JP2015179431A (en) Retrieval device, retrieval method, and program