JP2023095908A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2023095908A
JP2023095908A JP2023072870A JP2023072870A JP2023095908A JP 2023095908 A JP2023095908 A JP 2023095908A JP 2023072870 A JP2023072870 A JP 2023072870A JP 2023072870 A JP2023072870 A JP 2023072870A JP 2023095908 A JP2023095908 A JP 2023095908A
Authority
JP
Japan
Prior art keywords
information
user
unit
person
clothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023072870A
Other languages
Japanese (ja)
Inventor
有紀江 海老山
Yukie Ebiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2023072870A priority Critical patent/JP2023095908A/en
Publication of JP2023095908A publication Critical patent/JP2023095908A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

To provide a dress proposal device for proposing dress suitable for a designated place to a user.SOLUTION: An image collection part (311) collects images about a place designated by a user. A dress information extraction part (312) extracts first information about dress of a person in the images from the images. A proposal part (313) determines dress to be proposed to the user on the basis of the first information.SELECTED DRAWING: Figure 14

Description

本発明は、服装提案装置、服装提案方法、およびプログラムに関し、特に、ユーザに服装を提案する服装提案装置等に関する。 The present invention relates to an outfit proposal device, an outfit proposal method, and a program, and more particularly to an outfit proposal device and the like for suggesting outfits to a user.

ユーザが自分の服装を決定することをサポートする関連技術が存在する。例えば、特許文献1に記載の関連技術は、場所を指定する情報をユーザから入力されたとき、指定された場所において撮影された画像を収集するものである。そして、特許文献1に記載の関連技術では、画像中の人物の服装を分析することによって、服装の傾向を示す情報を生成し、生成した情報をユーザ端末へ送信する。特許文献2に記載の関連技術は、ユーザを撮影した画像から、ユーザの服装や髪形を判別するものである。そして、特許文献2に記載の関連技術は、ユーザの服装や髪形に応じた服装のコーディネートをユーザに提案するものである。 Related technologies exist to support users in determining their clothing. For example, the related technology described in Patent Literature 1 collects images taken at a specified location when information specifying the location is input by the user. In the related technology described in Patent Literature 1, by analyzing the clothing of a person in an image, information indicating clothing trends is generated, and the generated information is transmitted to a user terminal. The related technology described in Patent Literature 2 is to determine a user's clothing and hairstyle from an image of the user. The related technology described in Patent Literature 2 proposes to the user how to coordinate clothes according to the user's clothes and hairstyle.

特開2012-173761号公報JP 2012-173761 A 特開2013-207407号公報JP 2013-207407 A

ユーザが、未知の場所、例えば外国へ初めて訪れようとしているとき、気候やマナーなどの観点で、どのような服装がふさわしいのか、ユーザには分からない場合がある。そこで、指定された場所に適した服装をユーザに提案できる技術が求められている。 When a user is about to visit an unknown place, such as a foreign country, for the first time, the user may not know what kind of clothing is appropriate in terms of climate, manners, and the like. Therefore, there is a demand for a technique that can suggest clothes suitable for a specified place to a user.

本発明の目的は、指定された場所に適した服装をユーザに提案する服装提案装置等を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide an outfit proposal device or the like that proposes to a user an outfit suitable for a specified place.

本発明の一態様に係わる情報処理システムは、ユーザの顔に関する顔情報を取得し、前記ユーザの顔に類似している人物を検出する検出手段と、当該検出された人物の服装に関する情報に基づいて、前記ユーザに服装を提案する提案手段と、を備えている。 An information processing system according to an aspect of the present invention includes a detection unit that acquires face information about a user's face and detects a person whose face is similar to the user's face; and suggestion means for proposing clothes to the user.

本発明の一態様に係わる情報処理方法では、コンピュータが、ユーザの顔に関する顔情報を取得し、前記ユーザの顔に類似している人物を検出し、当該検出された人物の服装に関する情報に基づいて、前記ユーザに服装を提案する、ことを含む。 In an information processing method according to an aspect of the present invention, a computer obtains face information about a user's face, detects a person whose face is similar to the user's face, and based on information about clothing of the detected person, and suggesting clothing to the user.

本発明の一態様に係わるプログラムは、ユーザの顔に関する顔情報を取得し、前記ユーザの顔に類似している人物を検出することと、当該検出された人物の服装に関する情報に基づいて、前記ユーザに服装を提案することと、をコンピュータに実行させる。 A program according to an aspect of the present invention acquires face information about a user's face, detects a person whose face is similar to the user's face, and based on information about clothes of the detected person, suggesting clothing to the user; and causing a computer to execute.

本発明によれば、指定された場所に適した服装をユーザに提案することができる。 According to the present invention, it is possible to suggest clothing suitable for a designated place to a user.

実施形態1に係わる通信システムの構成を示す図である。1 is a diagram showing a configuration of a communication system according to Embodiment 1; FIG. 実施形態1に係わる服装提案装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an outfit proposal device according to Embodiment 1; FIG. 実施形態1に係わる服装提案装置の画像収集部によって収集された一つの画像を示す。4 shows one image collected by the image collection unit of the outfit proposal device according to the first embodiment; 実施形態1に係わる服装提案装置の服装抽出部から提案部へ送信されるデータの一例を示す4 shows an example of data transmitted from an outfit extraction unit of the outfit proposal device according to the first embodiment to the proposal unit; 実施形態1に係わる服装提案装置の動作の流れを示すフローチャートである。4 is a flow chart showing the flow of operations of the outfit proposal device according to the first embodiment; 実施形態1に係わる服装提案装置が備えた提案部の構成を示すブロック図である。2 is a block diagram showing the configuration of a proposal unit included in the outfit proposal device according to Embodiment 1; FIG. 実施形態1に係わる服装提案装置が備えた提案部の動作の流れを示すフローチャートである。4 is a flow chart showing the flow of operations of a proposal unit provided in the outfit proposal device according to the first embodiment; 実施形態1に係わる服装提案装置の提案部が提供する提案情報の一例である。5 is an example of proposal information provided by the proposal unit of the outfit proposal device according to the first embodiment; 実施形態2に係わる通信システムの構成を示す図である。FIG. 10 is a diagram showing the configuration of a communication system according to Embodiment 2; 実施形態2に係わる服装提案装置の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of an outfit proposal device according to Embodiment 2; 実施形態2に係わる服装提案装置が備えた提案部の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of a proposal section included in an outfit proposal device according to Embodiment 2; 実施形態2に係わる服装提案装置の動作の流れを示すフローチャートである。10 is a flow chart showing the flow of operations of an outfit proposal device according to Embodiment 2. FIG. 実施形態3に係わる服装提案装置の動作の流れを示すフローチャートである。14 is a flow chart showing the flow of operations of an outfit proposal device according to Embodiment 3. FIG. 実施形態4に係わる服装提案装置の構成を示すブロック図である。FIG. 13 is a block diagram showing the configuration of an outfit proposal device according to Embodiment 4; 実施形態5に係わる情報処理装置のハードウェア構成の一例を示すブロック図である。FIG. 14 is a block diagram showing an example of a hardware configuration of an information processing apparatus according to a fifth embodiment; FIG.

〔実施形態1〕
図1~図8を参照して、実施形態1について以下で説明する。
[Embodiment 1]
Embodiment 1 will be described below with reference to FIGS. 1 to 8. FIG.

(通信システム1)
図1は、本実施形態1に係わる通信システム1の構成を示すブロック図である。図1に示すように、通信システム1は、服装提案装置10、入力部20、ユーザ情報記憶部30、および提示部60を備えている。
(Communication system 1)
FIG. 1 is a block diagram showing the configuration of a communication system 1 according to the first embodiment. As shown in FIG. 1 , the communication system 1 includes an outfit proposal device 10 , an input section 20 , a user information storage section 30 and a presentation section 60 .

服装提案装置10は、通信システム1の他の各部と、それぞれ接続されている。また、服装提案装置10は、図示しない通信装置を介して、インターネットと接続している。通信システム1の機能については、入力部20の構成の説明の後で、説明する。 The outfit proposal device 10 is connected to other units of the communication system 1, respectively. Also, the outfit proposal device 10 is connected to the Internet via a communication device (not shown). Functions of the communication system 1 will be described after the configuration of the input unit 20 is described.

入力部20は、服装提案装置10への入力をユーザが行うための入力デバイスである。入力部20は、例えば、キーボード、マウス、タッチパネル、またはその他の入力デバイスであってよい。ここでいう場所には、例えば、特定の国名や、特定の地名や、特定の国または地域のレストラン、ダイニングカフェ、公共施設、コンサートホール、イベント会場、スポーツ競技場、宗教施設などが含まれる。 The input unit 20 is an input device for the user to input to the outfit proposal device 10 . The input unit 20 may be, for example, a keyboard, mouse, touch panel, or other input device. The places referred to here include, for example, specific country names, specific place names, restaurants in specific countries or regions, dining cafes, public facilities, concert halls, event venues, sports stadiums, religious facilities, and the like.

例えば、入力部20は、場所の名称(たとえば、アメリカ、ニューヨーク、恵比寿のレストラン、東京ドーム、代々木公園など)を入力するためのユーザ操作を受け付ける。あるいは、入力部20は、場所を特定するためのその他の情報、例えば住所、電話番号、または位置情報などを入力するためのユーザ操作を受け付けてもよい。入力部20は、ユーザから入力された場所を指定する情報を、服装提案装置10へ送信する。 For example, the input unit 20 accepts a user's operation for inputting the name of a place (eg, America, New York, Ebisu restaurant, Tokyo Dome, Yoyogi Park, etc.). Alternatively, the input unit 20 may accept a user operation for inputting other information for specifying a location, such as an address, telephone number, or positional information. The input unit 20 transmits the information specifying the location input by the user to the outfit proposal device 10 .

服装提案装置10は、入力部20から、場所を指定する情報を受信する。服装提案装置10は、指定された場所の情報を用いて、図示しない通信装置を通じて、インターネット検索を行うことにより、指定された場所の情報が紐付けられた画像を、インターネット上から収集する。服装提案装置10によって収集された画像は、入力部20が受け付けたユーザ操作によって指定された場所で撮影された画像を含んでいる。なお画像は、動画の一フレームであってもよい。 Outfit proposal device 10 receives information designating a place from input unit 20 . The outfit proposal device 10 searches the Internet through a communication device (not shown) using the information of the designated location, and collects images linked with the information of the designated location from the Internet. The images collected by the outfit proposal device 10 include images shot at locations designated by user operations accepted by the input unit 20 . Note that the image may be one frame of a moving image.

服装提案装置10は、こうして収集した画像を解析することによって、画像中の人物(指定された場所で撮影された人物であって、通常、ユーザとは異なる他人である)の服装を判別する。ここでいう服装とは、一人の人物が着用している要素の組み合わせのことである。服装を構成する要素には、衣服の種類のほか、服飾品、露出の高さ、丈、柄、および色が含まれる。服装提案装置10は、画像中の人物の服装の判別結果に基づいて生成したデータ(後述)を、提示部60へ出力する。 The outfit proposal device 10 analyzes the collected images to determine the outfit of a person in the image (a person photographed at a designated place and usually a person different from the user). The clothing here is a combination of elements worn by one person. Elements that make up clothing include the type of clothing, accessories, height of exposure, length, pattern, and color. The outfit proposal device 10 outputs to the presentation unit 60 data (described later) generated based on the determination result of the outfit of the person in the image.

さらに、服装提案装置10は、画像中の人物の服装の判別結果に基づいて、ユーザに提供する提案情報を生成する。提案情報とは、ユーザに提案する服装の情報である。服装提案装置10は、生成した提案情報を、提示部60へ送信して、提示部60に提示させる。なお、服装提案装置10の動作の詳細については後述する。 Furthermore, the clothing proposal device 10 generates proposal information to be provided to the user based on the clothing identification result of the person in the image. Suggestion information is information on clothes to be proposed to the user. The outfit proposal device 10 transmits the generated proposal information to the presentation unit 60 and causes the presentation unit 60 to present the information. Details of the operation of the outfit proposal device 10 will be described later.

ユーザ情報記憶部30は、服装提案装置10に接続されており、服装提案装置10によって参照される。 The user information storage unit 30 is connected to the outfit proposal device 10 and referred to by the outfit proposal device 10 .

ユーザ情報記憶部30には、ユーザの属性を示す情報(以下では、この情報を属性情報と呼ぶ)、および、ユーザの嗜好を示す情報(以下では、この情報を嗜好情報と呼ぶ)が格納されている。ユーザの属性情報およびユーザの嗜好情報は、ユーザによって、入力部20を用いて入力される。服装提案装置10の入力受付部11(図2参照)は、ユーザの属性情報およびユーザの嗜好情報を、入力部20から取得して、ユーザ情報記憶部30に格納する。 The user information storage unit 30 stores information indicating user attributes (hereinafter referred to as attribute information) and information indicating user preferences (hereinafter referred to as preference information). ing. User attribute information and user preference information are input by the user using the input unit 20 . The input reception unit 11 (see FIG. 2) of the outfit proposal device 10 acquires the user's attribute information and the user's preference information from the input unit 20 and stores them in the user information storage unit 30 .

ユーザの属性情報には、例えば、ユーザの性別、年齢、および家族構成に関する情報が含まれる。ユーザの嗜好情報には、ユーザの好みの服装の情報が含まれる。そのほかにも、ユーザの嗜好情報には、例えば、ユーザの好みの色や柄の情報、および、ユーザが所持している衣服および服飾品に関する情報が含まれてもよい。 User attribute information includes, for example, information on the user's gender, age, and family structure. The user's preference information includes information on user's favorite clothes. In addition, the user's preference information may include, for example, information on the user's favorite colors and patterns, and information on clothes and accessories possessed by the user.

提示部60は、服装提案装置10から、提案情報を受信する。提示部60は、服装提案装置10からの指示に基づいて、提案情報を提示する。本実施形態1に係わる提示部60は、表示部61を備えている(図1参照)。例えば、提案情報が、ユーザに提案する服装の画像を含む場合、提示部60は、その画像を表示部61に表示させる。 The presentation unit 60 receives proposal information from the outfit proposal device 10 . The presentation unit 60 presents suggestion information based on instructions from the outfit suggestion device 10 . The presentation unit 60 according to the first embodiment includes a display unit 61 (see FIG. 1). For example, when the proposal information includes an image of clothes to be proposed to the user, the presentation unit 60 causes the display unit 61 to display the image.

(服装提案装置10)
図2は、服装提案装置10の構成を示すブロック図である。図2に示すように、服装提案装置10は、入力受付部11、画像収集部12、人物検出部13、服装情報抽出部14、ユーザ情報取得部15、および提案部16を備えている。
(Outfit suggestion device 10)
FIG. 2 is a block diagram showing the configuration of the outfit proposal device 10. As shown in FIG. As shown in FIG. 2 , the outfit proposal device 10 includes an input reception unit 11 , an image collection unit 12 , a person detection unit 13 , an outfit information extraction unit 14 , a user information acquisition unit 15 and a proposal unit 16 .

入力受付部11は、入力部20を介して、場所を指定する情報の入力を受け付ける。場所を指定する情報の入力は、例えば、場所の名称または住所をキーボードで入力することであってもよいし、表示部61あるいは他の表示装置(図示せず)に表示されているマップ上の位置を、ユーザがタッチまたはポインタで指し示すことであってもよい。前者の場合、キーボードが、上述した入力部20である。後者の場合、タッチパネルまたはマウスが、入力部20である。入力受付部11は、指定された場所を示す情報を、画像収集部12および提案部16へ送信する。 The input reception unit 11 receives input of information designating a location via the input unit 20 . The information specifying the place may be entered, for example, by entering the name or address of the place with a keyboard, or by inputting the information on the map displayed on the display unit 61 or another display device (not shown). The position may be indicated by a touch or a pointer by the user. In the former case, the keyboard is the input unit 20 described above. In the latter case, the touch panel or mouse is the input unit 20 . Input reception unit 11 transmits information indicating the specified location to image collection unit 12 and proposal unit 16 .

画像収集部12は、入力受付部11から、指定された場所を示す情報を受信する。画像収集部12は、指定された場所に関する画像を収集する。具体的には、画像収集部12は、場所を指定する情報を用いて、インターネット検索を行い、指定された場所の情報と紐付けられている複数の画像を、インターネット上から収集する。例えば、画像収集部12は、ポータルサイトが提供している検索エンジンに、指定された場所を示す情報と紐付いた画像を検索させてもよい。この場合、画像収集部12は、検索エンジンから、検索結果として、指定された場所に関する画像を取得する。 The image collection unit 12 receives information indicating the specified location from the input reception unit 11 . The image collection unit 12 collects images of designated places. Specifically, the image collecting unit 12 searches the Internet using the information specifying the location, and collects a plurality of images linked with the information of the specified location from the Internet. For example, the image collection unit 12 may cause a search engine provided by a portal site to search for images associated with information indicating a specified location. In this case, the image collection unit 12 acquires images related to the specified location from the search engine as search results.

図3は、服装提案装置10の画像収集部12によって収集された一つの画像pを示す。画像pは、複数の人物(ユーザとは異なる他人である)を含んでいる。画像収集部12は、例えば図3に示すような画像を収集する。画像収集部12は、こうして収集した複数の画像を、人物検出部13へ送信する。 FIG. 3 shows one image p collected by the image collection unit 12 of the outfit proposal device 10. As shown in FIG. The image p includes a plurality of persons (persons different from the user). The image acquisition unit 12 acquires images such as those shown in FIG. 3, for example. The image collection unit 12 transmits the plurality of images collected in this manner to the person detection unit 13 .

人物検出部13は、画像収集部12から、インターネット上から収集された複数の画像を取得する。人物検出部13は、収集された複数の画像から、人物の第1の特徴を抽出する。第1の特徴は、人物らしさを表す特徴で、人物の肩、腕、足、頭部、顔のうちのいずれが1つ、あるいはいずれか2つ以上の特徴を含んでも良い。人物検出部13は、人物の第1の特徴を用いて、これらの複数の画像の各々から人物の領域を検出する。具体的には、人物検出部13は、各画像において、人物らしさに対応する評価値が閾値を超える領域を、人物の領域であると判別する。人物の領域は、人物部分の画像を包含する矩形領域あるいは人物部分の画像を包含する他の形状の領域でよい。これによって、例えば、人物検出部13は、図3に示す画像pから、人物Aの領域を検出する。人物検出部13は、人物Aの領域を示す情報を出力する。人物の領域を示す情報は、人物(たとえば、人物A)の画像を含む領域の画像のデータであってもよい。 The person detection unit 13 acquires a plurality of images collected from the Internet from the image collection unit 12 . The person detection unit 13 extracts a first feature of a person from a plurality of collected images. The first feature is a feature that expresses the likeness of a person, and may include one or more of the shoulders, arms, legs, head, and face of a person. The person detection unit 13 uses the first feature of the person to detect the area of the person from each of the plurality of images. Specifically, the person detection unit 13 determines that an area in each image in which the evaluation value corresponding to the likeliness of a person exceeds a threshold is an area of a person. The person area may be a rectangular area containing the image of the person part or another shaped area containing the image of the person part. Thereby, for example, the person detection unit 13 detects the area of the person A from the image p shown in FIG. The person detection unit 13 outputs information indicating the area of person A. FIG. The information indicating the person's area may be data of an image of an area including an image of a person (for example, person A).

以上のように、人物検出部13は、画像収集部12によって収集された複数の画像から人物を検出する。 As described above, the person detection unit 13 detects a person from multiple images collected by the image collection unit 12 .

また、人物検出部13は、人物の領域に対応する人物Aの属性を判別する。人物の属性とは、例えば、人物の性別および年齢層である。人物検出部13は、図示されない記憶装置に記憶された服装、髪型などのサンプルデータを教師データとして用いて、性別または年齢層ごとに、人物の第2の特徴を予め学習する。第2の特徴は、人物の属性に関わる特徴である。学習の処理に用いられるソフトウェアアルゴリズムは、特に限定されない。そして、人物検出部13は、学習結果に基づいて、画像p中の人物Aの性別および年齢層を判別(識別ともいう)する。 Also, the person detection unit 13 determines the attribute of person A corresponding to the area of the person. A person's attributes are, for example, the person's gender and age group. The person detection unit 13 uses sample data such as clothes and hairstyles stored in a storage device (not shown) as teacher data to previously learn the second characteristics of a person for each gender or age group. A second feature is a feature related to a person's attributes. A software algorithm used for the learning process is not particularly limited. Then, the person detection unit 13 determines (also referred to as identification) the sex and age group of the person A in the image p based on the learning result.

人物検出部13は、画像中の人物の領域を示す情報と、人物の属性を示す情報とを紐付けて、服装情報抽出部14へ送信する。人物検出部13が検出する人物は、画像収集部12によって収集された画像中の人物であり、通常はユーザに対し他人である。したがって、人物の属性を示す情報を、以下では、他人の属性情報と呼ぶ。 The person detection unit 13 associates the information indicating the area of the person in the image with the information indicating the attributes of the person, and transmits the information to the clothing information extraction unit 14 . The person detected by the person detection unit 13 is the person in the image collected by the image collection unit 12, and is usually a stranger to the user. Therefore, information indicating a person's attribute is hereinafter referred to as other person's attribute information.

服装情報抽出部14は、人物検出部13から、人物Aの領域を示す情報を受信する。服装情報抽出部14は、人物Aの領域を示す情報から人物Aの服装に関する第1の情報を抽出する。服装情報抽出部14は、人物Aの領域の画像のデータを分析することによって、人物Aの服装を判別(識別)する。 The clothing information extraction unit 14 receives information indicating the area of the person A from the person detection unit 13 . The clothing information extraction unit 14 extracts the first information about the clothing of the person A from the information indicating the area of the person A. FIG. The clothing information extraction unit 14 determines (identifies) the clothing of the person A by analyzing the data of the image of the person A's area.

具体的には、服装情報抽出部14は、人物Aの領域の画像のデータから検出した服装fの特徴と、様々な種類の服装の特徴とを比較して、これらの特徴同士の類似度を計算する。そして、服装情報抽出部14は、計算した類似度に基づいて、人物Aの服装fを判別する。 Specifically, the clothing information extraction unit 14 compares the features of the clothing f detected from the data of the image of the area of the person A with the features of various types of clothing, and determines the degree of similarity between these features. calculate. Then, the clothing information extraction unit 14 determines the clothing f of the person A based on the calculated degree of similarity.

服装情報抽出部14は、様々な種類の服装の特徴を、サンプル画像を用いた機械学習によって得てもよい。服装情報抽出部14は、機械学習に用いられるサンプル画像を、例えばインターネット上から取得してもよい。服装の特徴は、複数の特徴を要素とする特徴ベクトルで表されてもよい。服装の特徴の間の類似度は、例えば、特徴ベクトル間の距離又は方向に基づいて計算されてもよいし、特徴ベクトル間の相関関数に基づいて計算されてもよい。 The clothing information extraction unit 14 may obtain characteristics of various types of clothing by machine learning using sample images. The clothing information extraction unit 14 may acquire sample images used for machine learning, for example, from the Internet. A feature of clothing may be represented by a feature vector having a plurality of features as elements. The similarity between clothing features may be calculated, for example, based on the distance or direction between the feature vectors, or may be calculated based on the correlation function between the feature vectors.

服装情報抽出部14は、上述した手順で、画像p中の人物の領域ごとに、対応する人物が着用している服装をそれぞれ判別する。服装情報抽出部14は、人物の服装の判別結果に基づいて、人物の服装を示す情報(以下では、他人の服装情報と呼ぶ)を生成する。人物の服装とは、具体的には、1人の人物が着用している服装を構成する要素(例えば、衣服、服飾品)の組み合わせである。他人の服装情報は、第1の情報の一例である。あるいは、服装情報抽出部14は、ユーザ情報記憶部30を参照し、ユーザの属性情報またはユーザの嗜好情報に合致する他人の属性情報を、第1の情報として抽出してもよい。例えば、服装情報抽出部14は、画像p中の人物の中から、ユーザの属性(例えばユーザの年齢および性別)と類似する人物を判別し、ユーザと属性の類似する人物の服装を示す情報のみを、他人の服装情報として抽出する。あるいは、服装情報抽出部14は、画像p中の人物の中から、ユーザの嗜好(例えば好みの色)と合致する人物の服装を判別し、ユーザの嗜好と合致する人物の服装を示す情報のみを、他人の服装情報として抽出する。 The clothing information extraction unit 14 determines the clothing worn by the corresponding person for each area of the person in the image p by the procedure described above. The clothing information extraction unit 14 generates information indicating the clothing of the person (hereinafter referred to as clothing information of another person) based on the determination result of the clothing of the person. A person's clothing is, specifically, a combination of elements (for example, clothes and accessories) that constitute the clothing worn by one person. Another person's clothing information is an example of the first information. Alternatively, the clothing information extraction unit 14 may refer to the user information storage unit 30 and extract, as the first information, the attribute information of the user or the attribute information of others that matches the user's preference information. For example, the clothing information extracting unit 14 identifies persons similar to the attributes of the user (for example, age and sex of the user) from among the persons in the image p, and extracts only the information indicating the clothing of the persons whose attributes are similar to those of the user. is extracted as clothing information of others. Alternatively, the clothing information extracting unit 14 may determine the clothing of the person that matches the user's preference (for example, the favorite color) from among the persons in the image p, and extract only the information indicating the clothing of the person that matches the user's preference. is extracted as clothing information of others.

他人の服装情報は、人物が着用している服装を示す情報を含む。服装を示す情報とは、例えば、ドレスコード、衣服の種類、服飾品、露出の高さ、柄、色である。ドレスコードは、例えば、フォーマル、セミフォーマル、カジュアルなどである。衣服の種類は、例えば、スーツ、ジャケット、スカート、パンツ、ワンピース、シャツなどである。服飾品は、例えば帽子、サングラス、ネックレスなどである。露出の高さは、例えば、丈の長さやノースリーブかそうでないかで表される。柄は、例えば、ボーダー、チェック、ストライプ、なしである。色は、例えば、白、黒、グレーである。服装を示す情報には、衣服の種類、柄、色だけが含まれてもよいし、他の情報が含まれてもよい。 Others' clothing information includes information indicating the clothing worn by the person. The information indicating clothing includes, for example, dress code, clothing type, accessories, height of exposure, pattern, and color. Dress codes are, for example, formal, semi-formal, and casual. The types of clothes are, for example, suits, jackets, skirts, pants, dresses, shirts, and the like. Accessories are, for example, hats, sunglasses, necklaces, and the like. The height of exposure is represented, for example, by the length of the dress or whether it is sleeveless or not. Patterns are, for example, borders, checks, stripes, and none. Colors are, for example, white, black and gray. The information indicating clothes may include only the type, pattern, and color of the clothes, or may include other information.

服装情報抽出部14は、こうして生成した他人の服装情報に対し、人物検出部13が判別した他人の属性情報を紐付ける。そして、服装情報抽出部14は、他人の服装情報と、他人の属性情報とを紐付けたデータを、提案部16へ送信する。服装情報抽出部14は、人物検出部13が検出した人物の領域の情報も、提案部16へさらに送信してもよい。服装情報抽出部14から提案部16へ送信されたデータは、提案部16のキャッシュメモリ1610(図6参照)に格納される。 The clothing information extraction unit 14 associates attribute information of the other person determined by the person detection unit 13 with the generated clothing information of the other person. Then, the clothing information extraction unit 14 transmits to the proposal unit 16 data in which the clothing information of the other person and the attribute information of the other person are linked. The clothing information extraction unit 14 may further transmit information on the area of the person detected by the person detection unit 13 to the proposal unit 16 . The data transmitted from the clothing information extraction unit 14 to the proposal unit 16 is stored in the cache memory 1610 (see FIG. 6) of the proposal unit 16. FIG.

図4は、服装情報抽出部14から提案部16へ送信されたデータであって、提案部16のキャッシュメモリ1610に格納されているデータの一例を示す。図4に示す例において、コード(ドレスコード)、上下の衣服、服飾品、露出、柄、および色は、それぞれ、上述した他人の服装情報に含まれる。また、性別、および年齢は、上述した他人の属性情報に含まれる。しかしながら、他人の服装情報、および他人の属性情報は、図4に示す例に限定されない。 FIG. 4 shows an example of data transmitted from the clothing information extraction unit 14 to the proposal unit 16 and stored in the cache memory 1610 of the proposal unit 16 . In the example shown in FIG. 4, the code (dress code), upper and lower clothes, accessories, exposure, pattern, and color are each included in the clothing information of others described above. In addition, gender and age are included in the attribute information of others described above. However, other people's clothing information and other people's attribute information are not limited to the example shown in FIG.

ユーザ情報取得部15は、ユーザに関する情報を取得する。ユーザに関する情報とは、具体的には、ユーザの属性情報およびユーザの嗜好情報である。ユーザの属性情報およびユーザの嗜好情報は、それぞれ、第2の情報の一例である。 The user information acquisition unit 15 acquires information about users. The information about the user is specifically user attribute information and user preference information. User attribute information and user preference information are examples of second information.

ユーザ情報取得部15は、ユーザの属性情報およびユーザの嗜好情報を、上述したユーザ情報記憶部30から取得して、提案部16へ送信する。ユーザの属性情報およびユーザの嗜好情報は、どちらも第2の情報の一例である。以下では、ユーザの属性情報およびユーザの嗜好情報を併せて、ユーザの属性/嗜好情報と記載する。 The user information acquisition unit 15 acquires user attribute information and user preference information from the user information storage unit 30 described above, and transmits the information to the proposal unit 16 . Both the user attribute information and the user preference information are examples of the second information. Hereinafter, user attribute information and user preference information are collectively referred to as user attribute/preference information.

提案部16は、第1の情報および第2の情報に基づいて、ユーザに提案する服装を決定する。すなわち、第1に、提案部16は、服装情報抽出部14から、他人の服装情報と、他人の属性情報とを取得する(図4参照)。第2に、提案部16は、ユーザ情報取得部15から、ユーザの属性/嗜好情報を受信する。第3に、提案部16は、他人の服装情報と、ユーザの属性/嗜好情報とに基づいて、ユーザに提案する服装を決定する。 The suggestion unit 16 determines clothes to be suggested to the user based on the first information and the second information. That is, firstly, the proposal unit 16 acquires the other person's clothing information and the other person's attribute information from the clothing information extraction unit 14 (see FIG. 4). Second, the proposal unit 16 receives user attribute/preference information from the user information acquisition unit 15 . Thirdly, the proposal unit 16 determines clothes to be proposed to the user based on other people's clothes information and the user's attribute/taste information.

ユーザに提案する服装を決定した後、さらに提案部16は、ユーザに提案する服装を示す提案情報を生成する。そして、提案部16は、生成した提案情報を提示部60へ送信する。例えば、提案情報は、ユーザに提案する服装をお勧め順に並べたリストであってよい。あるいは、提案情報は、ユーザに提案する服装の画像(図8参照)であってもよい。なお、提案部16の詳細な構成や動作については、後述する。 After determining the clothing to be proposed to the user, the proposal unit 16 further generates proposal information indicating the clothing to be proposed to the user. The proposal unit 16 then transmits the generated proposal information to the presentation unit 60 . For example, the suggestion information may be a list in which clothes suggested to the user are arranged in order of recommendation. Alternatively, the suggestion information may be an image of clothes suggested to the user (see FIG. 8). The detailed configuration and operation of the proposal unit 16 will be described later.

(服装提案装置10の動作)
図5を参照して、上述した服装提案装置10の各部(図2参照)の動作を詳細に説明する。図5は、服装提案装置10の動作の流れを示すフローチャートである。
(Operation of outfit proposal device 10)
The operation of each part (see FIG. 2) of the outfit proposal device 10 described above will be described in detail with reference to FIG. FIG. 5 is a flow chart showing the operation flow of the outfit proposal device 10. As shown in FIG.

図5に示すように、入力受付部11は、上述した入力部20(図1参照)から、場所を指定する情報を受信する(S1)。入力受付部11は、場所を示す情報を、画像収集部12および提案部16へそれぞれ送信する。 As shown in FIG. 5, the input reception unit 11 receives information designating a location from the input unit 20 (see FIG. 1) (S1). The input reception unit 11 transmits information indicating the location to the image collection unit 12 and the proposal unit 16, respectively.

画像収集部12は、入力受付部11から、場所を指定する情報を取得する。画像収集部12は、場所を指定する情報を用いて、インターネット検索を行う(S2)。例えば、画像収集部12は、場所を表すタグ情報(例えばExif)が紐付いた画像を検索する。 The image collection unit 12 acquires information specifying a location from the input reception unit 11 . The image collection unit 12 searches the Internet using the information specifying the location (S2). For example, the image collection unit 12 searches for images associated with tag information (for example, Exif) representing locations.

画像収集部12は、ステップS2における検索の結果として、指定された場所に関する複数の画像(指定された場所で撮影された画像を含む)を、インターネット上から収集する(S3)。画像収集部12は、収集した複数の画像を、人物検出部13へ送信する。 As a result of the search in step S2, the image collection unit 12 collects a plurality of images (including images taken at the designated location) related to the designated location from the Internet (S3). The image collection unit 12 transmits the multiple collected images to the person detection unit 13 .

人物検出部13は、画像収集部12によって収集された複数の画像を取得する。人物検出部13は、各画像から、一または複数の人物の領域を検出する(S4)。 The person detection unit 13 acquires a plurality of images collected by the image collection unit 12 . The person detection unit 13 detects one or more person areas from each image (S4).

加えて、人物検出部13は、人物の領域に対応する人物の属性を判別して、上述した他人の属性情報を生成する。例えば、人物検出部13は、人物の属性によって異なる特徴に基づいて、人物の領域に対応する人物の属性を判別する。人物の属性によって異なる特徴は、例えば、人物検出部13が、様々な属性の人物を含む学習用のサンプル画像を用いて、機械学習を行うことによって得られる。人物検出部13は、人物の領域を示す情報と、他人の属性情報とを紐付けて、服装情報抽出部14へ送信する。 In addition, the person detection unit 13 discriminates the person's attribute corresponding to the person's area, and generates the above-described other person's attribute information. For example, the person detection unit 13 determines the person's attribute corresponding to the person's area based on different features depending on the person's attribute. The features that differ depending on the attributes of a person are obtained, for example, by the person detection unit 13 performing machine learning using sample images for learning that include persons with various attributes. The person detection unit 13 associates the information indicating the area of the person with the attribute information of another person, and transmits the information to the clothing information extraction unit 14 .

服装情報抽出部14は、人物検出部13から、人物の領域を示す情報と、他人の属性情報とを受信する。服装情報抽出部14は、まず、人物の領域から、人物が着用している服装の特徴を抽出する(S51)。 The clothing information extraction unit 14 receives information indicating a person's area and other person's attribute information from the person detection unit 13 . The clothing information extraction unit 14 first extracts features of the clothing worn by the person from the area of the person (S51).

服装情報抽出部14は、様々な種類の服装の特徴(図3参照)を、予め学習している。服装情報抽出部14は、人物の領域から抽出した服装の特徴と、様々な種類の服装の特徴とを比較して、これらの特徴の間の類似度を計算する。服装情報抽出部14は、こうして計算した類似度に基づいて、人物が着用している服装を判別する(S52)。 The clothing information extraction unit 14 has previously learned the characteristics of various types of clothing (see FIG. 3). The clothing information extraction unit 14 compares the clothing features extracted from the person's region with various types of clothing features, and calculates the similarity between these features. The clothing information extraction unit 14 determines the clothing worn by the person based on the degree of similarity calculated in this way (S52).

服装情報抽出部14は、ステップS52における服装の判別結果に基づいて、上述した他人の服装情報を生成する。また、服装情報抽出部14は、生成した他人の服装情報に対し、人物検出部13から受信した他人の属性情報を紐付ける。そして、服装情報抽出部14は、他人の服装情報と、他人の属性情報とを紐付けたデータ(図4参照)を、提案部16へ送信する。 The clothing information extracting unit 14 generates the aforementioned clothing information of the other person based on the clothing determination result in step S52. Further, the clothing information extraction unit 14 associates the attribute information of the other person received from the person detection unit 13 with the generated clothing information of the other person. Then, the clothing information extracting unit 14 transmits to the proposal unit 16 data (see FIG. 4) in which the clothing information of the other person and the attribute information of the other person are linked.

提案部16は、画像収集部12によって収集された他の画像があるかどうかを判定する(S6)。画像収集部12によって収集された他の画像がある場合(S6でYes)、フローは、上述したステップS4に戻る。 The proposing unit 16 determines whether there are other images collected by the image collecting unit 12 (S6). If there are other images collected by the image collecting unit 12 (Yes in S6), the flow returns to step S4 described above.

画像収集部12によって収集された他の画像がない場合(S6でNo)、提案部16は、服装情報抽出部14から受信した他人の服装情報(図4参照)を参照する。そして、提案部16は、他人の服装情報を用いて、ユーザに提案する服装を決定する(S7)。なお、ステップS7の詳細を後述する(図7参照)。 If there is no other image collected by the image collection unit 12 (No in S6), the proposal unit 16 refers to the other person's clothing information received from the clothing information extraction unit 14 (see FIG. 4). Then, the proposal unit 16 uses the clothing information of others to determine the clothing to be proposed to the user (S7). The details of step S7 will be described later (see FIG. 7).

その後、提案部16は、ユーザに提案する服装を示す提案情報を生成する。例えば、提案情報は、ユーザに提案する服装をお勧め順に並べたリストであってよい。あるいは、提案情報は、ユーザに提案する服装の画像(図8参照)であってもよい。提案部16は、このように生成した提案情報を、提示部60に提示させる(S8)。 After that, the proposal unit 16 generates proposal information indicating clothes to be proposed to the user. For example, the suggestion information may be a list in which clothes suggested to the user are arranged in order of recommendation. Alternatively, the suggestion information may be an image of clothes suggested to the user (see FIG. 8). The proposal unit 16 causes the presentation unit 60 to present the thus generated proposal information (S8).

以上で、服装提案装置10の動作フローは終了する。 With this, the operation flow of the outfit proposal device 10 ends.

(提案部16)
図6は、服装提案装置10(図2参照)が備えた提案部16の構成を示すブロック図である。図6に示すように、提案部16は、集計部160、第1選択部161、第2選択部162、および提案情報生成部164を含む。
(Proposal unit 16)
FIG. 6 is a block diagram showing the configuration of the proposal unit 16 included in the outfit proposal device 10 (see FIG. 2). As shown in FIG. 6 , the proposal unit 16 includes an aggregation unit 160 , a first selection unit 161 , a second selection unit 162 and a proposal information generation unit 164 .

集計部160は、服装情報抽出部14から、上述した他人の服装情報および他人の属性情報(図4参照)を受信して、図示しないキャッシュメモリ1610に格納する。集計部160は、キャッシュメモリ1610に格納された他人の服装情報における同じ服装の出現頻度を計算する。より詳細には、集計部160は、服装情報抽出部14から受信した他人の服装情報のうち、同じ要素の組み合わせで構成された他人の服装情報の数をカウントする。 The tallying unit 160 receives the clothing information of the other person and the attribute information of the other person (see FIG. 4) described above from the clothing information extracting unit 14, and stores them in the cache memory 1610 (not shown). Aggregation unit 160 calculates the appearance frequency of the same clothes in the clothes information of others stored in cache memory 1610 . More specifically, the tallying unit 160 counts the number of other people's clothing information that is composed of the same combination of elements among the other people's clothing information received from the clothing information extraction unit 14 .

例えば、集計部160は、キャッシュメモリ1610に格納された他人の服装情報において、「衣服」(1つ目の要素)がスーツであり、かつ、「柄」(2つ目の要素)がなしという組み合わせに相当する他人の服装情報がいくつあるかをカウントする。集計部160は、上記の集計結果に基づいて、カウント数が多い順に、いくつか(例えば数10から100通り)の他人の服装情報を選択する。集計部160は、選択した他人の服装情報と、それに紐付く他人の属性情報とを、第1選択部161へ送信する。 For example, the tallying unit 160 determines that “clothes” (first element) is a suit and “pattern” (second element) is absent in the clothing information of others stored in the cache memory 1610. Count the number of pieces of clothing information of others corresponding to the combination. Aggregation unit 160 selects several (for example, several 10 to 100 items) of clothing information of others in descending order of the count number based on the above aggregation result. The tallying unit 160 transmits the selected clothing information of the other person and the associated attribute information of the other person to the first selection unit 161 .

なお、集計部160のキャッシュメモリ1610に格納された全ての他人の服装情報において、出現頻度が閾値よりも低い服装が存在する場合、集計部160は、その服装がNG(提案不可)であると判断する。この場合、集計部160は、NGである服装を含まない他人の服装情報の中から、いくつかの他人の服装情報を選択する。逆に、キャッシュメモリ1610に格納された全ての他人の服装情報において、出現頻度が別の閾値よりも高い服装が存在する場合、集計部160は、その服装が必須であると判断する。この場合、集計部160は、必須である服装を含む他人の服装情報の中から、いくつかの他人の服装情報を選択する。 Note that if there is a piece of clothing whose frequency of appearance is lower than the threshold in all of the clothing information of other people stored in the cache memory 1610 of the totalizing unit 160, the totalizing unit 160 determines that the piece of clothing is NG (proposal not possible). to decide. In this case, the tallying unit 160 selects some of the clothing information of other people from among the clothing information of other people that does not include the NG clothing. Conversely, if there is a piece of clothing whose appearance frequency is higher than a different threshold in all of the other's clothing information stored in the cache memory 1610, the counting unit 160 determines that the piece of clothing is essential. In this case, the tallying unit 160 selects some of the other's clothing information from the other's clothing information including essential clothing.

第1選択部161は、集計部160によって選択された他人の服装情報と、それに紐付く他人の属性情報とを受信する。また、第1選択部161は、ユーザ情報取得部15から、上述したユーザ属性情報を取得する。第1選択部161は、集計部160から受信した他人の服装情報の中から、ユーザの属性に適合する他人の服装情報をさらに選択する。 The first selection unit 161 receives the clothing information of the other person selected by the counting unit 160 and the attribute information of the other person linked thereto. Also, the first selection unit 161 acquires the user attribute information described above from the user information acquisition unit 15 . The first selection unit 161 further selects another person's clothing information that matches the attributes of the user from among the other person's clothing information received from the counting unit 160 .

具体的には、第1選択部161は、他人の服装情報と紐付けられた人物の属性情報と、ユーザ属性情報とを比較する。そして、両者が一致する場合、第1選択部161は、その他人の服装情報を選択する。一方、両者が異なる場合、第1選択部161は、その他人の服装情報を選択しない。第1選択部161は、このようにして選択した他人の服装情報を、第2選択部162へ送信する。 Specifically, the first selection unit 161 compares the user attribute information with the attribute information of the person associated with the clothing information of the other person. Then, when both match, the first selection unit 161 selects the clothing information of the other person. On the other hand, if the two are different, the first selection unit 161 does not select the other person's clothing information. The first selection unit 161 transmits the clothing information of others selected in this manner to the second selection unit 162 .

第2選択部162は、第1選択部161によって選択された他人の服装情報を受信する。第2選択部162は、ユーザ情報取得部15から、上述したユーザ嗜好情報を取得する。 The second selection unit 162 receives clothing information of others selected by the first selection unit 161 . The second selection unit 162 acquires the user preference information described above from the user information acquisition unit 15 .

第2選択部162は、第1選択部161によって選択された他人の服装情報の中から、ユーザの嗜好に適合する他人の服装情報をさらに選択する。 The second selection unit 162 further selects another person's clothing information that matches the user's preference from among the other person's clothing information selected by the first selection unit 161 .

具体的には、第2選択部162は、他人の服装情報を構成する服装のうちの一定数以上が、ユーザの好みの服装である場合、その他人の服装情報を選択する。第2選択部162は、このようにして選択した他人の服装情報を提案情報生成部164へ送信する。 Specifically, the second selection unit 162 selects the other person's clothing information when a certain number or more of the clothing constituting the other person's clothing information are the user's favorite clothing. The second selection unit 162 transmits the clothing information of others selected in this manner to the proposal information generation unit 164 .

提案情報生成部164は、第2選択部162によって選択された他人の服装情報を受信する。提案情報生成部164は、第2選択部162によって選択された他人の服装情報を用いて、ユーザに提案する服装を示す提案情報を生成する。 The suggested information generator 164 receives the clothing information of others selected by the second selector 162 . The suggestion information generation unit 164 uses the clothes information of the other person selected by the second selection unit 162 to generate suggestion information indicating clothes to be proposed to the user.

提案情報生成部164は、生成した提案情報を提示部60へ送信し、提示部60に提案情報を提示させる。なお、提案情報の提示の一例を後述する。 Proposal information generating section 164 transmits the generated proposal information to presentation section 60 and causes presentation section 60 to present the proposal information. An example of presentation of proposal information will be described later.

なお、第1選択部161および第2選択部162の両方は必須ではない。すなわち、提案部16は、第1選択部161および第2選択部162のどちらか一方のみを備えていてもよい。 Both the first selection unit 161 and the second selection unit 162 are not essential. That is, the proposal unit 16 may include only one of the first selection unit 161 and the second selection unit 162 .

提案部16が第2選択部162を備えていない場合、第1選択部161は、ユーザの属性情報に基づいて選択した他人の服装情報を、提案情報生成部164へ送信する。提案情報生成部164は、ユーザの属性情報に基づいて選択された他人の服装情報を用いて、ユーザに提案する服装を決定する。 If the proposal unit 16 does not include the second selection unit 162 , the first selection unit 161 transmits clothing information of others selected based on the user's attribute information to the proposal information generation unit 164 . The suggestion information generation unit 164 determines clothes to be suggested to the user using the clothes information of others selected based on the user's attribute information.

また、提案部16が第1選択部161を備えていない場合、集計部160は、服装マナーの情報に基づいて選択した他人の服装情報を、第2選択部162へ送信する。第2選択部162は、集計部160によって選択された他人の属性情報の中から、ユーザの嗜好に適合する他人の服装情報をさらに選択する。 If the proposal unit 16 does not include the first selection unit 161 , the totalization unit 160 transmits to the second selection unit 162 the clothing information of others selected based on the clothing manner information. The second selection unit 162 further selects other person's clothing information that matches the user's preference from the other person's attribute information selected by the counting unit 160 .

(提案部16の動作)
図7を参照して、服装提案装置10が備えた提案部16の動作の一例を説明する。図7は、図5に示すフローのステップS7における提案部16の動作の流れを示すフローチャートである。
(Operation of proposal unit 16)
An example of the operation of the proposal unit 16 included in the outfit proposal device 10 will be described with reference to FIG. FIG. 7 is a flow chart showing the operation flow of the proposing unit 16 in step S7 of the flow shown in FIG.

図7に示すように、集計部160は、キャッシュメモリ1610から、他人の服装情報および他人の属性情報を受信する(S70)。集計部160は、キャッシュメモリ1610において、同じ服装の数を集計する。集計部160は、キャッシュメモリ1610に格納された全ての他人の服装情報の中から、カウント数が多い順に、いくつか(例えば数10から100通り)の他人の服装情報を選択する。集計部160は、選択した他人の服装情報と、それに紐付く他人の属性情報とを、第1選択部161へ送信する。 As shown in FIG. 7, totaling unit 160 receives the clothing information and attribute information of other people from cache memory 1610 (S70). Aggregation unit 160 aggregates the number of identical clothes in cache memory 1610 . The tallying unit 160 selects several pieces (for example, several 10 to 100 pieces) of clothing information of others in descending order of the count number from all clothing information of others stored in the cache memory 1610 . The tallying unit 160 transmits the selected clothing information of the other person and the associated attribute information of the other person to the first selection unit 161 .

第1選択部161は、集計部160によって選択された他人の服装情報と、それに紐付く他人の属性情報とを受信する。また第1選択部161は、ユーザ情報取得部15から、ユーザ属性情報を取得する(S74)。 The first selection unit 161 receives the clothing information of the other person selected by the counting unit 160 and the attribute information of the other person linked thereto. The first selection unit 161 also acquires user attribute information from the user information acquisition unit 15 (S74).

第1選択部161は、集計部160によって選択された他人の服装情報の中から、ユーザの属性情報に適合する他人の服装情報をさらに選択する。より詳細には、第1選択部161は、他人の服装情報に紐付けられた他人の属性情報と、ユーザの属性情報とを比較する。そして、両者が一致する場合、第1選択部161は、その他人の服装情報を選択する(S75)。第1選択部161は、選択した他人の服装情報を第2選択部162へ送信する。 The first selection unit 161 further selects other person's clothing information that matches the user's attribute information from the other person's clothing information selected by the counting unit 160 . More specifically, the first selection unit 161 compares the user's attribute information with the other's attribute information linked to the other's clothing information. Then, when both match, the first selection unit 161 selects the other person's clothing information (S75). The first selection unit 161 transmits the selected clothing information of the other person to the second selection unit 162 .

第2選択部162は、第1選択部161によって選択された他人の服装情報を受信する。第2選択部162は、ユーザ情報取得部15から、ユーザ嗜好情報を取得する(S76)。 The second selection unit 162 receives clothing information of others selected by the first selection unit 161 . The second selection unit 162 acquires user preference information from the user information acquisition unit 15 (S76).

第2選択部162は、第1選択部161によって選択された他人の服装情報の中から、ユーザの嗜好に適合する他人の服装情報をさらに選択する。より詳細には、第2選択部162は、他人の服装情報に含まれる服装を示す情報を参照する。また、ユーザの嗜好情報に含まれる服装を示す情報を参照する。そして、両者が一致する場合、第2選択部162は、その他人の服装情報を選択する(S77)。 The second selection unit 162 further selects another person's clothing information that matches the user's preference from among the other person's clothing information selected by the first selection unit 161 . More specifically, the second selection unit 162 refers to information indicating clothes included in the clothes information of others. Also, the information indicating clothing included in the user's preference information is referred to. Then, when both match, the second selection unit 162 selects the other person's clothing information (S77).

第2選択部162は、選択した他人の服装情報を提案情報生成部164へ送信する。 The second selection unit 162 transmits the selected clothing information of others to the proposal information generation unit 164 .

提案情報生成部164は、第2選択部162によって選択された他人の服装情報を受信する。提案情報生成部164は、第2選択部162によって選択された他人の服装情報を用いて、ユーザに提案する服装を示す提案情報を生成する(S78)。 The suggested information generator 164 receives the clothing information of others selected by the second selector 162 . The suggestion information generation unit 164 uses the clothing information of the other person selected by the second selection unit 162 to generate proposal information indicating the clothing to be proposed to the user (S78).

その後、提案情報生成部164は、生成した提案情報を提示部60へ送信して、提示部60に提案情報を提示させる(図5のS8)。 After that, the proposal information generation unit 164 transmits the generated proposal information to the presentation unit 60 to cause the presentation unit 60 to present the proposal information (S8 in FIG. 5).

(提案情報の例)
図8は、提案部16が提供する提案情報の一例を示す。図8に示す提案情報は、ユーザに提案する服装の画像である。提案情報生成部164は、ユーザに提案する服装に関する情報(例えば衣服や服飾品の名称または種類)を用いて、インターネット検索を行い、ユーザに提案する服装のサンプル画像を取得する。
(Example of proposal information)
FIG. 8 shows an example of proposal information provided by the proposal unit 16. As shown in FIG. The suggested information shown in FIG. 8 is an image of clothes suggested to the user. The proposal information generation unit 164 searches the Internet using information (for example, names or types of clothing and accessories) about clothing to be proposed to the user, and acquires sample images of clothing to be proposed to the user.

あるいは、服装のサンプル画像がキャッシュメモリ1610に予め格納されていてもよい。この場合、提案情報生成部164は、キャッシュメモリ1610から、ユーザに提案する服装と一致するサンプル画像を取得する。また、提案情報生成部164は、ユーザの顔画像を、ユーザ情報記憶部30から取得する。 Alternatively, sample images of clothing may be stored in the cache memory 1610 in advance. In this case, the proposal information generation unit 164 acquires from the cache memory 1610 a sample image that matches the clothes proposed to the user. The proposal information generation unit 164 also acquires the user's face image from the user information storage unit 30 .

提案情報生成部164は、キャッシュメモリ1610またはインターネットから取得したサンプル画像に、ユーザの顔画像を合成することによって、図8に示す画像を生成する。図8に示す画像は、ユーザに提案する2パターンの服装を示している。提案部16は、図8に示す画像を、提示部60へ送信し、提示部60の表示部61に表示させる。 The proposal information generation unit 164 generates the image shown in FIG. 8 by synthesizing the user's face image with the sample image acquired from the cache memory 1610 or the Internet. The image shown in FIG. 8 shows two patterns of clothes proposed to the user. The proposal unit 16 transmits the image shown in FIG. 8 to the presentation unit 60 and causes the display unit 61 of the presentation unit 60 to display the image.

(変形例)
以下で、本実施形態1に係わるいくつかの変形例を説明する。ここで説明する変形例の構成を、上述した実施形態1の構成と置換したり、組み合わせたりしてもよい。
(Modification)
Several modifications of the first embodiment will be described below. The configuration of the modified example described here may be replaced with or combined with the configuration of the first embodiment described above.

(例1)提案部16は、上述したユーザの嗜好情報として、ユーザの性格を表す情報に基づいて、ユーザに提案する服装を選択する。本変形例では、ユーザ情報取得部15は、ユーザの嗜好情報として、ユーザの性格を表す情報(例えば目立ちたがり、地味、活発)を取得する。提案部16は、ユーザ情報取得部15から、ユーザの嗜好情報を取得する。提案部16は、キャッシュメモリ1610に格納された他人の服装情報の中から、ユーザの性格に適した服装を選択する。 (Example 1) The proposal unit 16 selects clothes to be proposed to the user based on information representing the user's personality as the user's preference information described above. In this modification, the user information acquisition unit 15 acquires information representing the user's personality (for example, conspicuous, plain, active) as the user's preference information. The proposal unit 16 acquires user preference information from the user information acquisition unit 15 . The proposal unit 16 selects clothing suitable for the user's personality from the clothing information of others stored in the cache memory 1610 .

例えば、ユーザの嗜好情報が示すユーザの性格が「目立ちたがり」である(もしくはない)であるとする。提案部16は、キャッシュメモリ1610に格納された他人の服装情報における同じ服装の出現頻度の計算結果を、集計部160から取得する。そして、ユーザの性格が「目立ちたがり」でない場合、提案部16は、他人の服装情報における出現頻度が閾値を超える服装になるように、ユーザの服装を決定する。一方、ユーザの性格が「目立ちたがり」である場合、提案部16は、他人の服装情報における出現頻度が他の閾値よりも小さい服装になるように、ユーザの服装を決定する。 For example, assume that the user's personality indicated by the user's preference information is (or is not) "attractive". The proposing unit 16 acquires from the counting unit 160 the calculation result of the appearance frequency of the same clothes in the clothes information of others stored in the cache memory 1610 . Then, if the user's personality is not "show off", the proposal unit 16 determines the user's clothing so that the frequency of appearance in other's clothing information exceeds the threshold. On the other hand, if the user's personality is "show off", the proposal unit 16 determines the user's clothes so that the frequency of appearance in other people's clothes information is lower than the other threshold.

(例2)提案部16は、上述したユーザの嗜好情報として、ユーザが所持している衣服または服飾品に関する情報に基づいて、ユーザに提案する服装を決定する。本変形例では、提案部16は、ユーザ情報取得部15から、ユーザの嗜好情報を取得する。提案部16は、キャッシュメモリ1610に格納された他人の服装情報の中から、ユーザが所持している衣服または服飾品と同じ種類の衣服または服飾品を含む他人の服装情報を選択する。 (Example 2) The proposal unit 16 determines the clothes to be proposed to the user based on the information about the clothes or furnishings possessed by the user as the user's preference information. In this modification, the proposal unit 16 acquires user preference information from the user information acquisition unit 15 . The proposal unit 16 selects, from among the clothing information of others stored in the cache memory 1610, the clothing information of the other person including the same type of clothing or accessories as the clothing or accessories possessed by the user.

(例3)服装情報抽出部14は、画像中の人物の服装の判別結果とともに、画像における人物の領域の部分も、キャッシュメモリ1610に格納する。提案部16は、キャッシュメモリ1610に格納された人物の領域から、ユーザに提案する服装と類似した服装を着用している人物の領域を抽出する。提案部16は、キャッシュメモリ1610から抽出した人物の領域の画像を、提案情報とともに、表示部61に表示させる。ユーザは、表示部61に表示された人物の領域の画像を参考にして、自分の服装を決定することができる。 (Example 3) The clothing information extraction unit 14 stores in the cache memory 1610 the area of the person in the image as well as the determination result of the clothing of the person in the image. The proposal unit 16 extracts an area of a person wearing clothes similar to the clothes proposed to the user from the area of the person stored in the cache memory 1610 . The proposal unit 16 causes the display unit 61 to display the image of the region of the person extracted from the cache memory 1610 together with the proposal information. The user can refer to the image of the person's area displayed on the display unit 61 to determine his/her clothing.

(例4)服装情報抽出部14は、画像収集部12が収集した画像の付加情報から、画像が撮影された日時を示す情報を抽出する。服装情報抽出部14は、画像中の人物の服装の判別結果を、画像の付加情報から抽出した日時を示す情報と紐付けて、キャッシュメモリ1610に格納する。提案部16は、キャッシュメモリ1610を参照して、他人の服装情報と紐付けられた日時を示す情報を確認し、現在と同じ季節(例えば現在より前後1か月の期間)に撮影された他人の服装情報を選択する。あるいは、提案部16は、現在と同じ時間帯(朝、昼、夜など)に撮影された他人の服装情報を選択してもよい。 (Example 4) The clothing information extraction unit 14 extracts information indicating the date and time when the image was taken from the additional information of the image collected by the image collection unit 12 . The clothing information extraction unit 14 associates the determination result of the clothing of the person in the image with the information indicating the date and time extracted from the additional information of the image, and stores it in the cache memory 1610 . The proposal unit 16 refers to the cache memory 1610 to check the information indicating the date and time associated with the clothing information of the other person, and confirms that the other person was photographed in the same season as the current season (for example, a period of one month before or after the current time). Select clothing information for Alternatively, the proposal unit 16 may select clothing information of another person photographed in the same time zone (morning, noon, night, etc.) as the current time.

(例5)提案部16は、ユーザに提案する服装に関連する商品を提案する。服装に関連する商品とは、例えば、販売中の衣服、服飾品、またはそれらのコーディネートである。提案部16は、検索の結果として得られた商品に関する情報を、提案情報とともに、提示部60にさらに提示させる。本変形例は、例えば、eコマースと協働するビジネスモデルを実施する場合に役立つ。 (Example 5) The proposal unit 16 proposes products related to clothes to be proposed to the user. Clothing-related products are, for example, clothes on sale, furnishings, or coordination thereof. The proposal unit 16 causes the presentation unit 60 to further present the information regarding the product obtained as a result of the search, together with the proposal information. This variant is useful, for example, when implementing a business model that cooperates with e-commerce.

(本実施形態の効果)
本実施形態の構成によれば、画像収集部12は、ユーザに指定された場所に関する画像を収集する。人物検出部13は、画像から人物を検出する。服装情報抽出部14は、他人の服装に関する情報(第1の情報の一例である)を画像から抽出して、キャッシュメモリ1610に格納する。ユーザ情報取得部15は、ユーザの属性/嗜好情報(第2の情報の一例である)を取得する。提案部16は、キャッシュメモリ1610に格納された他人の服装情報およびユーザの属性/嗜好情報に基づいて、ユーザに提案する服装を決定する。
(Effect of this embodiment)
According to the configuration of this embodiment, the image collection unit 12 collects images of locations designated by the user. A person detection unit 13 detects a person from an image. The clothing information extracting unit 14 extracts information (an example of the first information) about the clothing of others from the image and stores it in the cache memory 1610 . The user information acquisition unit 15 acquires user attribute/preference information (an example of second information). The proposal unit 16 determines clothing to be proposed to the user based on the clothing information of others and the user's attribute/preference information stored in the cache memory 1610 .

したがって、指定された場所に適した服装をユーザに提案することができる。 Therefore, it is possible to suggest clothes suitable for the designated place to the user.

〔実施形態2〕
図9~図12を参照して、実施形態2について以下で説明する。
[Embodiment 2]
Embodiment 2 is described below with reference to FIGS. 9-12.

(通信システム2)
図9は、本実施形態2に係わる通信システム2の構成を示すブロック図である。図9に示すように、通信システム2は、服装提案装置210、入力部20、ユーザ情報記憶部30、マナーDB40、および提示部60を備えている。本実施形態2に係わる通信システム2は、前記実施形態1に係わる通信システム1の構成に加えて、マナーDB40をさらに備えている。
(Communication system 2)
FIG. 9 is a block diagram showing the configuration of a communication system 2 according to the second embodiment. As shown in FIG. 9 , the communication system 2 includes an outfit proposal device 210 , an input unit 20 , a user information storage unit 30 , manner DB 40 and a presentation unit 60 . A communication system 2 according to the second embodiment further includes a manner DB 40 in addition to the configuration of the communication system 1 according to the first embodiment.

図9に示すように、ユーザ情報記憶部30およびマナーDB40は、服装提案装置210に接続されており、服装提案装置210の各部によって参照される。服装提案装置210の構成については後述する。 As shown in FIG. 9 , the user information storage unit 30 and manner DB 40 are connected to the outfit proposal device 210 and referenced by each unit of the outfit proposal device 210 . The configuration of the outfit proposal device 210 will be described later.

(マナーDB40)
マナーDB40には、様々な場所における文化や状況に応じた行儀作法を説明するマナー情報が格納されている。マナー情報は、例えばテキスト、音声、画像、またはその組み合わせであってもよい。マナー情報は、服装に関するマナーの情報(以下では、服装マナーの情報と呼ぶ)を含む。マナー情報はマナーDB40に予め格納されていてもよいし、服装提案装置10がインターネット上からマナー情報を収集してもよい。
(Manner DB 40)
The manners DB 40 stores manners information that describes manners according to cultures and situations in various places. Manner information may be, for example, text, audio, images, or a combination thereof. The manner information includes information about manners related to clothing (hereinafter referred to as clothing manner information). The manner information may be stored in the manner DB 40 in advance, or the outfit proposal device 10 may collect the manner information from the Internet.

(服装提案装置210)
図10は、本実施形態2に係わる服装提案装置210の構成を示すブロック図である。図10に示すように、服装提案装置210は、入力受付部11、画像収集部12、人物検出部13、服装情報抽出部14、ユーザ情報取得部15、および提案部216を備えている。
(Outfit proposal device 210)
FIG. 10 is a block diagram showing the configuration of an outfit proposal device 210 according to the second embodiment. As shown in FIG. 10 , the outfit proposal device 210 includes an input reception unit 11 , an image collection unit 12 , a person detection unit 13 , an outfit information extraction unit 14 , a user information acquisition unit 15 and a proposal unit 216 .

本実施形態2に係わる服装提案装置210の提案部216は、入力受付部11から、場所を指定する情報を受信する。また、提案部216は、マナーDB40を参照する。この点で、提案部216は、前記実施形態1に係わる服装提案装置10の提案部16(図2参照)とは異なる。 The proposal unit 216 of the outfit proposal device 210 according to the second embodiment receives information designating a place from the input reception unit 11 . Also, the proposal unit 216 refers to the manner DB 40 . In this respect, the proposal unit 216 is different from the proposal unit 16 (see FIG. 2) of the outfit proposal device 10 according to the first embodiment.

(提案部216)
図11は、提案部216の構成を示すブロック図である。図11に示すように、提案部216は、集計部160、第1選択部161、第2選択部162、第3選択部163、および提案情報生成部164を含む。本実施形態2に係わる提案部216は、前記実施形態1に係わる提案部16の構成(図6参照)に加えて、第3選択部163をさらに備えている。
(Proposal unit 216)
FIG. 11 is a block diagram showing the configuration of the proposing section 216. As shown in FIG. As shown in FIG. 11 , the proposal unit 216 includes an aggregation unit 160 , a first selection unit 161 , a second selection unit 162 , a third selection unit 163 and a proposal information generation unit 164 . The proposal unit 216 according to the second embodiment further includes a third selection unit 163 in addition to the configuration of the proposal unit 16 according to the first embodiment (see FIG. 6).

第2選択部162は、前記実施形態1で説明した手順と同様に、他人の服装情報を選択する。本実施形態2に係わる第2選択部162は、選択した他人の服装情報を、第3選択部163へ送信する。 The second selection unit 162 selects other person's clothing information in the same manner as in the procedure described in the first embodiment. The second selection unit 162 according to the second embodiment transmits the selected clothing information of others to the third selection unit 163 .

第3選択部163は、第2選択部162によって選択された他人の服装情報を受信する。第3選択部163は、ユーザ情報取得部15から、上述したユーザ嗜好情報を取得する。 The third selection unit 163 receives clothing information of others selected by the second selection unit 162 . The third selection unit 163 acquires the user preference information described above from the user information acquisition unit 15 .

第3選択部163は、第2選択部162によって選択された他人の服装情報の中から、ユーザの嗜好に適合する他人の服装情報をさらに選択する。 The third selection unit 163 further selects another person's clothing information that matches the user's preference from among the other person's clothing information selected by the second selection unit 162 .

具体的には、第3選択部163は、他人の服装情報を構成する服装のうちの一定数以上が、ユーザの好みの服装である場合、その他人の服装情報を選択する。第3選択部163は、このようにして選択した他人の服装情報を提案情報生成部164へ送信する。 Specifically, the third selection unit 163 selects the clothing information of the other person when a certain number or more of the clothing constituting the clothing information of the other person are the user's favorite clothing. The third selection unit 163 transmits the clothing information of others selected in this manner to the proposal information generation unit 164 .

提案情報生成部164は、第3選択部163によって選択された他人の服装情報を受信する。提案情報生成部164は、第3選択部163によって選択された他人の服装情報を用いて、ユーザに提案する服装を示す提案情報を生成する。 The suggested information generator 164 receives the clothing information of others selected by the third selector 163 . The suggestion information generation unit 164 uses the clothing information of the other person selected by the third selection unit 163 to generate proposal information indicating the clothing to be proposed to the user.

なお、本実施形態2においても、第1選択部161および第2選択部162の両方は必須ではない。すなわち、提案部216は、第1選択部161および第2選択部162のどちらか一方のみを備えていてもよい。 Note that both the first selection unit 161 and the second selection unit 162 are not essential in the second embodiment as well. That is, proposal section 216 may include only one of first selection section 161 and second selection section 162 .

提案部216が第2選択部162を備えていない場合、第1選択部161は、ユーザの属性情報に基づいて選択した他人の服装情報を、第3選択部163へ送信する。第3選択部163は、第1選択部161によって選択された他人の服装情報の中から、指定された場所における服装マナーに違反しない他人の服装情報をさらに選択する。 If the proposal unit 216 does not include the second selection unit 162 , the first selection unit 161 transmits to the third selection unit 163 the clothes information of the other person selected based on the user's attribute information. The third selection unit 163 further selects, from among the clothing information of others selected by the first selection unit 161, clothing information of others that does not violate the manners of clothing in the designated place.

また、提案部216が第1選択部161を備えていない場合、集計部160は、他人の服装情報の集計結果に基づいて選択した他人の服装情報を、第2選択部162へ送信する。第2選択部162は、集計部160から受信した他人の属性情報の中から、ユーザの嗜好に適合する他人の服装情報をさらに選択する。 If the proposal unit 216 does not include the first selection unit 161 , the totalization unit 160 transmits to the second selection unit 162 clothing information of the other person selected based on the totalization result of the clothing information of the other person. The second selection unit 162 further selects another person's clothing information that matches the user's preference from the other person's attribute information received from the counting unit 160 .

(提案部216の動作)
本実施形態2に係わる提案部216は、図5に示すフローにおいて、ステップS7の代わりに、以下で説明するステップS7´を実行する。
(Operation of proposal unit 216)
The proposal unit 216 according to the second embodiment executes step S7' described below instead of step S7 in the flow shown in FIG.

図12を参照して、服装提案装置210が備えた提案部216の動作を説明する。図12は、ステップS7´における提案部216の動作の流れを示すフローチャートである。 The operation of the proposal unit 216 provided in the outfit proposal device 210 will be described with reference to FIG. FIG. 12 is a flow chart showing the operation flow of the proposal unit 216 in step S7'.

図12に示すように、集計部160は、キャッシュメモリ1610から、他人の服装情報および他人の属性情報を受信する(S70)。集計部160は、キャッシュメモリ1610において、同じ服装の数を集計する。集計部160は、キャッシュメモリ1610に格納された全ての他人の服装情報の中から、同じ服装が多い順に、いくつか(例えば数10から100通り)の他人の服装情報を選択する。集計部160は、選択した他人の服装情報と、それに紐付く他人の属性情報とを、第1選択部161へ送信する。 As shown in FIG. 12, the tallying unit 160 receives other's clothing information and other's attribute information from the cache memory 1610 (S70). Aggregation unit 160 aggregates the number of identical clothes in cache memory 1610 . The tallying unit 160 selects several pieces (for example, several 10 to 100 pieces) of clothes information of others in descending order of similar clothes from all clothes information of others stored in the cache memory 1610 . The tallying unit 160 transmits the selected clothing information of the other person and the associated attribute information of the other person to the first selection unit 161 .

第1選択部161は、集計部160によって選択された他人の服装情報と、それに紐付く他人の属性情報とを受信する。また第1選択部161は、ユーザ情報取得部15から、ユーザ属性情報を取得する(S71)。 The first selection unit 161 receives the clothing information of the other person selected by the counting unit 160 and the attribute information of the other person linked thereto. The first selection unit 161 also acquires user attribute information from the user information acquisition unit 15 (S71).

第1選択部161は、集計部160から受信した他人の服装情報の中から、ユーザの属性情報に適合する他人の服装情報をさらに選択する。より詳細には、第1選択部161は、他人の服装情報に紐付けられた他人の属性情報と、ユーザの属性情報とを比較する。そして、両者が一致する場合、第1選択部161は、その他人の服装情報を選択する(S72)。第1選択部161は、選択した他人の服装情報を第2選択部162へ送信する。 The first selection unit 161 further selects another person's clothing information that matches the attribute information of the user from among the other person's clothing information received from the counting unit 160 . More specifically, the first selection unit 161 compares the user's attribute information with the other's attribute information linked to the other's clothing information. Then, when both match, the first selection unit 161 selects the other person's clothing information (S72). The first selection unit 161 transmits the selected clothing information of the other person to the second selection unit 162 .

第2選択部162は、第1選択部161によって選択された他人の服装情報を受信する。第2選択部162は、ユーザ情報取得部15から、ユーザ嗜好情報を取得する(S73)。 The second selection unit 162 receives clothing information of others selected by the first selection unit 161 . The second selection unit 162 acquires user preference information from the user information acquisition unit 15 (S73).

第2選択部162は、第1選択部161によって選択された他人の服装情報の中から、ユーザの嗜好に適合する他人の服装情報をさらに選択する。より詳細には、第2選択部162は、他人の服装情報に含まれる服装を示す情報を参照する。また、ユーザの嗜好情報に含まれる服装を示す情報を参照する。そして、両者が一致する場合、第2選択部162は、その他人の服装情報を選択する(S74)。 The second selection unit 162 further selects another person's clothing information that matches the user's preference from among the other person's clothing information selected by the first selection unit 161 . More specifically, the second selection unit 162 refers to information indicating clothes included in the clothes information of others. Also, the information indicating clothing included in the user's preference information is referred to. Then, if both match, the second selection unit 162 selects the other person's clothing information (S74).

第2選択部162は、選択した他人の服装情報を第3選択部163へ送信する。 Second selection unit 162 transmits the selected clothing information of others to third selection unit 163 .

第3選択部163は、入力受付部11から、場所を指定する情報を取得する(S75)。また第3選択部163は、マナーDB40から、指定された場所における服装マナーの情報を取得する(S76)。第3選択部163は、服装マナーの情報に基づいて、指定された場所におけるマナーに違反する服装を特定する。 The third selection unit 163 acquires information designating a location from the input reception unit 11 (S75). Also, the third selection unit 163 acquires information on dress manners in the designated place from the manner DB 40 (S76). The third selection unit 163 identifies clothes violating the manners in the designated place based on the information about the manners of the clothes.

第3選択部163は、第2選択部162が選択した他人の服装情報を受信する。そして、第3選択部163は、受信した他人の服装情報の中から、指定された場所における服装マナーに違反しない他人の服装情報を選択する(S77)。第3選択部163は、選択した他人の服装情報を、提案情報生成部164へ送信する。 The third selection unit 163 receives the other person's clothing information selected by the second selection unit 162 . Then, the third selection unit 163 selects, from among the received clothing information of others, the clothing information of others who does not violate the dress manners in the designated place (S77). Third selection unit 163 transmits the selected clothing information of others to proposal information generation unit 164 .

提案情報生成部164は、第3選択部163によって選択された他人の服装情報を受信する。提案情報生成部164は、第3選択部163によって選択された他人の服装情報を用いて、ユーザに提案する服装を示す提案情報を生成する(S78)。 The suggested information generator 164 receives the clothing information of others selected by the third selector 163 . The suggestion information generation unit 164 uses the clothes information of the other person selected by the third selection unit 163 to generate suggestion information indicating clothes to be proposed to the user (S78).

その後、提案情報生成部164は、生成した提案情報を提示部60へ送信して、提示部60に提案情報を提示させる(図5のS8)。 After that, the proposal information generation unit 164 transmits the generated proposal information to the presentation unit 60 to cause the presentation unit 60 to present the proposal information (S8 in FIG. 5).

〔実施形態3〕
図13を参照して、実施形態3について以下で説明する。
[Embodiment 3]
Embodiment 3 will be described below with reference to FIG.

前記実施形態1では、他人の服装情報および他人の属性情報を用いて、ユーザに提案する服装を決定する構成を説明した。本実施形態3では、顔照合技術を利用して、ユーザと顔が類似する人物を判別する。そして、ユーザと顔が類似する他人の服装情報に基づいて、ユーザに提案する服装を決定する。 In the first embodiment, a configuration has been described in which clothes to be proposed to the user are determined using other people's clothes information and other people's attribute information. In the third embodiment, a face matching technique is used to determine a person whose face is similar to that of the user. Then, the clothes to be proposed to the user are decided based on the clothes information of others whose faces are similar to those of the user.

本実施形態3に係わる通信システムおよび服装提案装置の構成は、前記実施形態1で説明した通信システム1(図1参照)および服装提案装置10(図2参照)と共通である。ただし、本実施形態3では、ユーザ情報記憶部30(図1参照)に、ユーザに関する情報として、ユーザの顔画像がさらに格納されている。また、本実施形態3において、服装提案装置10の人物検出部13は、ユーザ情報記憶部30に格納されたユーザの顔画像を取得する。 The configurations of the communication system and the outfit proposal device according to the third embodiment are common to the communication system 1 (see FIG. 1) and the outfit proposal device 10 (see FIG. 2) described in the first embodiment. However, in the third embodiment, the user information storage unit 30 (see FIG. 1) further stores a user's face image as information about the user. Also, in the third embodiment, the person detection unit 13 of the outfit proposal device 10 acquires the user's face image stored in the user information storage unit 30 .

(服装提案装置10の動作)
図13を参照して、本実施形態3に係わる服装提案装置10の各部(図2参照)の動作を詳細に説明する。図13は、本実施形態3に係わる服装提案装置10の動作の流れを示すフローチャートである。なお、図13に示すフローにおいて、ステップS1からステップS3までと、ステップS51からステップS8までは、前記実施形態1で説明した図5に示すフローと同じである。
(Operation of outfit proposal device 10)
With reference to FIG. 13, the operation of each part (see FIG. 2) of the outfit proposal device 10 according to the third embodiment will be described in detail. FIG. 13 is a flow chart showing the operation flow of the outfit proposal device 10 according to the third embodiment. In the flow shown in FIG. 13, steps S1 to S3 and steps S51 to S8 are the same as the flow shown in FIG. 5 described in the first embodiment.

図13に示すように、入力受付部11は、入力部20(図1参照)から、場所を指定する情報を受信する(S1)。入力受付部11は、場所を示す情報を、画像収集部12および提案部16へそれぞれ送信する。 As shown in FIG. 13, the input reception unit 11 receives information designating a location from the input unit 20 (see FIG. 1) (S1). The input reception unit 11 transmits information indicating the location to the image collection unit 12 and the proposal unit 16, respectively.

画像収集部12は、入力受付部11から、場所を指定する情報を取得する。画像収集部12は、場所を指定する情報を用いて、インターネット検索を行う(S2)。例えば、画像収集部12は、場所を表すタグ情報(例えばExif)が紐付いた画像を検索する。 The image collection unit 12 acquires information specifying a location from the input reception unit 11 . The image collection unit 12 searches the Internet using the information specifying the location (S2). For example, the image collection unit 12 searches for images associated with tag information (for example, Exif) representing locations.

画像収集部12は、ステップS2における検索の結果として、指定された場所に関する複数の画像を、インターネット上から収集する(S3)。画像収集部12は、収集した複数の画像を、人物検出部13へ送信する。 The image collection unit 12 collects a plurality of images related to the specified location from the Internet as a result of the search in step S2 (S3). The image collection unit 12 transmits the multiple collected images to the person detection unit 13 .

人物検出部13は、画像収集部12によって収集された複数の画像を取得する。人物検出部13は、各画像から人物の領域を検出する(S41)。加えて、人物検出部13は、人物の領域に対応する人物の属性を判別して、上述した他人の属性情報を生成する。例えば、人物検出部13は、人物の属性によって異なる特徴に基づいて、人物の領域に対応する人物の属性を判別する。人物の属性によって異なる特徴は、例えば、様々な属性の人物を含むサンプル画像を用いて、機械学習を行うことによって得られる。 The person detection unit 13 acquires a plurality of images collected by the image collection unit 12 . The person detection unit 13 detects a person's area from each image (S41). In addition, the person detection unit 13 discriminates the person's attribute corresponding to the person's area, and generates the above-described other person's attribute information. For example, the person detection unit 13 determines the person's attribute corresponding to the person's area based on different features depending on the person's attribute. Features that differ depending on the attributes of a person can be obtained, for example, by performing machine learning using sample images that include people with various attributes.

次に、人物検出部13は、ステップS41において検出した人物の領域から、人物の顔を検出する(S42)。例えば、人物検出部13は、人物の領域において、人物の顔らしさを表す尤度が閾値よりも高い領域を、人物の顔として検出する。 Next, the person detection unit 13 detects a person's face from the area of the person detected in step S41 (S42). For example, the person detection unit 13 detects, as a person's face, an area in which the likelihood of representing the likeness of a person's face is higher than a threshold in the person's area.

ステップS42の後、人物検出部13は、ユーザ情報記憶部30(図1参照)から、ユーザの顔画像を取得する(S43)。 After step S42, the person detection unit 13 acquires the user's face image from the user information storage unit 30 (see FIG. 1) (S43).

人物検出部13は、ステップS42において検出した画像中の人物の顔画像と、ステップS43において取得したユーザの顔画像とを比較して、画像中の人物の顔とユーザの顔とが類似しているかどうかを判定する(S44)。 The person detection unit 13 compares the face image of the person in the image detected in step S42 with the face image of the user acquired in step S43, and determines whether the face of the person in the image is similar to the face of the user. It is determined whether or not there is (S44).

具体的には、まず、人物検出部13は、人物の顔画像から、人物の顔の特徴を抽出し、ユーザの顔画像から、ユーザの顔の特徴を抽出する。そして、人物検出部13は、両者の特徴の間の類似度を計算する。ここで、顔の特徴は、複数の特徴を要素とする特徴ベクトルで表されてもよい。顔の特徴の間の類似度は、例えば、特徴ベクトル間の距離又は方向に基づいて計算されてもよいし、特徴ベクトル間の相関関数に基づいて計算されてもよい。 Specifically, first, the person detection unit 13 extracts facial features of the person from the facial image of the person, and extracts facial features of the user from the facial image of the user. Then, the person detection unit 13 calculates the degree of similarity between the features of both. Here, facial features may be represented by a feature vector having a plurality of features as elements. The similarity between facial features may be calculated, for example, based on the distance or direction between feature vectors, or may be calculated based on the correlation function between feature vectors.

計算した類似度が閾値を超える場合、人物検出部13は、ステップS42において検出した画像中の人物の顔と、ユーザの顔とが類似していると判定する(S44でYes)。 When the calculated degree of similarity exceeds the threshold, the person detection unit 13 determines that the face of the person in the image detected in step S42 is similar to the face of the user (Yes in S44).

画像中の人物の顔とユーザの顔とが類似していない場合(S44でNo)、フローはステップS41に戻り、人物検出部13は、画像から別の人物の領域を検出する(S41)。 If the face of the person in the image and the face of the user are not similar (No in S44), the flow returns to step S41, and the person detection unit 13 detects another person's area from the image (S41).

一方、画像中の人物の顔とユーザの顔とが類似している場合(S44でYes)、人物検出部13は、人物の領域を示す情報と、他人の属性情報とを紐付けて、服装情報抽出部14へ送信する。 On the other hand, when the face of the person in the image and the face of the user are similar (Yes in S44), the person detection unit 13 associates the information indicating the area of the person with the attribute information of the other person, It is transmitted to the information extraction unit 14 .

このように本実施形態3においては、ユーザと類似する人物に関する情報(人物の領域を示す情報および他人の属性情報)のみが、服装情報抽出部14へ送信される。 As described above, in the third embodiment, only information about a person similar to the user (information indicating the area of the person and attribute information of another person) is transmitted to the clothing information extraction unit 14 .

以降のステップS51からステップS8までの説明を、本実施形態3では省略する。 Descriptions of subsequent steps S51 to S8 are omitted in the third embodiment.

(本実施形態の効果)
本実施形態の構成によれば、画像収集部12は、ユーザに指定された場所に関する画像を収集する。人物検出部13は、画像から人物を検出する。人物検出部13は、画像中の人物の中から、ユーザに類似する人物を判別する。したがって、服装情報抽出部14は、ユーザに類似する人物が着用している服装に関するデータ(図2に示す人物の服装の判別結果)のみを、キャッシュメモリ1610へ格納することになる。
(Effect of this embodiment)
According to the configuration of this embodiment, the image collection unit 12 collects images of locations designated by the user. A person detection unit 13 detects a person from an image. The person detection unit 13 determines a person similar to the user from among persons in the image. Therefore, the clothing information extraction unit 14 stores only the data related to the clothing worn by the person similar to the user (determination result of the clothing of the person shown in FIG. 2) in the cache memory 1610 .

また、提案部16は、キャッシュメモリ1610を参照して、ユーザと類似する人物に関する他人の服装情報のみに基づいて、ユーザに提案する服装を決定する。したがって、本実施形態3では、提案部16が実行する処理の負荷が、前記実施形態1よりも低減される。 Further, the proposal unit 16 refers to the cache memory 1610 and determines clothes to be proposed to the user based only on other people's clothes information related to persons similar to the user. Therefore, in the third embodiment, the load of processing executed by the proposing unit 16 is reduced more than in the first embodiment.

〔実施形態4〕
図14を参照して、実施形態4について以下で説明する。
[Embodiment 4]
Embodiment 4 is described below with reference to FIG.

(服装提案装置310)
図14は、服装提案装置310の構成を示すブロック図である。図14に示すように、服装提案装置310は、画像収集部311、服装情報抽出部312、および提案部313を備えている。
(Outfit suggestion device 310)
FIG. 14 is a block diagram showing the configuration of the outfit proposal device 310. As shown in FIG. As shown in FIG. 14 , the outfit proposal device 310 includes an image collection unit 311 , an outfit information extraction unit 312 and a proposal unit 313 .

画像収集部311は、ユーザによって指定された場所に関する画像を収集する。具体的には、画像収集部12は、指定された場所を指定する情報を用いて、インターネット検索を行い、指定された場所の情報と紐付けられている複数の画像を、インターネット上から収集する。例えば、画像収集部311は、ポータルサイトが提供している検索エンジンに、指定された場所を示す情報と紐付いた画像を検索させてもよい。この場合、画像収集部311は、検索エンジンから、検索結果として、ユーザによって指定された場所に関する画像を取得する。画像収集部311は、収集した画像を、服装情報抽出部312へ送信する。 The image collection unit 311 collects images of locations specified by the user. Specifically, the image collection unit 12 searches the Internet using the information specifying the specified location, and collects a plurality of images linked to the information of the specified location from the Internet. . For example, the image collection unit 311 may cause a search engine provided by a portal site to search for images associated with information indicating a specified location. In this case, the image collection unit 311 acquires an image related to the location specified by the user from the search engine as a search result. The image collection unit 311 transmits the collected images to the clothing information extraction unit 312 .

服装情報抽出部312は、画像収集部311から、ユーザによって指定された場所に関する画像を受信する。服装情報抽出部312は、指定された場所に関する画像から、人物の服装に関する情報(以下では、他人の服装情報と呼ぶ)を抽出する。他人の服装情報は、第1の情報の一例である。 The clothing information extraction unit 312 receives an image of the place designated by the user from the image collection unit 311 . The clothing information extraction unit 312 extracts information about the person's clothing (hereinafter referred to as other's clothing information) from the image regarding the specified location. Another person's clothing information is an example of the first information.

また、服装情報抽出部312は、人物の領域の画像のデータを分析することによって、人物の服装を判別(識別)する。具体的には、服装情報抽出部312は、まず、画像中の人物の領域を検出し、人物の領域から服装の特徴を抽出する。そして、服装情報抽出部312は、抽出した服装の特徴と、様々な種類の服装の特徴とを比較して、これらの特徴同士の類似度を計算する。そして、服装情報抽出部312は、計算した類似度に基づいて、画像中の人物の服装を判別する。 Also, the clothing information extraction unit 312 determines (identifies) the clothing of the person by analyzing the data of the image of the area of the person. Specifically, the clothing information extraction unit 312 first detects a person's area in the image, and extracts clothing features from the person's area. Then, the clothing information extraction unit 312 compares the extracted characteristics of clothing with the characteristics of various types of clothing, and calculates the degree of similarity between these characteristics. Then, the clothing information extraction unit 312 determines the clothing of the person in the image based on the calculated degree of similarity.

服装情報抽出部312は、様々な種類の服装の特徴を、サンプル画像を用いた機械学習によって得てもよい。服装情報抽出部312は、機械学習に用いられるサンプル画像を、例えばインターネット上から取得してもよい。服装の特徴は、複数の特徴を要素とする特徴ベクトルで表されてもよい。服装の特徴の間の類似度は、例えば、特徴ベクトル間の距離又は方向に基づいて計算されてもよいし、特徴ベクトル間の相関関数に基づいて計算されてもよい。 The clothing information extraction unit 312 may obtain characteristics of various types of clothing through machine learning using sample images. The clothing information extraction unit 312 may acquire sample images used for machine learning, for example, from the Internet. A feature of clothing may be represented by a feature vector having a plurality of features as elements. The similarity between clothing features may be calculated, for example, based on the distance or direction between the feature vectors, or may be calculated based on the correlation function between the feature vectors.

あるいは、服装情報抽出部312は、ユーザ情報記憶部30を参照し、ユーザの属性情報またはユーザの嗜好情報に合致する他人の属性情報を、第1の情報として抽出してもよい。例えば、服装情報抽出部312は、画像中の人物の中から、ユーザの属性(例えばユーザの年齢および性別)と類似する人物を判別し、ユーザと属性の類似する人物の服装を示す情報のみを、他人の服装情報として抽出する。あるいは、服装情報抽出部312は、画像中の人物の中から、ユーザの嗜好(例えば好みの色)と合致する人物の服装を判別し、ユーザの嗜好と合致する人物の服装を示す情報のみを、他人の服装情報として抽出する。 Alternatively, the clothing information extraction unit 312 may refer to the user information storage unit 30 and extract, as the first information, the attribute information of the user or the attribute information of others that matches the user's preference information. For example, the clothing information extraction unit 312 identifies persons similar to the attributes of the user (for example, the user's age and gender) from among the persons in the image, and extracts only information indicating the clothing of the persons whose attributes are similar to those of the user. , is extracted as clothing information of others. Alternatively, the clothing information extraction unit 312 may determine the clothing of the person in the image that matches the user's preference (for example, the favorite color), and extract only the information indicating the clothing of the person that matches the user's preference. , is extracted as clothing information of others.

他人の服装情報は、人物が着用している服装を示す情報を含む。服装を示す情報には、衣服の種類、柄、色だけが含まれてもよいし、前記実施形態1で説明したような他の情報が含まれてもよい。 Others' clothing information includes information indicating the clothing worn by the person. The information indicating clothes may include only the type, pattern, and color of the clothes, or may include other information as described in the first embodiment.

服装情報抽出部312は、こうして生成した他人の服装情報を、提案部313へ送信する。服装情報抽出部312から提案部313へ送信された他人の服装情報は、提案部313のキャッシュメモリ(図示せず)に格納される。 The clothing information extraction unit 312 transmits the generated clothing information of others to the proposal unit 313 . The other person's clothing information transmitted from the clothing information extraction unit 312 to the proposal unit 313 is stored in a cache memory (not shown) of the proposal unit 313 .

提案部313は、服装情報抽出部312から受信した他人の服装情報に基づいて、ユーザに提案する服装を決定する。より詳細には、提案部313は、キャッシュメモリに格納された全ての他人の服装情報の中から、カウント数が多い順に、いくつか(例えば数10から100通り)の他人の服装情報を選択する。提案部313は、選択した他人の服装情報に基づいて、ユーザに提案する服装を決定する。 The proposal unit 313 determines clothes to be proposed to the user based on the clothes information of others received from the clothes information extraction unit 312 . More specifically, the proposal unit 313 selects several (for example, several 10 to 100) pieces of clothing information of others in descending order of the count number from among all pieces of clothing information of others stored in the cache memory. . The proposal unit 313 determines clothes to be proposed to the user based on the selected clothes information of others.

ユーザに提案する服装を決定した後、さらに提案部313は、ユーザに提案する服装を示す提案情報を生成する。そして、提案部313は、生成した提案情報を出力する。例えば、提案情報は、ユーザに提案する服装をお勧め順に並べたリストであってよい。あるいは、提案情報は、ユーザに提案する服装の画像(図8参照)であってもよい。 After determining the clothing to be proposed to the user, the proposal unit 313 further generates proposal information indicating the clothing to be proposed to the user. Then, the proposal unit 313 outputs the generated proposal information. For example, the suggestion information may be a list in which clothes suggested to the user are arranged in order of recommendation. Alternatively, the suggestion information may be an image of clothes suggested to the user (see FIG. 8).

(服装提案装置310の動作)
本実施形態4に係わる服装提案装置310の動作は、前記実施形態1で説明した服装提案装置10の動作(図5参照)と、基本的に同じである。
(Operation of outfit proposal device 310)
The operation of the outfit proposal device 310 according to the fourth embodiment is basically the same as the operation of the outfit proposal device 10 described in the first embodiment (see FIG. 5).

しかし、本実施形態4に係わる提案部313は、図5に示すステップS7において、キャッシュメモリに格納された全ての他人の服装情報の中から、カウント数が多い順に、いくつか(例えば数10から100通り)の他人の服装情報を選択する。提案部313は、選択した他人の服装情報に基づいて、ユーザに提案する服装を決定する。 However, in step S7 shown in FIG. 5, the proposal unit 313 according to the fourth embodiment sorts some of the clothing information of other people stored in the cache memory in descending order of the count number (for example, from Equation 10). 100 types of clothing information of other people are selected. The proposal unit 313 determines clothes to be proposed to the user based on the selected clothes information of others.

すなわち、本実施形態4では、提案部313が、ユーザの属性情報およびユーザの嗜好情報によらずに、ユーザに提案する服装を決定する。この点で、本実施形態4に係わる服装提案装置310の動作は、前記実施形態1に係わる服装提案装置10の動作とは異なる。 That is, in the fourth embodiment, the proposal unit 313 determines clothes to be proposed to the user without depending on the user's attribute information and user's preference information. In this respect, the operation of the outfit proposal device 310 according to the fourth embodiment differs from the operation of the outfit proposal device 10 according to the first embodiment.

(本実施形態の効果)
本実施形態の構成によれば、画像収集部311は、ユーザに指定された場所に関する画像を収集する。服装情報抽出部312は、画像収集部311によって収集された画像から、他人の服装に関する情報(第1の情報の一例である)を抽出する。提案部313は、他人の服装情報に基づいて、ユーザに提案する服装を決定する。したがって、指定された場所に適した服装をユーザに提案することができる。
(Effect of this embodiment)
According to the configuration of this embodiment, the image collection unit 311 collects images of locations designated by the user. The clothing information extraction unit 312 extracts information (an example of the first information) related to other people's clothing from the images collected by the image collection unit 311 . The proposing unit 313 determines clothes to be proposed to the user based on other people's clothes information. Therefore, it is possible to suggest clothes suitable for the designated place to the user.

〔実施形態5〕
図15を参照して、実施形態5について以下で説明する。
[Embodiment 5]
Embodiment 5 is described below with reference to FIG.

(ハードウェア構成について)
前記実施形態で説明した服装提案装置10、210、310の各構成要素は、機能単位のブロックを示している。これらの構成要素の一部又は全部は、例えば図15に示すような情報処理装置900により実現される。図15は、本実施形態5に係わる情報処理装置900のハードウェア構成の一例を示すブロック図である。
(About hardware configuration)
Each component of the outfit proposal devices 10, 210, and 310 described in the above embodiments represents a functional unit block. Some or all of these components are realized by an information processing device 900 as shown in FIG. 15, for example. FIG. 15 is a block diagram showing an example hardware configuration of an information processing apparatus 900 according to the fifth embodiment.

図15に示すように、情報処理装置900は、一例として、以下のような構成を含む。 As shown in FIG. 15, the information processing device 900 includes, as an example, the following configuration.

・CPU(Central Processing Unit)901
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
前記実施形態で説明した服装提案装置10、210、310の各構成要素は、これらの機能を実現するプログラム904をCPU901が読み込んで実行することで実現される。各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やROM902に格納されており、必要に応じてCPU901がRAM903にロードして実行される。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
- CPU (Central Processing Unit) 901
・ROM (Read Only Memory) 902
・RAM (Random Access Memory) 903
Program 904 loaded into RAM 903
- Storage device 905 for storing program 904
A drive device 907 that reads and writes the recording medium 906
- A communication interface 908 that connects to the communication network 909
- An input/output interface 910 for inputting/outputting data
A bus 911 connecting each component
Each component of the outfit proposal devices 10, 210, and 310 described in the above embodiments is implemented by the CPU 901 reading and executing a program 904 that implements these functions. A program 904 that implements the function of each component is stored in advance in the storage device 905 or the ROM 902, for example, and is loaded into the RAM 903 and executed by the CPU 901 as necessary. The program 904 may be supplied to the CPU 901 via the communication network 909 or may be stored in the recording medium 906 in advance, and the drive device 907 may read the program and supply it to the CPU 901 .

(本実施形態の効果)
本実施形態の構成によれば、前記実施形態において説明した服装提案装置10、210、310が、ハードウェアとして実現される。したがって、前記実施形態において説明した効果と同様の効果を奏することができる。
(Effect of this embodiment)
According to the configuration of this embodiment, the outfit proposal devices 10, 210, and 310 described in the above embodiments are implemented as hardware. Therefore, the same effects as those described in the above embodiment can be obtained.

本発明は、例えば、指定された場所に適した服装をユーザに提案するリコメンドサービスに利用することができる。また、本発明は、ソフトウェアアプリケーション、データ活用のビジネスモデルにも利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used, for example, for a recommendation service that suggests clothes suitable for a specified place to a user. The present invention can also be used for software applications and data utilization business models.

1、2 通信システム
10、210、310 服装提案装置
11 入力受付部
12、311 画像収集部
13 人物検出部
14、312 服装情報抽出部
15 ユーザ情報取得部
16、216、313 提案部
Reference Signs List 1, 2 communication system 10, 210, 310 clothing proposal device 11 input reception unit 12, 311 image collection unit 13 person detection unit 14, 312 clothing information extraction unit 15 user information acquisition unit 16, 216, 313 proposal unit

Claims (10)

ユーザの顔に関する顔情報を取得し、前記ユーザの顔に類似している人物を検出する検出手段と、
当該検出された人物の服装に関する情報に基づいて、前記ユーザに服装を提案する提案手段と、
を備える情報処理システム。
a detecting means for acquiring face information relating to a user's face and detecting a person whose face is similar to the user's face;
proposal means for suggesting clothing to the user based on the detected clothing information of the person;
An information processing system comprising
前記人物の服装に関する情報は、前記人物の服装を構成する要素の組み合わせを示す情報を含む
ことを特徴とする請求項1に記載の情報処理システム。
2. The information processing system according to claim 1, wherein the information about the clothes of the person includes information indicating a combination of elements constituting the clothes of the person.
前記ユーザから場所を指定する情報の入力を受け付ける入力受付手段と、
前記ユーザに関する情報を取得するユーザ情報取得手段と、をさらに備え、
前記提案手段は、前記人物の服装に関する情報および前記ユーザに関する情報に基づいて、前記ユーザに提案する服装を決定する
ことを特徴とする請求項1または2に記載の情報処理システム。
input receiving means for receiving input of information designating a location from the user;
User information acquisition means for acquiring information about the user,
3. The information processing system according to claim 1, wherein said proposing means determines clothes to be suggested to said user based on information about clothes of said person and information about said user.
前記提案手段は、前記ユーザに指定された画像に含まれる人物の服装を構成する複数の衣服のうち所定の割合以上が前記ユーザの嗜好に対応する場合に、当該人物の服装に基づいて、前記ユーザに服装を提案する
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理システム。
When a predetermined ratio or more of a plurality of clothes constituting clothes of a person included in the image designated by the user corresponds to the preference of the user, the proposal means, based on the clothes of the person, 4. The information processing system according to any one of claims 1 to 3, wherein the information processing system proposes clothing to the user.
前記提案手段は、前記ユーザの性格と、前記ユーザに指定された画像に含まれる人物の出現頻度とに基づいて、前記ユーザに服装を提案する
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理システム。
4. The proposing unit according to any one of claims 1 to 3, wherein the proposing means proposes clothing to the user based on the character of the user and the appearance frequency of persons included in the image designated by the user. The information processing system according to item 1.
前記提案手段は、前記ユーザにより指定された場所のマナー情報を取得し、マナーに違反しない他人の服装に基づいて、前記ユーザに服装を提案する
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理システム。
4. The proposing unit according to any one of claims 1 to 3, wherein said proposing means acquires etiquette information of a place specified by said user, and proposes an outfit to said user based on the outfits of others who do not violate etiquette. The information processing system according to item 1.
前記入力受付手段は、前記ユーザに関する情報を入力するためのユーザ操作をさらに受け付け、
前記ユーザ情報取得手段は、前記ユーザ操作によって入力された前記ユーザに関する情報を取得する
ことを特徴とする請求項3に記載の情報処理システム。
The input receiving means further receives a user operation for inputting information about the user,
4. The information processing system according to claim 3, wherein the user information acquisition means acquires information about the user input by the user operation.
前記ユーザに関する情報に基づいて、前記人物の服装に関する情報を、前記ユーザにより指定された場所に関する画像から抽出する抽出手段をさらに備えた
ことを特徴とする請求項3から7のいずれか1項に記載の情報処理システム。
8. The apparatus according to any one of claims 3 to 7, further comprising extracting means for extracting, based on the information about the user, the information about the clothes of the person from the image about the place specified by the user. Information processing system as described.
コンピュータが、
ユーザの顔に関する顔情報を取得し、前記ユーザの顔に類似している人物を検出し、
当該検出された人物の服装に関する情報に基づいて、前記ユーザに服装を提案する、
ことを含む情報処理方法。
the computer
Obtaining face information about a user's face, detecting a person similar to the user's face,
suggesting clothes to the user based on information about clothes of the detected person;
information processing method, including
ユーザの顔に関する顔情報を取得し、前記ユーザの顔に類似している人物を検出することと、
当該検出された人物の服装に関する情報に基づいて、前記ユーザに服装を提案することと、
をコンピュータに実行させるためのプログラム。
obtaining face information about a user's face and detecting a person similar to the user's face;
suggesting clothes to the user based on information about clothes of the detected person;
A program that causes a computer to run
JP2023072870A 2018-12-27 2023-04-27 Information processing system, information processing method, and program Pending JP2023095908A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023072870A JP2023095908A (en) 2018-12-27 2023-04-27 Information processing system, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018245319A JP7279361B2 (en) 2018-12-27 2018-12-27 Clothing proposal device, clothing proposal method, and program
JP2023072870A JP2023095908A (en) 2018-12-27 2023-04-27 Information processing system, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018245319A Division JP7279361B2 (en) 2018-12-27 2018-12-27 Clothing proposal device, clothing proposal method, and program

Publications (1)

Publication Number Publication Date
JP2023095908A true JP2023095908A (en) 2023-07-06

Family

ID=71449172

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018245319A Active JP7279361B2 (en) 2018-12-27 2018-12-27 Clothing proposal device, clothing proposal method, and program
JP2023072870A Pending JP2023095908A (en) 2018-12-27 2023-04-27 Information processing system, information processing method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018245319A Active JP7279361B2 (en) 2018-12-27 2018-12-27 Clothing proposal device, clothing proposal method, and program

Country Status (1)

Country Link
JP (2) JP7279361B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7498086B2 (en) 2020-10-19 2024-06-11 Kddi株式会社 Information processing device, information processing method, and program
JP7498085B2 (en) 2020-10-19 2024-06-11 Kddi株式会社 Information processing device, information processing method, and program
JP2022152320A (en) * 2021-03-29 2022-10-12 株式会社MaaS Tech Japan Program and information processing device
KR102527398B1 (en) 2021-11-23 2023-04-28 엔에이치엔클라우드 주식회사 Method and system for virtual fitting based on video meeting program
JP7388649B1 (en) 2023-05-12 2023-11-29 株式会社リプラス Outfit suggestion device, outfit suggestion method, outfit suggestion program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5379547B2 (en) * 2009-04-20 2013-12-25 株式会社日本総合研究所 Costume providing support device, costume providing support method, and costume providing support program
JP6500374B2 (en) * 2014-09-11 2019-04-17 富士ゼロックス株式会社 Image processing apparatus and image processing program
US10592551B2 (en) * 2016-06-16 2020-03-17 Optim Corporation Clothing information providing system, clothing information providing method, and program
JP2018120527A (en) * 2017-01-27 2018-08-02 株式会社リコー Image processing apparatus, image processing method, and image processing system

Also Published As

Publication number Publication date
JP2020107084A (en) 2020-07-09
JP7279361B2 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
JP7196885B2 (en) Search system, search method, and program
JP7279361B2 (en) Clothing proposal device, clothing proposal method, and program
JP7136156B2 (en) Search support system, search support method and program
US20140032359A1 (en) System and method for providing intelligent recommendations
JP5504807B2 (en) Coordinated image creation device, coordinated image creation method and program
KR102437199B1 (en) Method And Apparatus for Recommending Clothing by Using Body Shape Information
US20210160018A1 (en) Automated customization with compatible objects
KR102064653B1 (en) Wearable glasses and method for clothes shopping based on augmented relity
JP6178487B1 (en) Coordinate system, coordinate device, and program
KR102102572B1 (en) System and method for providing online shopping mall
WO2020079235A1 (en) Method and apparatus for accessing clothing
KR20140015709A (en) System for image matching and method thereof
KR20200071196A (en) A virtual fitting system based on face recognition
CN112242007B (en) Virtual fitting method
US20230214911A1 (en) Systems and/or methods for presenting dynamic content for surveilled individuals
JP2024098124A (en) Search System
KR20230163818A (en) Clothes fitting and recommendation System for using 3D avatar
CN117057864A (en) Method and computing device for online recommendation of clothing commodities

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240530

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240625