JP7450241B2 - Information processing devices, information processing systems, and learning devices - Google Patents

Information processing devices, information processing systems, and learning devices Download PDF

Info

Publication number
JP7450241B2
JP7450241B2 JP2018237069A JP2018237069A JP7450241B2 JP 7450241 B2 JP7450241 B2 JP 7450241B2 JP 2018237069 A JP2018237069 A JP 2018237069A JP 2018237069 A JP2018237069 A JP 2018237069A JP 7450241 B2 JP7450241 B2 JP 7450241B2
Authority
JP
Japan
Prior art keywords
customer
learning
clothing
image
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018237069A
Other languages
Japanese (ja)
Other versions
JP2020071852A (en
JP2020071852A5 (en
Inventor
悠樹 北原
玄嗣 小原
岳 川上
Original Assignee
深和パテントサービス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018207329A external-priority patent/JP6472925B1/en
Application filed by 深和パテントサービス株式会社 filed Critical 深和パテントサービス株式会社
Priority to JP2018237069A priority Critical patent/JP7450241B2/en
Publication of JP2020071852A publication Critical patent/JP2020071852A/en
Publication of JP2020071852A5 publication Critical patent/JP2020071852A5/en
Priority to JP2023187443A priority patent/JP2024008995A/en
Application granted granted Critical
Publication of JP7450241B2 publication Critical patent/JP7450241B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数の服飾アイテムの中から客に応じた服飾アイテムを提案する技術に関する。 The present invention relates to a technique for suggesting a clothing item suitable for a customer from among a plurality of clothing items.

服飾アイテムを販売する店舗においては、多くの服飾アイテムが陳列されており、購入予定者が目的の服飾アイテムを探すことが容易ではない。 In stores that sell clothing items, many clothing items are displayed, and it is not easy for prospective purchasers to find the clothing item they are looking for.

例えば、特開2017-215667号公報(特許文献1)は、来店した顧客に対し、当該顧客が所持している物や顧客が見ている販売商品に基づく推奨商品を簡単にレコメンドすることができなかったといった課題に対して、店舗に来店した顧客に対して、当該顧客が身に着けている物品や店舗内の顧客がいる位置に陳列されている販売商品を撮影した写真を用いて、当該写真に写っている物品等の所有者情報に応じた種類の推奨商品に関する商品情報を提案する構成を開示する。 For example, Japanese Patent Application Publication No. 2017-215667 (Patent Document 1) makes it possible to easily recommend recommended products to customers who visit the store based on the items the customer owns or the sales products the customer is looking at. In order to solve the problem of not having a product, we asked customers who visited the store to take photos of the items they were wearing and the products on sale displayed at the customer's location in the store. To disclose a configuration for proposing product information regarding a type of recommended product according to owner information of an article or the like shown in a photograph.

国際公開第2003/069526号公報(特許文献2)は、身体的特徴が入力されたとき、その特徴に似合うファッション内容のデータを出力する第1データベース装置と、その第1データベース装置から出力されたファッション内容のデータに基づき、そのファッション内容を提供する店舗のデータを出力する第2データベース装置とを備えているファッションアドバイジングシステムを開示する。 International Publication No. 2003/069526 (Patent Document 2) discloses a first database device that outputs data on fashion contents that match the physical characteristics when physical characteristics are input; A fashion advising system is disclosed that includes a second database device that outputs data on stores that provide fashion content based on data on fashion content.

特表2001-502090号公報(特許文献3)は、顧客によるファッションショッピングの方法に関し、具体的には、顧客に関するデータに基づいて、購入するための適切なファッションを選択するのを助ける方法を開示する。 Japanese Patent Publication No. 2001-502090 (Patent Document 3) relates to a method for fashion shopping by customers, and specifically discloses a method for helping customers select appropriate fashion items to purchase based on data about the customer. do.

特開2017-215667号公報JP2017-215667A 国際公開第2003/069526号公報International Publication No. 2003/069526 特表2001-502090号公報Special Publication No. 2001-502090

特許文献1に開示される構成は、写真に写っている物品の種類と異なる商品で、例えば、色、形状、模様などのデザイン要素がその物品に合う商品、あるいは、所有者情報が第二所有者情報の場合の推奨商品は、例えば、写真に写っている物品の種類と同じ商品で、例えば、色、形状、模様などのデザイン要素がその物品に合う商品を、レコメンドするものであり、客の嗜好に応じた商品をレコメンドするようなものではない。 The configuration disclosed in Patent Document 1 is a product that is different from the type of product shown in the photo, for example, a product whose design elements such as color, shape, and pattern match the product, or whose owner information is a second owner. Recommended products in the case of customer information are, for example, products that are the same type as the product in the photo, and that have design elements such as color, shape, and pattern that match the product. It is not something that recommends products according to people's tastes.

特許文献2に開示される構成は、客の身体的特徴が入力されたとき、その特徴に似合うファッション内容を決定することが主眼に置かれており、客の嗜好に応じたファッションを提供するようなものではない。 The configuration disclosed in Patent Document 2 focuses on determining fashion content that suits the customer's physical characteristics when the customer's physical characteristics are input, and provides fashion that matches the customer's tastes. It's not something.

特許文献3に開示される構成は、バスト、ヒップ、ウエスト、腕長、身長、および正面中心の測定値を含む個人情報を取得して、購入するための衣服アイテムの選択を支援するものであり、衣服アイテムの提案には個人情報が必要となり、汎用的な運用には適さない構成である。 The configuration disclosed in Patent Document 3 acquires personal information including bust, hip, waist, arm length, height, and front-centered measurements to assist in selecting clothing items to purchase. , Personal information is required to suggest clothing items, and the configuration is not suitable for general-purpose operation.

本発明は、客の特徴を表わす特徴量に基づいて、複数の服飾アイテムの中から客に応じた服飾アイテムをより高い精度で提案する技術を提供することを目的としている。 An object of the present invention is to provide a technology that proposes a clothing item suitable for a customer from among a plurality of clothing items with higher accuracy based on feature quantities representing the customer's characteristics.

本発明のある局面によれば、客の特徴を表わす特徴量に基づいて複数の服飾アイテムの中から当該客に応じた服飾アイテムを提案する情報処理装置が提供される。情報処理装置は、客を撮像するためのカメラと、音声を収集するためのマイクロフォンと、カメラで客を撮像して得られた画像内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定するための領域特定部と、画像の顔領域から第1特徴量を抽出するとともに、画像の体領域から第2特徴量を抽出するための画像特徴抽出部と、マイクロフォンで収集された音声のうち客の発話に対応する部分の音声から第3特徴量を抽出するための音声特徴抽出部と、第1特徴量、第2特徴量および第3特徴量の入力を受けて、複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性を、推定結果として出力する学習済の推定モデルと、推定結果に基づいて、客に応じた服飾アイテムを表示するための表示部とを含む。推定モデルは、学習用データセットを用いた学習処理により生成され、学習用データセットは、他の客を撮像して得られた画像および当該他の客が発話した音声に対して、当該他の客が購入した服飾アイテムをラベル付けした学習用データを複数含む。 According to an aspect of the present invention, there is provided an information processing device that proposes a clothing item suitable for a customer from among a plurality of clothing items based on a feature quantity representing the customer's characteristics. The information processing device includes a camera for taking an image of the customer, a microphone for collecting voice, and a facial area representing the customer's face and a facial area representing the customer's body in the image obtained by taking the customer with the camera. an image feature extractor for extracting a first feature from the face region of the image and a second feature from the body region of the image; an audio feature extraction unit for extracting a third feature from a portion of the collected audio that corresponds to the customer's utterance; , a trained estimation model that outputs the probability that each of a plurality of clothing items is a clothing item that should be proposed as an estimation result, and a system that displays clothing items according to the customer based on the estimation results. and a display section. The estimation model is generated by a learning process using a training data set, and the training data set is based on images obtained by capturing images of other customers and voices uttered by the other customers. Contains multiple learning data labeled with clothing items purchased by customers.

表示部は、マイクロフォンによる音声の収集前に、服飾アイテムの分類を示すカテゴリのリストを表示するとともに、当該リストに表示されているカテゴリのいずれかを音声で選択することを客に促すメッセージを表示するようにしてもよい。 Before the voice is collected by the microphone, the display section displays a list of categories indicating the classification of clothing items, and also displays a message prompting the customer to select one of the categories displayed on the list by voice. You may also do so.

領域特定部は、客が身につけている服飾を表わす部分を体領域として特定するようにしてもよい。 The area specifying unit may specify a part representing clothing worn by the customer as the body area.

複数の服飾アイテムの各々は、予め定められた複数のカテゴリのいずれかに属していてもよい。情報処理装置は、客が発話した音声に基づいて、複数のカテゴリの中から、客によって選択されたカテゴリを特定するための音声解析部をさらに含んでいてもよい。表示部は、推定結果に基づいて表示される服飾アイテムのうち、音声解析部により特定されたカテゴリに属する服飾アイテムと、当該特定されたカテゴリに属さない服飾アイテムとを異なる表示態様で表示するようにしてもよい。 Each of the plurality of clothing items may belong to one of a plurality of predetermined categories. The information processing device may further include a voice analysis unit for identifying a category selected by the customer from among a plurality of categories based on the voice uttered by the customer. The display unit is configured to display clothing items that belong to the category specified by the voice analysis unit and clothing items that do not belong to the specified category in different display modes among the clothing items displayed based on the estimation results. You may also do so.

本発明の別の局面に従う情報処理システムは、客の特徴を表わす特徴量を学習済の推定モデルに入力して複数の服飾アイテムの中から当該客に応じた服飾アイテムを提案する情報処理装置と、推定モデルを生成するための学習装置とを含む。情報処理装置は、客を撮像するためのカメラと、音声を収集するためのマイクロフォンと、カメラで客を撮像して得られた入力画像内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定するための領域特定部と、入力画像の顔領域から第1特徴量を抽出するとともに、入力画像の体領域から第2特徴量を抽出するための画像特徴抽出部と、マイクロフォンで収集された音声のうち客の発話に対応する部分の音声から第3特徴量を抽出するための音声特徴抽出部とを含む。推定モデルは、第1特徴量、第2特徴量および第3特徴量の入力を受けて、複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性を、推定結果として出力するように学習されている。情報処理装置は、推定結果に基づいて、客に応じた服飾アイテムを表示するための表示部をさらに含む。学習装置は、学習用データセットを取得するための取得部を含む。学習用データセットは、他の客を撮像して得られた学習用画像および当該他の客が発話した学習用音声に対して、当該他の客が購入した服飾アイテムをラベル付けした学習用データを複数含む。学習装置は、さらに、学習用画像内において、他の客の顔を表わす顔領域と、他の客の体を表わす体領域とを特定するための領域特定部と、学習用画像の顔領域から第1学習用特徴量を抽出するとともに、学習用画像の体領域から第2学習用特徴量を抽出するための画像特徴抽出部と、学習用音声のうち他の客の発話に対応する部分の音声から第3学習用特徴量を抽出するための音声特徴抽出部と、学習用データから抽出された、第1学習用特徴量、第2学習用特徴量および第3学習用特徴量を推定モデルに入力して出力される推定結果が、当該学習用データにラベル付けされている服飾アイテムの購入実績に近付くように、推定モデルを最適化するための学習部とを含む。 An information processing system according to another aspect of the present invention is an information processing device that inputs feature quantities representing characteristics of a customer into a trained estimation model to suggest clothing items suitable for the customer from among a plurality of clothing items. , and a learning device for generating an estimated model. The information processing device includes a camera for capturing an image of the customer, a microphone for collecting voice, and a facial area representing the customer's face and a facial area representing the customer's body in the input image obtained by capturing the customer using the camera. an image feature extraction unit for extracting a first feature amount from the face region of the input image and a second feature amount from the body region of the input image; , and an audio feature extracting unit for extracting a third feature amount from a portion of the audio collected by the microphone that corresponds to the customer's utterance. The estimation model receives input of the first feature, the second feature, and the third feature, and outputs the probability that each of the plurality of clothing items is the clothing item to be proposed as an estimation result. This is how it is learned. The information processing device further includes a display unit for displaying clothing items appropriate for the customer based on the estimation result. The learning device includes an acquisition unit for acquiring a learning data set. The training data set is training data in which clothing items purchased by the other customer are labeled based on the training image obtained by imaging the other customer and the training voice uttered by the other customer. Contains multiple. The learning device further includes an area identifying unit for identifying a face area representing the face of another customer and a body area representing the body of the other customer in the learning image, and an area identifying unit for identifying a face area representing the face of another customer and a body area representing the body of the other customer in the learning image; an image feature extraction unit for extracting a first learning feature and a second learning feature from the body region of the learning image; A voice feature extraction unit for extracting a third learning feature from speech, and a model for estimating the first learning feature, second learning feature, and third learning feature extracted from the learning data. and a learning unit for optimizing the estimation model so that the estimation result inputted and output from the learning data approaches the purchase history of the clothing item labeled in the learning data.

本発明のさらに別の局面に従えば、客の特徴を表わす特徴量の入力を受けて複数の服飾アイテムの中から当該客に応じた服飾アイテムの提案に用いられる推定モデルを生成するための学習装置が提供される。学習装置は、学習用データセットを取得するための取得部を含む。学習用データセットは、客を撮像して得られた画像および当該客が発話した音声に対して、当該客が購入した服飾アイテムをラベル付けした学習用データを複数含む。学習装置は、画像内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定するための領域特定部と、画像の顔領域から第1特徴量を抽出するとともに、画像の体領域から第2特徴量を抽出するための画像特徴抽出部と、音声のうち客の発話に対応する部分の音声から第3特徴量を抽出するための音声特徴抽出部と、学習用データから抽出された、第1特徴量、第2特徴量および第3特徴量を推定モデルに入力して出力される推定結果が、当該学習用データにラベル付けされている服飾アイテムの購入実績に近付くように、推定モデルを最適化するための学習部とを含む。 According to still another aspect of the present invention, learning is performed to generate an estimation model used to propose a clothing item suitable for the customer from among a plurality of clothing items upon receiving input of feature values representing the customer's characteristics. Equipment is provided. The learning device includes an acquisition unit for acquiring a learning data set. The learning data set includes a plurality of pieces of learning data in which clothing items purchased by the customer are labeled with respect to images obtained by imaging the customer and voices uttered by the customer. The learning device includes an area identifying unit for identifying a facial area representing a customer's face and a body area representing a customer's body in the image, and a region identifying unit that extracts a first feature amount from the facial area of the image. an image feature extractor for extracting a second feature from the body region of the customer; an audio feature extractor for extracting a third feature from a portion of the voice that corresponds to the customer's utterance; and learning data. The estimation result that is output by inputting the first feature amount, second feature amount, and third feature amount extracted from the estimation model to the estimation model approaches the purchase history of the clothing item labeled in the training data. and a learning unit for optimizing the estimation model.

本発明のさらに別の局面に従えば、客の特徴を表わす特徴量の入力を受けて複数の服飾アイテムの中から当該客に応じた服飾アイテムの提案に用いられる学習済の推定モデルが提供される。推定モデルは、学習用データセットを用いた学習処理により生成される。学習用データセットは、客を撮像して得られた画像および当該客が発話した音声に対して、当該客が購入した服飾アイテムをラベル付けした学習用データを複数含む。学習処理は、学習用データの各々について、画像内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定するステップと、画像の顔領域から第1特徴量を抽出するとともに、画像の体領域から第2特徴量を抽出するステップと、音声のうち客の発話に対応する部分の音声から第3特徴量を抽出するステップと、第1特徴量、第2特徴量および第3特徴量を推定モデルに入力して出力される推定結果が、当該学習用データにラベル付けされている服飾アイテムの購入実績に近付くように、推定モデルを最適化するステップとを含む。 According to still another aspect of the present invention, there is provided a trained estimation model that is used to propose a clothing item suitable for the customer from among a plurality of clothing items upon receiving input of feature quantities representing the customer's characteristics. Ru. The estimated model is generated by a learning process using a learning data set. The learning data set includes a plurality of pieces of learning data in which clothing items purchased by the customer are labeled with respect to images obtained by imaging the customer and voices uttered by the customer. The learning process includes the steps of identifying, for each of the learning data, a facial area representing the customer's face and a body area representing the customer's body in the image, and extracting a first feature amount from the facial area of the image. In addition, a step of extracting a second feature amount from the body region of the image, a step of extracting a third feature amount from a portion of the audio corresponding to the customer's utterance, and a step of extracting the first feature amount, the second feature amount, and The method includes a step of optimizing the estimation model so that the estimation result outputted by inputting the third feature amount into the estimation model approaches the purchase history of the clothing item labeled in the learning data.

本発明のさらに別の局面に従えば、客の特徴を表わす特徴量の入力を受けて複数の服飾アイテムの中から当該客に応じた服飾アイテムの提案に用いられる推定モデルの学習に用いられる学習用データの収集方法が提供される。学習用データの収集方法は、客を撮像して得られた画像および客の発話を含む音声を取得するステップと、画像および音声から抽出される複数の特徴量を学習済の推定モデルに入力して当該客に応じた服飾アイテムの提案を生成するステップと、識別情報を生成するステップと、生成された服飾アイテムの提案および生成された識別情報を含む、服飾アイテムの購入を促す媒体を発行するステップと、生成された識別情報と画像および音声とを関連付けるステップと、媒体に含まれる識別情報および客が購入した服飾アイテムを取得するステップと、媒体から取得された識別情報と客が購入した服飾アイテムとを関連付けるステップと、識別情報をキーとして画像および音声と客が購入した服飾アイテムとを関連付けて、推定モデルの学習に用いられる学習用データとして保存するステップとを含む。 According to still another aspect of the present invention, learning is used for learning an estimation model used to propose a clothing item suitable for the customer from among a plurality of clothing items upon receiving input of feature values representing the customer's characteristics. A method for collecting data is provided. The method of collecting data for training involves the steps of capturing an image of a customer and acquiring audio including the customer's utterances, and inputting multiple features extracted from the image and audio into a trained estimation model. generating a proposal for a clothing item according to the customer; generating identification information; and publishing a medium that encourages the purchase of the clothing item, including the generated proposal for the clothing item and the generated identification information. a step of associating the generated identification information with an image and a sound; a step of obtaining the identification information included in the medium and the clothing item purchased by the customer; and the step of associating the generated identification information with the image and audio; and the step of obtaining the identification information acquired from the medium and the clothing item purchased by the customer. and a step of associating the image and voice with the clothing item purchased by the customer using identification information as a key, and storing the association as learning data used for learning the estimation model.

本発明によれば、客の特徴を表わす特徴量に基づいて、複数の服飾アイテムの中から客に応じた服飾アイテムをより高い精度で提案できる。 According to the present invention, it is possible to suggest a clothing item suitable for a customer from among a plurality of clothing items with higher accuracy based on feature amounts representing the customer's characteristics.

本実施の形態に従う服飾提案システムが配置される店舗の外観の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of the appearance of a store where the clothing suggestion system according to the present embodiment is installed. 本実施の形態に従う服飾提案システムを構成する表示端末での処理を説明するための図である。FIG. 3 is a diagram for explaining processing at a display terminal that constitutes the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する表示端末での処理を説明するための図である。FIG. 3 is a diagram for explaining processing at a display terminal that constitutes the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する表示端末から出力されたクーポンを利用する来店者を説明するための図である。FIG. 2 is a diagram for explaining a store visitor who uses a coupon output from a display terminal that constitutes the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムにおける学習用データセットの生成処理を説明するための図である。FIG. 3 is a diagram for explaining a learning data set generation process in the clothing proposal system according to the present embodiment. 本実施の形態に従う服飾提案システムのシステム構成の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of a system configuration of a clothing proposal system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する表示端末のハードウェア構成の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of the hardware configuration of a display terminal that constitutes the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成するPOS端末のハードウェア構成の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of the hardware configuration of a POS terminal that constitutes the clothing proposal system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する管理装置のハードウェア構成の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of the hardware configuration of a management device that constitutes the clothing proposal system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する表示端末の機能構成の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of the functional configuration of a display terminal that constitutes the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する表示端末の提案アイテム推定機能における処理内容を説明するための図である。FIG. 3 is a diagram for explaining processing contents in a proposed item estimation function of a display terminal that constitutes the clothing suggestion system according to the present embodiment. 図11に示す領域特定モジュールによる領域特定の処理を説明するための図である。FIG. 12 is a diagram for explaining area identification processing by the area identification module shown in FIG. 11; 図11に示す区間特定モジュールによる区間特定の処理を説明するための図である。FIG. 12 is a diagram for explaining the process of specifying a section by the section specifying module shown in FIG. 11; 図11に示す推定モデルのネットワーク構成例を示す模式図である。12 is a schematic diagram showing an example of a network configuration of the estimation model shown in FIG. 11. FIG. 本実施の形態に従う服飾提案システムを構成する表示端末の表示制御機能150およびクーポン発行制御機能における処理内容を説明するための図である。FIG. 2 is a diagram for explaining processing contents in a display control function 150 and a coupon issuance control function of a display terminal that constitutes the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する表示端末の画像音声保存機能170における処理内容を説明するための図である。FIG. 7 is a diagram for explaining the processing contents in the image and audio storage function 170 of the display terminal that constitutes the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する表示端末におけるアイテム推定処理の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the item estimation process in the display terminal which comprises the clothing suggestion system according to this Embodiment. 本実施の形態に従う服飾提案システムを構成するPOS端末の機能構成の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of the functional configuration of a POS terminal that constitutes the clothing proposal system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成するPOS端末の売上情報保存機能250における処理内容を説明するための図である。FIG. 6 is a diagram for explaining the processing contents in the sales information storage function 250 of the POS terminal that constitutes the clothing proposal system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成するPOS端末における売上管理処理の処理手順を示すフローチャートである。It is a flowchart showing the processing procedure of sales management processing in the POS terminal that constitutes the clothing proposal system according to the present embodiment. 本実施の形態に従う服飾提案システムにおける学習フェーズの概要について説明するための図である。FIG. 2 is a diagram for explaining an overview of a learning phase in the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する管理装置の機能構成の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of the functional configuration of a management device that constitutes the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する管理装置の学習用データセット生成機能350における処理内容を説明するための図である。FIG. 7 is a diagram for explaining processing contents in a learning data set generation function 350 of the management device that constitutes the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する管理装置の学習機能360における処理内容を説明するための図である。FIG. 7 is a diagram for explaining processing contents in a learning function 360 of the management device that constitutes the clothing suggestion system according to the present embodiment. 本実施の形態に従う服飾提案システムを構成する管理装置における学習処理の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the learning process in the management device which constitutes the clothing suggestion system according to this embodiment. 本実施の形態の変形例1に従う服飾提案システムのシステム構成の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a system configuration of a clothing proposal system according to a first modification of the present embodiment. 本実施の形態の変形例2に従う服飾提案システムの表示端末に表示されるアイテム提案画面を説明するための図である。FIG. 7 is a diagram for explaining an item suggestion screen displayed on a display terminal of the clothing suggestion system according to a second modification of the present embodiment. 本実施の形態の変形例2に従う服飾提案システムを構成する表示端末の表示制御機能およびクーポン発行制御機能における処理内容を説明するための図である。It is a figure for explaining the processing content in the display control function and coupon issuing control function of the display terminal which constitutes the clothing proposal system according to the modification 2 of this embodiment. 本実施の形態の変形例3に従う服飾提案システムを構成する表示端末の提案アイテム推定機能における処理内容を説明するための図である。FIG. 12 is a diagram for explaining processing contents in a suggested item estimation function of a display terminal that constitutes a clothing suggestion system according to a third modification of the present embodiment. 本実施の形態の変形例4に従う服飾提案システムを構成する表示端末の提案アイテム推定機能における処理内容を説明するための図である。FIG. 12 is a diagram for explaining processing contents in a proposed item estimation function of a display terminal that constitutes a clothing suggestion system according to a fourth modification of the present embodiment. 本実施の形態の変形例5に従う服飾提案システムの使用例を示す模式図である。It is a schematic diagram which shows the example of use of the clothing suggestion system according to the modification 5 of this Embodiment. 本実施の形態の変形例5に従う服飾提案システムの実装例を示す模式図である。It is a schematic diagram which shows the example of implementation of the clothing suggestion system according to the modification 5 of this Embodiment.

本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the figures are designated by the same reference numerals, and the description thereof will not be repeated.

<A.服飾提案システムの概要>
まず、本発明に係る情報処理システムの典型例として、本実施の形態に従う服飾提案システム1の概要について説明する。
<A. Overview of the clothing suggestion system>
First, as a typical example of an information processing system according to the present invention, an outline of a clothing proposal system 1 according to the present embodiment will be explained.

本明細書において、「服飾」は、人が身につける衣服(衣類)および装身具(装飾品)の全般を意味する。「服飾アイテム」は、服飾に含まれる任意の商品を指し示す用語である。説明の簡単化のため、「服飾アイテム」を単に「アイテム」と称することもある。 As used herein, "clothing" refers to all clothing (clothing) and accessories (accessories) worn by people. "Clothing item" is a term indicating any product included in clothing. For ease of explanation, "clothing items" may be simply referred to as "items."

本明細書において、「客」は、服飾アイテムについて何らかの購入意思を有するユーザ一般を意味するものである。以下の説明においては、店舗の来店する客を「来店者」とも称す。また、携帯端末を介して本実施の形態に従うシステムを利用する客を「ネットユーザ」とも称す。 In this specification, the term "customer" refers to a general user who has some intention of purchasing clothing items. In the following explanation, customers who visit the store are also referred to as "visitors." Further, a customer who uses the system according to this embodiment via a mobile terminal is also referred to as a "net user."

図1は、本実施の形態に従う服飾提案システム1が配置される店舗の外観の一例を示す模式図である。図2および図3は、本実施の形態に従う服飾提案システム1を構成する表示端末100での処理を説明するための図である。 FIG. 1 is a schematic diagram showing an example of the appearance of a store in which a clothing proposal system 1 according to the present embodiment is installed. 2 and 3 are diagrams for explaining processing at display terminal 100 that constitutes clothing proposal system 1 according to the present embodiment.

図1に示すように、店舗30に客(以下、「来店者40」とも称す。)が入店したとする。店舗30の店内の入り口付近には、情報処理装置の一例である表示端末100が配置されている。表示端末100は、比較的大型のディスプレイ102と、ディスプレイ102に近傍に配置された人感センサ128、カメラ130およびマイクロフォン132とを含む。ディスプレイ102の下部には、プリンタ120が配置されている。 As shown in FIG. 1, it is assumed that a customer (hereinafter also referred to as "visitor 40") enters the store 30. A display terminal 100, which is an example of an information processing device, is arranged near the entrance of the store 30. Display terminal 100 includes a relatively large display 102, a human sensor 128, a camera 130, and a microphone 132 arranged near the display 102. A printer 120 is arranged below the display 102.

来店者40が表示端末100に接近すると(図2(a))、人感センサ128がその接近を検知して、ディスプレイ102にはカテゴリ選択受付画面50が表示される(図2(b))。この状態において、表示端末100のカメラ130により来店者40が撮像される。すなわち、表示端末100では来店者40を示す画像(以下、「撮像画像136」とも称す。)が取得される。 When the store visitor 40 approaches the display terminal 100 (FIG. 2(a)), the human sensor 128 detects the approach, and the category selection reception screen 50 is displayed on the display 102 (FIG. 2(b)). . In this state, the store visitor 40 is imaged by the camera 130 of the display terminal 100. That is, the display terminal 100 acquires an image showing the store visitor 40 (hereinafter also referred to as "captured image 136").

カテゴリ選択受付画面50には、1または複数のカテゴリがリスト表示されている。併せて、来店者40の発話を促すための、「音声でカテゴリを選択して下さい」とのメッセージが表示されている。 The category selection reception screen 50 displays a list of one or more categories. At the same time, a message "Please select a category by voice" is displayed to encourage the visitor 40 to speak.

その後、表示端末100のマイクロフォン132により音声の収集が開始され、来店者40が希望するカテゴリを示す音声(図2に示す例では、「ジャケット」)を発すると(図2(c))、ディスプレイ102にはアイテム提案画面52が出力される(図3(a))。このとき、表示端末100では来店者40が発した音声(以下、「収集音声138」とも称す。)が取得される。 Thereafter, the microphone 132 of the display terminal 100 starts collecting voices, and when the visitor 40 utters a voice indicating the desired category (in the example shown in FIG. 2, "jacket") (FIG. 2(c)), the display An item suggestion screen 52 is output to 102 (FIG. 3(a)). At this time, the display terminal 100 acquires the voice uttered by the store visitor 40 (hereinafter also referred to as "collected voice 138").

このように、ディスプレイ102は、マイクロフォン132による音声の収集前に、服飾アイテムの分類を示すカテゴリのリストを表示するとともに、当該リストに表示されているカテゴリのいずれかを音声で選択することを来店者40に促すメッセージを表示する。 In this way, before the microphone 132 collects the audio, the display 102 displays a list of categories indicating the classification of clothing items, and also prompts the store visitor to select one of the categories displayed on the list by voice. A message prompting the person 40 is displayed.

アイテム提案画面52は、来店者40の嗜好に応じて「おすすめ」と推定された服飾アイテムの一覧表示54を含む。アイテム提案画面52に一覧表示されるアイテムは、後述するような学習済モデルを用いたアイテム推定処理の実行により得られる推定結果に基づいて決定される。このように、情報処理装置の一例である表示端末100は、客の特徴を表わす特徴量(典型的には、撮像画像136および収集音声138)に基づいて複数の服飾アイテムの中から当該客に応じた服飾アイテムを提案する。 The item suggestion screen 52 includes a list display 54 of clothing items that are estimated to be "recommended" according to the preferences of the store visitor 40. The items displayed in a list on the item suggestion screen 52 are determined based on estimation results obtained by executing item estimation processing using a learned model as described below. In this way, the display terminal 100, which is an example of an information processing device, selects a customer from among a plurality of clothing items based on the feature values representing the customer's characteristics (typically, the captured image 136 and the collected audio 138). Suggest appropriate clothing items.

アイテム提案画面52は、クーポン発行ボタン56をさらに有している。クーポン発行ボタン56の押下に応答して、プリンタ120からはクーポン10が出力される。 The item suggestion screen 52 further includes a coupon issue button 56. In response to pressing the coupon issue button 56, the coupon 10 is output from the printer 120.

プリンタ120から出力されるクーポン10は、割引額表示12に加えて、アイテム提案画面52に含まれる一覧表示54に対応する一覧表示14と、一覧表示14に含まれる各アイテムが店舗内のいずれに位置にあるのかを示す地図16とを含む(図3(b))。 In addition to the discount amount display 12, the coupon 10 output from the printer 120 also displays a list display 14 corresponding to the list display 54 included in the item suggestion screen 52, and a list display 14 corresponding to the list display 54 included in the item suggestion screen 52, and a list display 14 indicating where each item included in the list display 14 is located in the store. and a map 16 indicating the location (FIG. 3(b)).

さらに、クーポン10は、後述するクーポンIDを示すQRコード(登録商標)などの識別画像18を含む。識別画像18が示すクーポンIDを用いることで、推定モデルの学習に用いられる学習用データセットが生成される。 Further, the coupon 10 includes an identification image 18 such as a QR code (registered trademark) indicating a coupon ID, which will be described later. By using the coupon ID indicated by the identification image 18, a learning data set used for learning the estimation model is generated.

図4は、本実施の形態に従う服飾提案システム1を構成する表示端末100から出力されたクーポン10を利用する来店者40を説明するための図である。来店者40は、クーポン10に印字された内容を参考にしながら、ショッピングを楽しむことができる(図4(a))。クーポン10を提示することで割引が適用されるので、通常、来店者40は、表示端末100から出力されたクーポン10を会計時に提示する(図4(b))。 FIG. 4 is a diagram for explaining a store visitor 40 who uses the coupon 10 output from the display terminal 100 that constitutes the clothing suggestion system 1 according to the present embodiment. The visitor 40 can enjoy shopping while referring to the content printed on the coupon 10 (FIG. 4(a)). Since the discount is applied by presenting the coupon 10, the visitor 40 usually presents the coupon 10 output from the display terminal 100 at the time of checkout (FIG. 4(b)).

図5は、本実施の形態に従う服飾提案システム1における学習用データセットの生成処理を説明するための図である。図5を参照して、表示端末100において取得された撮像画像136および収集音声138と、購入されたアイテムの情報(以下、「売上情報218」とも称す。)とは、クーポン10(正確には、クーポンID166)を媒介として対応付けられる。このように、対応付けられた撮像画像136および収集音声138と売上情報218とが学習用データセットとして推定モデルの学習に用いられる。 FIG. 5 is a diagram for explaining the training data set generation process in the clothing proposal system 1 according to the present embodiment. Referring to FIG. 5, the captured image 136 and collected audio 138 acquired by the display terminal 100 and the information on the purchased item (hereinafter also referred to as "sales information 218") are the coupon 10 (more precisely, , coupon ID 166) as an intermediary. In this way, the associated captured image 136, collected audio 138, and sales information 218 are used as a learning data set for learning the estimation model.

このように、本実施の形態に従う服飾提案システム1においては、入店時に来店者40の嗜好に基づくアイテムの提案を行うとともに、来店者40が実際に購入したアイテムの情報を用いて、アイテムの提案を行うための推定モデルを学習することができる。 In this way, the clothing suggestion system 1 according to the present embodiment not only proposes items based on the preferences of the visitor 40 when entering the store, but also proposes items based on the preferences of the visitor 40 using information on items actually purchased by the visitor 40. Estimation models for making suggestions can be learned.

<B.服飾提案システムのハードウェア構成例>
次に、本実施の形態に従う服飾提案システム1のシステム構成例について説明する。先に、服飾提案システム1の全体構成例を説明した上で、服飾提案システム1に含まれる主要装置のハードウェア構成例について説明する。
<B. Hardware configuration example of clothing proposal system>
Next, an example of the system configuration of the clothing proposal system 1 according to the present embodiment will be described. First, an example of the overall configuration of the clothing proposal system 1 will be described, and then an example of the hardware configuration of the main devices included in the clothing proposal system 1 will be described.

(b1:システム構成例)
図6は、本実施の形態に従う服飾提案システム1のシステム構成の一例を示す模式図である。図6を参照して、服飾提案システム1は、ローカルネットワーク2を介して接続された、1または複数の表示端末100と、1または複数のPOS端末200と、管理装置300とを含む。
(b1: System configuration example)
FIG. 6 is a schematic diagram showing an example of the system configuration of the clothing proposal system 1 according to the present embodiment. Referring to FIG. 6, clothing proposal system 1 includes one or more display terminals 100, one or more POS terminals 200, and management device 300, which are connected via local network 2.

表示端末100は、典型的には店舗30の入口付近に配置されて、来店者の嗜好に応じた服飾を提案する。より具体的には、表示端末100は、来店者を撮像することで画像を取得するとともに、当該来店者が発する音声を収集する。表示端末100は、来店者の画像(以下、「撮像画像」とも称す。)および音声(以下、「収集音声」とも称す。)を学習済モデルに入力することで、当該来店者の嗜好への適合度(以下、「スコア」とも称す。)を販売しているアイテム毎に算出する。表示端末100は、上位のスコアを有するアイテムを当該来店者へ提案する。表示端末100は、来店者へ提案したアイテムが印字されたクーポンを発行することもできる。 The display terminal 100 is typically placed near the entrance of the store 30 and suggests clothing according to the tastes of the store visitor. More specifically, the display terminal 100 acquires an image by capturing an image of a visitor, and also collects the sounds uttered by the visitor. The display terminal 100 inputs images (hereinafter also referred to as "captured images") and sounds (hereinafter also referred to as "collected sounds") of the store visitor into a trained model, thereby adjusting the preferences of the store visitor. The degree of suitability (hereinafter also referred to as "score") is calculated for each item being sold. The display terminal 100 suggests items with high scores to the store visitor. The display terminal 100 can also issue a coupon on which the proposed item is printed to the visitor.

表示端末100は、さらに、撮像画像および収集音声を要求に応じて管理装置300へ送信することもできる。 The display terminal 100 can also transmit captured images and collected audio to the management device 300 upon request.

POS端末200は、来店者が購入を希望するアイテムの会計処理を実行する。POS端末200は、購入されたアイテムの情報(売上情報)を生成するとともに、要求に応じて管理装置300へ送信することもできる。 The POS terminal 200 performs checkout processing for items that a visitor wishes to purchase. The POS terminal 200 can generate information on purchased items (sales information) and also transmit it to the management device 300 in response to a request.

管理装置300は、表示端末100が利用する学習済モデルの管理および更新を担当する。より具体的には、管理装置300は、表示端末100から撮像画像および収集音声を取得するとともに、POS端末200から売上情報を取得する。そして、管理装置300は、取得した撮像画像および収集音声と取得した売上情報とから学習用データセットを生成する。管理装置300は、生成した学習用データセットを用いて、学習済モデルの学習(新規学習および追加学習の両方を含み得る。)を実行する。 The management device 300 is in charge of managing and updating learned models used by the display terminal 100. More specifically, the management device 300 acquires captured images and collected audio from the display terminal 100, and also acquires sales information from the POS terminal 200. Then, the management device 300 generates a learning data set from the acquired captured images and collected sounds, and the acquired sales information. The management device 300 executes learning of the learned model (which may include both new learning and additional learning) using the generated learning data set.

管理装置300により生成または更新された学習済モデルは、表示端末100へ送信される。 The learned model generated or updated by the management device 300 is transmitted to the display terminal 100.

(b2:表示端末100)
図7は、本実施の形態に従う服飾提案システム1を構成する表示端末100のハードウェア構成の一例を示す模式図である。表示端末100は、汎用コンピュータを用いて実現されてもよい。
(b2: display terminal 100)
FIG. 7 is a schematic diagram showing an example of the hardware configuration of the display terminal 100 that constitutes the clothing proposal system 1 according to the present embodiment. Display terminal 100 may be realized using a general-purpose computer.

図7を参照して、表示端末100は、主要なハードウェア要素として、ディスプレイ102と、プロセッサ104と、メモリ106と、ネットワークコントローラ108と、ストレージ110と、プリンタ120と、光学ドライブ122と、タッチ検出部126と、人感センサ128と、カメラ130と、マイクロフォン132とを含む。 Referring to FIG. 7, the display terminal 100 includes a display 102, a processor 104, a memory 106, a network controller 108, a storage 110, a printer 120, an optical drive 122, and a touch panel as main hardware elements. It includes a detection unit 126, a human sensor 128, a camera 130, and a microphone 132.

ディスプレイ102は、カテゴリ選択受付画面50やアイテム提案画面52などを出力する。ディスプレイ102は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイなどで構成される。 The display 102 outputs a category selection reception screen 50, an item proposal screen 52, and the like. The display 102 is configured with, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence) display.

プロセッサ104は、後述するような各種プログラムを実行することで、表示端末100の実現に必要な処理を実行する演算主体である、プロセッサ104としては、例えば、1または複数のCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで構成される。複数のコアを有するCPUまたはGPUを用いてもよい。 The processor 104 is an arithmetic main body that executes processes necessary for realizing the display terminal 100 by executing various programs as described below.The processor 104 includes, for example, one or more CPUs (Central Processing Unit) It consists of a GPU (Graphics Processing Unit), etc. A CPU or GPU having multiple cores may also be used.

メモリ106は、プロセッサ104がプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ106としては、例えば、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)などの揮発性メモリデバイスを用いてもよい。 The memory 106 provides a storage area for temporarily storing program codes, work memory, etc. when the processor 104 executes a program. As the memory 106, for example, a volatile memory device such as a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory) may be used.

ネットワークコントローラ108は、ローカルネットワーク2を介して、管理装置300を含む任意の情報処理装置などとの間でデータを送受信する。ネットワークコントローラ108は、例えば、イーサネット(登録商標)、無線LAN(Local Area Network)、Bluetooth(登録商標)などの任意の通信方式に対応するようにしてもよい。 The network controller 108 transmits and receives data to and from arbitrary information processing devices including the management device 300 via the local network 2. The network controller 108 may be compatible with any communication method such as, for example, Ethernet (registered trademark), wireless LAN (Local Area Network), or Bluetooth (registered trademark).

ストレージ110は、プロセッサ104にて実行されるOS(Operating System)112、後述するような機能構成を実現するためのアプリケーションプログラム114、学習済モデル116、およびアイテム提案画面52を生成するためのアイテム画像118などを格納する。ストレージ110としては、例えば、ハードディスク、SSD(Solid State Drive)などの不揮発性メモリデバイスを用いてもよい。さらに、ストレージ110には、来店者を撮像して取得される撮像画像および当該来店者が発する音声である収集音声を格納するようにしてもよい。 The storage 110 stores an OS (Operating System) 112 executed by the processor 104, an application program 114 for realizing a functional configuration as described below, a learned model 116, and an item image for generating the item suggestion screen 52. 118 etc. are stored. As the storage 110, for example, a nonvolatile memory device such as a hard disk or a solid state drive (SSD) may be used. Further, the storage 110 may store captured images obtained by capturing a visitor to the store and collected sounds that are sounds uttered by the visitor.

アプリケーションプログラム114をプロセッサ104で実行する際に必要となるライブラリや機能モジュールの一部を、OS112が標準で提供するライブラリまたは機能モジュールを用いるようにしてもよい。この場合には、アプリケーションプログラム114単体では、対応する機能を実現するために必要なプログラムモジュールのすべてを含むものにはならないが、OS112の実行環境下にインストールされることで、後述するような機能構成を実現できることになる。そのため、このような一部のライブラリまたは機能モジュールを含まないプログラムであっても、本発明の技術的範囲に含まれ得る。 A part of the library or function module required when the application program 114 is executed by the processor 104 may be a library or function module provided as a standard by the OS 112. In this case, although the application program 114 alone does not include all of the program modules necessary to implement the corresponding functions, by being installed under the execution environment of the OS 112, the functions described below can be implemented. The configuration can be realized. Therefore, even a program that does not include such a part of the library or functional module may be included in the technical scope of the present invention.

プリンタ120は、来店者へ提案したアイテムが印字されたクーポンを発行する。プリンタ120としては、電子写真方式、インクジェット方式および感熱紙方式などの任意の印刷方式を採用できる。 The printer 120 issues a coupon on which the proposed item is printed to the visitor. As the printer 120, any printing method such as an electrophotographic method, an inkjet method, or a thermal paper method can be adopted.

光学ドライブ122は、CD-ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)などの光学ディスク124に格納されているプログラムなどの情報を読み出す。光学ディスク124は、非一過的(non-transitory)な記録媒体の一例であり、任意のプログラムを不揮発的に格納した状態で流通する。光学ドライブ122が光学ディスク124からプログラムを読み出して、ストレージ110にインストールすることで、本実施の形態に従う表示端末100を構成できる。したがって、本発明の主題は、ストレージ110などにインストールされたプログラム自体、または、本実施の形態に従う機能や処理を実現するためのプログラムを格納した光学ディスク124などの記録媒体でもあり得る。 The optical drive 122 reads information such as programs stored on an optical disc 124 such as a CD-ROM (Compact Disc Read Only Memory) or a DVD (Digital Versatile Disc). The optical disc 124 is an example of a non-transitory recording medium, and is distributed in a state in which an arbitrary program is stored in a non-volatile manner. Display terminal 100 according to this embodiment can be configured by optical drive 122 reading a program from optical disk 124 and installing it in storage 110. Therefore, the subject matter of the present invention may be the program itself installed in the storage 110 or the like, or a recording medium such as the optical disk 124 that stores a program for realizing the functions and processing according to the present embodiment.

図7には、非一過的な記録媒体の一例として、光学ディスク124などの光学記録媒体を示すが、これに限らず、フラッシュメモリなどの半導体記録媒体、ハードディスクまたはストレージテープなどの磁気記録媒体、MO(Magneto-Optical disk)などの光磁気記録媒体を用いてもよい。 FIG. 7 shows an optical recording medium such as an optical disk 124 as an example of a non-transitory recording medium, but the present invention is not limited to this, and the present invention is not limited to semiconductor recording media such as flash memory, magnetic recording media such as hard disks, or storage tapes. , a magneto-optical recording medium such as MO (Magneto-Optical disk) may be used.

あるいは、表示端末100を実現するためのプログラムは、上述したような任意の記録媒体に格納されて流通するだけでなく、インターネットまたはイントラネットを介してサーバ装置などからダウンロードすることで配布されてもよい。 Alternatively, the program for realizing the display terminal 100 may not only be stored and distributed in any recording medium as described above, but also may be distributed by being downloaded from a server device or the like via the Internet or an intranet. .

タッチ検出部126は、ディスプレイ102に対応付けられて配置されており、ディスプレイ102への入力操作を検知する。タッチ検出部126としては、静電容量方式、抵抗膜方式、超音波表面弾性波方式などの任意の検出方式を採用できる。 The touch detection unit 126 is arranged in association with the display 102 and detects an input operation to the display 102. As the touch detection unit 126, any detection method such as a capacitance method, a resistive film method, or an ultrasonic surface acoustic wave method can be adopted.

人感センサ128は、赤外線などを用いて、表示端末100への来店者の接近を検知する。 The human sensor 128 detects the approach of a visitor to the display terminal 100 using infrared rays or the like.

カメラ130は、来店者を撮像するデバイスであり、ディスプレイ102の表示エリアの近傍などに配置され、ディスプレイ102に正対する来店者を視野に含むように構成される。カメラ130は、視野範囲を所定周期で連続的に撮像するようにしてもよいし、プロセッサ104などから発せられる指令に応じて撮像を行うようにしてもよい。 The camera 130 is a device that captures an image of the store visitor, and is arranged near the display area of the display 102 and is configured to include the store visitor directly facing the display 102 in its field of view. The camera 130 may continuously take images of the field of view at a predetermined period, or may take images in response to a command issued from the processor 104 or the like.

マイクロフォン132は、音声を収集するためのデバイスであり、来店者が発する音声を収集可能な、ディスプレイ102の表示エリアの近傍などに配置される。マイクロフォン132は、ディスプレイ102に正対する来店者の声のみを収集することが好ましく、そのため、先鋭な指向性を有することが好ましい。 The microphone 132 is a device for collecting sounds, and is placed near the display area of the display 102, where it can collect sounds emitted by visitors. The microphone 132 preferably collects only the voices of visitors directly facing the display 102, and therefore preferably has sharp directivity.

図7には、汎用コンピュータ(プロセッサ104)がアプリケーションプログラム114を実行することで表示端末100を実現する構成例を示すが、表示端末100を実現するために必要な機能の全部または一部を、集積回路などのハードワイヤード回路(hard-wired circuit)を用いて実現してもよい。例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などを用いて実現してもよい。 FIG. 7 shows a configuration example in which the display terminal 100 is realized by a general-purpose computer (processor 104) executing the application program 114. It may also be implemented using hard-wired circuits such as integrated circuits. For example, it may be realized using an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or the like.

(b3:POS端末200)
図8は、本実施の形態に従う服飾提案システム1を構成するPOS端末200のハードウェア構成の一例を示す模式図である。図8を参照して、POS端末200は、主要なハードウェア要素として、ディスプレイ202と、プロセッサ204と、メモリ206と、ネットワークコントローラ208と、ストレージ210と、プリンタ220と、光学ドライブ222と、タッチ検出部226と、光学読取機228と、入力部230と、決済処理部232とを含む。
(b3: POS terminal 200)
FIG. 8 is a schematic diagram showing an example of the hardware configuration of the POS terminal 200 that constitutes the clothing proposal system 1 according to the present embodiment. Referring to FIG. 8, a POS terminal 200 includes a display 202, a processor 204, a memory 206, a network controller 208, a storage 210, a printer 220, an optical drive 222, and a touch panel as main hardware elements. It includes a detection section 226, an optical reader 228, an input section 230, and a payment processing section 232.

ディスプレイ202は、アイテムの会計処理に必要な情報などを表示する。ディスプレイ202は、例えば、LCDや有機ELディスプレイなどで構成される。 The display 202 displays information necessary for accounting for items. The display 202 is composed of, for example, an LCD or an organic EL display.

プロセッサ204は、後述するような各種プログラムを実行することで、POS端末200の実現に必要な処理を実行する演算主体である、プロセッサ204としては、例えば、1または複数のCPUなどで構成される。複数のコアを有するCPUを用いてもよい。 The processor 204 is a computation main body that executes processes necessary for realizing the POS terminal 200 by executing various programs as described below.The processor 204 is composed of, for example, one or more CPUs. . A CPU having multiple cores may also be used.

メモリ206は、プロセッサ204がプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ206としては、例えば、DRAMやSRAMなどの揮発性メモリデバイスを用いてもよい。 The memory 206 provides a storage area for temporarily storing program codes, work memory, etc. when the processor 204 executes a program. As the memory 206, for example, a volatile memory device such as DRAM or SRAM may be used.

ネットワークコントローラ208は、ローカルネットワーク2を介して、管理装置300を含む任意の情報処理装置などとの間でデータを送受信する。ネットワークコントローラ208は、例えば、イーサネット、無線LAN、Bluetoothなどの任意の通信方式に対応するようにしてもよい。 The network controller 208 transmits and receives data to and from any information processing device including the management device 300 via the local network 2 . The network controller 208 may be compatible with any communication method such as, for example, Ethernet, wireless LAN, or Bluetooth.

ストレージ210は、プロセッサ204にて実行されるOS212、後述するような機能構成を実現するためのアプリケーションプログラム214、会計処理に必要な各アイテムの価格や属性情報などを含むアイテム情報216、および購入されたアイテムの情報である売上情報218などを格納する。ストレージ210としては、例えば、ハードディスク、SSDなどの不揮発性メモリデバイスを用いてもよい。 The storage 210 stores an OS 212 executed by the processor 204, an application program 214 for realizing a functional configuration as described below, item information 216 including price and attribute information of each item necessary for accounting processing, and information on purchased items. Stores sales information 218, which is information on items purchased. As the storage 210, for example, a nonvolatile memory device such as a hard disk or SSD may be used.

アプリケーションプログラム214をプロセッサ204で実行する際に必要となるライブラリや機能モジュールの一部を、OS212が標準で提供するライブラリまたは機能モジュールを用いるようにしてもよい。この場合には、アプリケーションプログラム214単体では、対応する機能を実現するために必要なプログラムモジュールのすべてを含むものにはならないが、OS212の実行環境下にインストールされることで、後述するような機能構成を実現できることになる。そのため、このような一部のライブラリまたは機能モジュールを含まないプログラムであっても、本発明の技術的範囲に含まれ得る。 Some of the libraries and function modules required when the application program 214 is executed by the processor 204 may be provided as standard by the OS 212. In this case, although the application program 214 alone does not include all the program modules necessary to implement the corresponding functions, by being installed under the execution environment of the OS 212, the functions described below can be implemented. The configuration can be realized. Therefore, even a program that does not include such a part of the library or functional module may be included in the technical scope of the present invention.

プリンタ220は、会計処理の結果など印字されたレシートを発行する。プリンタ220としては、電子写真方式、インクジェット方式および感熱紙方式などの任意の印刷方式を採用できる。 The printer 220 issues a printed receipt containing the results of the transaction. As the printer 220, any printing method such as an electrophotographic method, an inkjet method, or a thermal paper method can be adopted.

光学ドライブ222は、CD-ROM、DVDなどの光学ディスク224に格納されているプログラムなどの情報を読み出す。光学ディスク224は、非一過的な記録媒体の一例であり、任意のプログラムを不揮発的に格納した状態で流通する。光学ドライブ222が光学ディスク224からプログラムを読み出して、ストレージ210にインストールすることで、本実施の形態に従うPOS端末200を構成できる。したがって、本発明の主題は、ストレージ210などにインストールされたプログラム自体、または、本実施の形態に従う機能や処理を実現するためのプログラムを格納した光学ディスク224などの記録媒体でもあり得る。 The optical drive 222 reads information such as programs stored on an optical disk 224 such as a CD-ROM or DVD. The optical disc 224 is an example of a non-transitory recording medium, and is distributed in a state in which an arbitrary program is stored in a non-volatile manner. The POS terminal 200 according to this embodiment can be configured by the optical drive 222 reading the program from the optical disk 224 and installing it in the storage 210. Therefore, the subject matter of the present invention may be the program itself installed in the storage 210 or the like, or a recording medium such as the optical disk 224 storing the program for realizing the functions and processing according to the present embodiment.

図8には、非一過的な記録媒体の一例として、光学ディスク224などの光学記録媒体を示すが、これに限らず、フラッシュメモリなどの半導体記録媒体、ハードディスクまたはストレージテープなどの磁気記録媒体、MOなどの光磁気記録媒体を用いてもよい。 Although FIG. 8 shows an optical recording medium such as an optical disk 224 as an example of a non-transitory recording medium, the present invention is not limited to this, and the present invention is not limited to semiconductor recording media such as flash memory, magnetic recording media such as hard disks, or storage tapes. , MO, or other magneto-optical recording media may be used.

あるいは、POS端末200を実現するためのプログラムは、上述したような任意の記録媒体に格納されて流通するだけでなく、インターネットまたはイントラネットを介してサーバ装置などからダウンロードすることで配布されてもよい。 Alternatively, the program for implementing the POS terminal 200 may not only be stored and distributed in any recording medium as described above, but also may be distributed by being downloaded from a server device or the like via the Internet or an intranet. .

タッチ検出部226は、ディスプレイ202に対応付けられて配置されており、ディスプレイ202への入力操作を検知する。タッチ検出部226としては、静電容量方式、抵抗膜方式、超音波表面弾性波方式などの任意の検出方式を採用できる。 The touch detection unit 226 is arranged in association with the display 202 and detects an input operation to the display 202. As the touch detection unit 226, any detection method such as a capacitance method, a resistive film method, or an ultrasonic surface acoustic wave method can be adopted.

光学読取機228は、アイテムに付されているアイテムタグの情報やクーポンに含まれるQRコードなどを光学的に読み取る。光学読取機228としては、レーザスキャン方式やイメージセンシング方式などの任意の検出方式を採用できる。 The optical reader 228 optically reads information on item tags attached to items, QR codes included in coupons, and the like. As the optical reader 228, any detection method such as a laser scanning method or an image sensing method can be adopted.

入力部230は、金額は品種などの入力操作を受け付ける。入力部230としては、例えば、レジキー、キーボード、マウス、タッチパネル、ペンなどを用いてもよい。 The input unit 230 accepts input operations such as amount and type. As the input unit 230, for example, a register key, a keyboard, a mouse, a touch panel, a pen, etc. may be used.

決済処理部232は、現金決済に必要な機構、ならびに、クレジットカードなどの電子的決済に必要な機構を含む。より具体的には、決済処理部232は、現金決済に関して、紙幣や硬貨を格納するための現金格納部および売上額を管理する売上管理部などを含む。決済処理部232は、電子決済に関して、クレジットカードに格納された情報を読み取って決済センタなどとの間で決済情報を遣り取りする機構などを含む。 The payment processing unit 232 includes a mechanism necessary for cash payment and a mechanism necessary for electronic payment such as a credit card. More specifically, regarding cash payments, the payment processing unit 232 includes a cash storage unit for storing banknotes and coins, a sales management unit for managing sales amounts, and the like. The payment processing unit 232 includes a mechanism for reading information stored in a credit card and exchanging payment information with a payment center and the like regarding electronic payment.

図8には、汎用コンピュータ(プロセッサ204)がアプリケーションプログラム214を実行することでPOS端末200を実現する構成例を示すが、POS端末200を実現するために必要な機能の全部または一部を、集積回路などのハードワイヤード回路を用いて実現してもよい。例えば、ASICやFPGAなどを用いて実現してもよい。 FIG. 8 shows a configuration example in which a general-purpose computer (processor 204) executes an application program 214 to realize a POS terminal 200. It may also be implemented using hardwired circuits such as integrated circuits. For example, it may be realized using ASIC, FPGA, or the like.

(b4:管理装置300)
図9は、本実施の形態に従う服飾提案システム1を構成する管理装置300のハードウェア構成の一例を示す模式図である。図9を参照して、管理装置300は、主要なハードウェア要素として、ディスプレイ302と、プロセッサ304と、メモリ306と、ネットワークコントローラ308と、ストレージ310と、入力部330とを含む。
(b4: management device 300)
FIG. 9 is a schematic diagram showing an example of the hardware configuration of the management device 300 that constitutes the clothing proposal system 1 according to the present embodiment. Referring to FIG. 9, management device 300 includes a display 302, a processor 304, a memory 306, a network controller 308, a storage 310, and an input unit 330 as main hardware elements.

ディスプレイ302は、管理装置300での処理に必要な情報を表示する。ディスプレイ302は、例えば、LCDや有機ELディスプレイなどで構成される。 The display 302 displays information necessary for processing by the management device 300. The display 302 is composed of, for example, an LCD or an organic EL display.

プロセッサ304は、後述するような各種プログラムを実行することで、管理装置300の実現に必要な処理を実行する演算主体である、プロセッサ304としては、例えば、1または複数のCPUやGPUなどで構成される。複数のコアを有するCPUまたはGPUを用いてもよい。管理装置300においては、学習済モデルを生成するための学習処理に適したGPUなどを採用することが好ましい。 The processor 304 is a calculation main body that executes processes necessary for realizing the management device 300 by executing various programs as described below.The processor 304 is composed of, for example, one or more CPUs or GPUs. be done. A CPU or GPU having multiple cores may also be used. In the management device 300, it is preferable to employ a GPU or the like suitable for learning processing for generating a trained model.

メモリ306は、プロセッサ304がプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ306としては、例えば、DRAMやSRAMなどの揮発性メモリデバイスを用いてもよい。 The memory 306 provides a storage area for temporarily storing program codes, work memory, etc. when the processor 304 executes a program. As the memory 306, for example, a volatile memory device such as DRAM or SRAM may be used.

ネットワークコントローラ308は、ローカルネットワーク2を介して、表示端末100およびPOS端末200を含む任意の情報処理装置などとの間でデータを送受信する。ネットワークコントローラ308は、例えば、イーサネット、無線LAN、Bluetoothなどの任意の通信方式に対応するようにしてもよい。 The network controller 308 transmits and receives data to and from arbitrary information processing devices including the display terminal 100 and the POS terminal 200 via the local network 2 . The network controller 308 may be compatible with any communication method such as, for example, Ethernet, wireless LAN, or Bluetooth.

ストレージ310は、プロセッサ304にて実行されるOS312、後述するような機能構成を実現するためのアプリケーションプログラム314、画像/音声情報320および売上情報322から学習用データセット324を生成するための前処理プログラム316、ならびに、学習用データセット324を用いて学習済モデル326を生成するための学習用プログラム318などを格納する。 The storage 310 includes an OS 312 executed by the processor 304, an application program 314 for realizing a functional configuration as described below, and preprocessing for generating a learning data set 324 from image/audio information 320 and sales information 322. A program 316, a learning program 318 for generating a trained model 326 using a learning data set 324, and the like are stored.

画像/音声情報320は、表示端末100から取得される撮像画像136および収集音声138からなる。売上情報322は、POS端末200から取得された売上情報218からなる。画像/音声情報320および売上情報322の取得処理については、後に詳述する。 The image/audio information 320 consists of a captured image 136 and collected audio 138 acquired from the display terminal 100. Sales information 322 consists of sales information 218 acquired from POS terminal 200. The acquisition process of image/audio information 320 and sales information 322 will be described in detail later.

学習用データセット324は、画像/音声情報320に売上情報322をラベル(あるいは、タグ)として付与した訓練データセットである。学習済モデル326は、学習用データセット324を用いて学習処理を実行することで得られる推定モデルである。 The learning data set 324 is a training data set in which sales information 322 is added to image/audio information 320 as a label (or tag). The learned model 326 is an estimated model obtained by performing a learning process using the learning data set 324.

ストレージ310としては、例えば、ハードディスク、SSDなどの不揮発性メモリデバイスを用いてもよい。 As the storage 310, for example, a nonvolatile memory device such as a hard disk or SSD may be used.

アプリケーションプログラム314、前処理プログラム316および学習用プログラム318をプロセッサ304で実行する際に必要となるライブラリや機能モジュールの一部を、OS312が標準で提供するライブラリまたは機能モジュールを用いるようにしてもよい。この場合には、アプリケーションプログラム314、前処理プログラム316および学習用プログラム318の各単体では、対応する機能を実現するために必要なプログラムモジュールのすべてを含むものにはならないが、OS312の実行環境下にインストールされることで、後述するような機能構成を実現できることになる。そのため、このような一部のライブラリまたは機能モジュールを含まないプログラムであっても、本発明の技術的範囲に含まれ得る。 Some of the libraries and function modules required when the application program 314, preprocessing program 316, and learning program 318 are executed by the processor 304 may be made to use libraries or function modules provided as standard by the OS 312. . In this case, each of the application program 314, preprocessing program 316, and learning program 318 alone does not include all the program modules necessary to realize the corresponding functions, but under the execution environment of the OS 312, By installing this software, it is possible to realize the functional configuration described below. Therefore, even a program that does not include such a part of the library or functional module may be included in the technical scope of the present invention.

アプリケーションプログラム314、前処理プログラム316および学習用プログラム318は、光学ディスクなどの光学記録媒体、フラッシュメモリなどの半導体記録媒体、ハードディスクまたはストレージテープなどの磁気記録媒体、ならびにMOなどの光磁気記録媒体といった非一過的な記録媒体に格納されて流通し、ストレージ310にインストールされてもよい。したがって、本発明の主題は、ストレージ310などにインストールされたプログラム自体、または、本実施の形態に従う機能や処理を実現するためのプログラムを格納した記録媒体でもあり得る。 The application program 314, the preprocessing program 316, and the learning program 318 are stored in an optical recording medium such as an optical disk, a semiconductor recording medium such as a flash memory, a magnetic recording medium such as a hard disk or a storage tape, and a magneto-optical recording medium such as an MO. It may be stored and distributed in a non-transitory recording medium and installed in the storage 310. Therefore, the subject matter of the present invention may be the program itself installed in the storage 310 or the like, or a recording medium storing a program for realizing the functions and processing according to the present embodiment.

あるいは、管理装置300を実現するためのプログラムは、上述したような任意の記録媒体に格納されて流通するだけでなく、インターネットまたはイントラネットを介してサーバ装置などからダウンロードすることで配布されてもよい。 Alternatively, the program for realizing the management device 300 may not only be stored and distributed in any recording medium as described above, but also may be distributed by being downloaded from a server device or the like via the Internet or an intranet. .

入力部330は、各種の入力操作を受け付ける。入力部330としては、例えば、キーボード、マウス、タッチパネル、ペンなどを用いてもよい。 Input unit 330 accepts various input operations. As the input unit 330, for example, a keyboard, a mouse, a touch panel, a pen, etc. may be used.

図9には、汎用コンピュータ(プロセッサ304)がアプリケーションプログラム314、前処理プログラム316および学習用プログラム318を実行することで管理装置300を実現する構成例を示すが、管理装置300を実現するために必要な機能の全部または一部を、集積回路などのハードワイヤード回路を用いて実現してもよい。例えば、ASICやFPGAなどを用いて実現してもよい。 FIG. 9 shows a configuration example in which a general-purpose computer (processor 304) executes an application program 314, a preprocessing program 316, and a learning program 318 to realize the management device 300. All or part of the required functionality may be implemented using hardwired circuits such as integrated circuits. For example, it may be realized using ASIC, FPGA, or the like.

(b5:統合型構成/クラウド構成)
図6~図9には、典型例として、表示端末100、POS端末200および管理装置300の各々が担当する機能を実現するためにプロセッサを有している構成を例示したが、これに限らず、服飾提案システム1の実現に必要な機能をより少ない演算主体で実現する統合型の構成を採用してもよい。
(b5: Integrated configuration/cloud configuration)
As a typical example, FIGS. 6 to 9 illustrate a configuration in which each of the display terminal 100, POS terminal 200, and management device 300 has a processor to realize the functions it is responsible for, but the configuration is not limited to this. , an integrated configuration may be adopted that implements the functions necessary to implement the clothing proposal system 1 with fewer calculations.

このような統合型の構成の一例としては、表示端末100およびPOS端末200が担当する機能を管理装置300において実現するとともに、表示端末100およびPOS端末200は、いわばシンクライアントのようなユーザインターフェイスのみを提供するようにしてもよい。 As an example of such an integrated configuration, the functions handled by the display terminal 100 and the POS terminal 200 are realized in the management device 300, and the display terminal 100 and the POS terminal 200 have only a user interface like a thin client. may be provided.

さらに、管理装置300についても、コンピュータネットワークを介して接続された複数のコンピュータが明示的または黙示的に連携して実現するようにしてもよい。複数のコンピュータが連携する場合、一部のコンピュータがいわゆるクラウドコンピュータと称される、ネットワーク上にある不特定のコンピュータであってもよい。 Furthermore, the management device 300 may also be realized by a plurality of computers connected via a computer network explicitly or implicitly working together. When multiple computers work together, some of the computers may be unspecified computers on a network, called cloud computers.

当業者であれば、本発明が実施される時代に応じた技術を適宜用いて、本実施の形態に従う服飾提案システム1を実現できるであろう。 Those skilled in the art will be able to realize the clothing suggestion system 1 according to the present embodiment by appropriately using techniques appropriate to the era in which the present invention is implemented.

<C.表示端末100の機能および処理>
次に、本実施の形態に従う服飾提案システム1を構成する表示端末100の機能および処理について説明する。服飾提案システム1において、表示端末100は、学習済モデル(推定モデル)を用いた服飾の提案という運用フェーズを担当するとともに、学習済モデルを構築するための学習フェーズの一部も担当することになる。
<C. Functions and processing of display terminal 100>
Next, the functions and processing of the display terminal 100 that constitutes the clothing proposal system 1 according to the present embodiment will be explained. In the clothing proposal system 1, the display terminal 100 is in charge of the operation phase of proposing clothing using a trained model (estimated model), and is also in charge of a part of the learning phase for constructing the trained model. Become.

(c1:表示端末100の機能構成)
図10は、本実施の形態に従う服飾提案システム1を構成する表示端末100の機能構成の一例を示す模式図である。図10に示す各機能は、典型的には、表示端末100のプロセッサ104がOS112およびアプリケーションプログラム114(いずれも図7参照)を実行することで実現されてもよい。
(c1: Functional configuration of display terminal 100)
FIG. 10 is a schematic diagram showing an example of the functional configuration of the display terminal 100 that constitutes the clothing proposal system 1 according to the present embodiment. Each function shown in FIG. 10 may typically be realized by the processor 104 of the display terminal 100 executing the OS 112 and the application program 114 (both shown in FIG. 7).

図10を参照して、表示端末100は、機能構成として、提案アイテム推定機能140と、表示制御機能150と、クーポン発行制御機能160と、画像音声保存機能170とを有している。 Referring to FIG. 10, display terminal 100 has a suggested item estimation function 140, a display control function 150, a coupon issuance control function 160, and an image/audio storage function 170 as functional configurations.

提案アイテム推定機能140は、カメラ130により来店者を撮像して得られた撮像画像136、および、マイクロフォン132により来店者が発した音声を収集して得られた収集音声138を入力として受け付けて、学習済モデル116に入力することで、推定結果を出力する。 The suggested item estimation function 140 receives as input a captured image 136 obtained by capturing an image of a store visitor using the camera 130, and a collected voice 138 obtained by collecting the voice uttered by the store visitor using the microphone 132. By inputting it to the learned model 116, the estimation result is output.

表示制御機能150は、提案アイテム推定機能140からの推定結果を受け付けて、来店者の嗜好に応じた服飾を提案する画面を生成する。 The display control function 150 receives the estimation results from the suggested item estimation function 140 and generates a screen that proposes clothing according to the preferences of the store visitor.

クーポン発行制御機能160は、表示制御機能150が来店者に提案したアイテムの情報を受け付けて、クーポンID166を生成するとともに、提案アイテムおよびクーポンID166が印字されたクーポン10を発行する。 The coupon issue control function 160 receives information about the item suggested to the visitor by the display control function 150, generates a coupon ID 166, and issues a coupon 10 on which the proposed item and the coupon ID 166 are printed.

画像音声保存機能170は、提案アイテム推定機能140が入力として受け付けた撮像画像136および収集音声138に、クーポン発行制御機能160が生成したクーポンID166を付与して保存する。画像音声保存機能170により保存される撮像画像136および収集音声138(クーポンID166が付与されている)は、後述するように、管理装置300へ送信されて、学習済モデルを生成するための学習処理に用いられる。 The image and audio storage function 170 assigns a coupon ID 166 generated by the coupon issuance control function 160 to the captured image 136 and collected audio 138 received as input by the suggested item estimation function 140 and stores them. The captured image 136 and collected audio 138 (to which a coupon ID 166 is assigned) saved by the image/audio storage function 170 are sent to the management device 300 and undergo learning processing to generate a trained model, as described later. used for.

(c2:提案アイテム推定機能140)
次に、図10に示す表示端末100の提案アイテム推定機能140の詳細について説明する。
(c2: Suggested item estimation function 140)
Next, details of the suggested item estimation function 140 of the display terminal 100 shown in FIG. 10 will be described.

図11は、本実施の形態に従う服飾提案システム1を構成する表示端末100の提案アイテム推定機能140における処理内容を説明するための図である。図11を参照して、表示端末100は、提案アイテム推定機能140として、領域特定モジュール141と、サイズ調整モジュール142,143と、区間特定モジュール144と、リサンプリングモジュール145とを含む。 FIG. 11 is a diagram for explaining the processing content in the suggested item estimation function 140 of the display terminal 100 that constitutes the clothing suggestion system 1 according to the present embodiment. Referring to FIG. 11, display terminal 100 includes a region identification module 141, size adjustment modules 142, 143, section identification module 144, and resampling module 145 as suggested item estimation function 140.

領域特定モジュール141は、撮像画像136に含まれる被写体(来店者)を解析して、顔領域および体領域を特定する。すなわち、領域特定モジュール141は、カメラ130で客を撮像して得られた画像内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定する。領域特定モジュール141は、特定した顔領域および体領域に対応する顔領域部分画像147および体領域部分画像148を撮像画像136から抽出して出力する。 The area specifying module 141 analyzes the subject (visitor) included in the captured image 136 and specifies the face area and body area. That is, the area specifying module 141 specifies a facial area representing the customer's face and a body area representing the customer's body in an image obtained by capturing an image of the customer with the camera 130. The region identification module 141 extracts and outputs a face region partial image 147 and a body region partial image 148 corresponding to the identified face region and body region from the captured image 136.

典型的には、領域特定モジュール141は、目や鼻などの顔特徴を抽出するとともに、手足などの骨格特徴を抽出することで、顔領域および体領域を特定する。このとき、領域特定モジュール141は、客が身につけている服飾を表わす部分を体領域として特定するようにしてもよい。 Typically, the region identification module 141 identifies facial regions and body regions by extracting facial features such as eyes and nose, as well as skeletal features such as limbs. At this time, the area specifying module 141 may specify a part representing the clothing worn by the customer as the body area.

図12は、図11に示す領域特定モジュール141による領域特定の処理を説明するための図である。図12を参照して、領域特定モジュール141は、来店者の顔を含む領域を顔領域部分画像147として抽出し、来店者の顔より下部の領域を体領域部分画像148として抽出する。 FIG. 12 is a diagram for explaining area identification processing by the area identification module 141 shown in FIG. 11. Referring to FIG. 12, area identification module 141 extracts an area including the face of the store visitor as facial area partial image 147, and extracts an area below the visitor's face as body area partial image 148.

顔領域部分画像147は、来店者の性別や年齢などの属性情報を含むと考えられ、体領域部分画像148は、来店者の現在の服装に関する情報(すなわち、服飾の嗜好傾向を示す情報)を含むと考えられる。 The face area partial image 147 is considered to include attribute information such as the visitor's gender and age, and the body area partial image 148 contains information regarding the visitor's current clothing (that is, information indicating trends in clothing preferences). It is considered to include.

再度図11を参照して、領域特定モジュール141が撮像画像136から抽出した顔領域部分画像147は、サイズ調整モジュール142へ出力される。同様に、領域特定モジュール141が撮像画像136から抽出した体領域部分画像148は、サイズ調整モジュール143へ出力される。 Referring again to FIG. 11, the facial area partial image 147 extracted from the captured image 136 by the area identification module 141 is output to the size adjustment module 142. Similarly, a body region partial image 148 extracted from the captured image 136 by the region identification module 141 is output to the size adjustment module 143.

サイズ調整モジュール142および143において、顔領域部分画像147および体領域部分画像148は、予め定められた次元をもつ特徴量(特徴量ベクトル)に変換されて推定モデル1400に与えられる。ここで、領域特定モジュール141により抽出される顔領域部分画像147および体領域部分画像148の画像サイズは変動し得るため、サイズ調整モジュール142および143は画像サイズを規格化する。 In the size adjustment modules 142 and 143, the face region partial image 147 and the body region partial image 148 are converted into feature amounts (feature amount vectors) having predetermined dimensions and provided to the estimation model 1400. Here, since the image sizes of the face area partial image 147 and the body area partial image 148 extracted by the area identification module 141 may vary, the size adjustment modules 142 and 143 standardize the image sizes.

より具体的には、サイズ調整モジュール142は、領域特定モジュール141からの顔領域部分画像147を予め定められた画素数の画像に調整した上で、調整後の画像を構成する各画素の画素値を顔領域特徴量1410として推定モデル1400に入力する。 More specifically, the size adjustment module 142 adjusts the facial area partial image 147 from the area identification module 141 into an image with a predetermined number of pixels, and then adjusts the pixel value of each pixel constituting the adjusted image. is input to the estimation model 1400 as the face region feature amount 1410.

同様に、サイズ調整モジュール143は、領域特定モジュール141からの体領域部分画像148を予め定められた画素数の画像に調整した上で、調整後の画像を構成する各画素の画素値を体領域特徴量1420として推定モデル1400に入力する。 Similarly, the size adjustment module 143 adjusts the body region partial image 148 from the region identification module 141 into an image with a predetermined number of pixels, and then adjusts the pixel value of each pixel constituting the adjusted image to the body region partial image 148. It is input to the estimation model 1400 as a feature quantity 1420.

このように、サイズ調整モジュール142,143は、顔領域部分画像147(画像の顔領域)から顔領域特徴量1410(第1特徴量)を抽出するとともに、体領域部分画像148(画像の体領域)から体領域特徴量1420(第2特徴量)を抽出する。 In this way, the size adjustment modules 142 and 143 extract the facial area feature amount 1410 (first feature amount) from the facial area partial image 147 (the facial area of the image), and also extract the facial area feature amount 1410 (first feature amount) from the facial area partial image 148 (the facial area of the image). ) is extracted from the body region feature amount 1420 (second feature amount).

区間特定モジュール144は、収集音声138に含まれる来店者が発した音声の区間を特定して、特定区間音声149を抽出して出力する。典型的には、区間特定モジュール144は、収集音声138が示す音声の時間的変化を解析して、表示端末100の周囲にある雑音成分に対して、振幅あるいは周波数などが変化した区間を特定することで、特定区間音声149を抽出する。 The section identifying module 144 identifies the section of the voice uttered by the store visitor included in the collected voice 138, extracts and outputs the specific section voice 149. Typically, the section identifying module 144 analyzes temporal changes in the voice indicated by the collected voice 138 and identifies a section in which the amplitude or frequency has changed with respect to noise components surrounding the display terminal 100. In this way, the specific section audio 149 is extracted.

図13は、図11に示す区間特定モジュール144による区間特定の処理を説明するための図である。図13を参照して、区間特定モジュール144は、収集音声138が示す音声の時間的変化のうち、前後の時間的変化に対して有意な変化を示す区間を来店者による発話区間であるとして特定し、特定区間音声149として抽出する。 FIG. 13 is a diagram for explaining the process of specifying a section by the section specifying module 144 shown in FIG. 11. Referring to FIG. 13, the section identification module 144 identifies, among the temporal changes in the voice indicated by the collected speech 138, a section that shows a significant change with respect to the temporal change before and after, as an utterance section by the store visitor. Then, it is extracted as specific section audio 149.

特定区間音声149は、来店者が希望するカテゴリを発話した音声であるので、希望するカテゴリを特定するための情報を含む。さらに、特定区間音声149は、来店者の現在のフィーリング(気分)を示す情報を含むと考えられる。 The specific section audio 149 is the audio in which the visitor utters the desired category, and therefore includes information for specifying the desired category. Furthermore, the specific section audio 149 is considered to include information indicating the current feeling (mood) of the visitor.

このように、区間特定モジュール144およびリサンプリングモジュール145は、マイクロフォン132で収集された音声のうち客の発話に対応する部分の音声から音声特徴量1430(第3特徴量)を抽出する。 In this manner, the section identification module 144 and the resampling module 145 extract the audio feature amount 1430 (third feature amount) from the portion of the audio collected by the microphone 132 that corresponds to the customer's utterance.

再度図11を参照して、リサンプリングモジュール145が収集音声138から抽出した特定区間音声149は、リサンプリングモジュール145へ出力される。リサンプリングモジュール145において、特定区間音声149は、予め定められた次元をもつ特徴量(特徴量ベクトル)に変換されて推定モデル1400に与えられる。ここで、区間特定モジュール144により特定される特定区間音声149の音声の時間長さは変動し得るため、リサンプリングモジュール145が音声サンプリング数を規格化する。 Referring again to FIG. 11, specific section audio 149 extracted from collected audio 138 by resampling module 145 is output to resampling module 145. In the resampling module 145, the specific section audio 149 is converted into a feature amount (feature amount vector) having a predetermined dimension, and is provided to the estimation model 1400. Here, since the audio time length of the specific section audio 149 specified by the section specifying module 144 may vary, the resampling module 145 normalizes the number of audio samples.

より具体的には、リサンプリングモジュール145は、区間特定モジュール144からの特定区間音声149が示す音声の時間波形を予め定められたサンプル数でサンプリングすることで、各サンプリング点での振幅値を音声特徴量1430として推定モデル1400に入力する。 More specifically, the resampling module 145 samples the time waveform of the audio indicated by the specific section audio 149 from the section identification module 144 with a predetermined number of samples, and calculates the amplitude value at each sampling point into the audio. It is input to the estimation model 1400 as a feature quantity 1430.

推定モデル1400は、ネットワーク構造および対応するパラメータを規定する学習済モデル116に基づいて構築される。顔領域特徴量1410、体領域特徴量1420および音声特徴量1430が推定モデル1400に入力されることで、推定モデル1400が定義する演算処理が実行されて、推定結果1450としてアイテム毎のスコアが算出される。ここで、アイテム毎のスコアは、各服飾アイテムが提案されるべき服飾アイテムであるそれぞれの可能性を示す値である。 Estimated model 1400 is constructed based on trained model 116 that defines the network structure and corresponding parameters. By inputting the face region feature amount 1410, the body region feature amount 1420, and the audio feature amount 1430 to the estimation model 1400, the calculation process defined by the estimation model 1400 is executed, and a score for each item is calculated as the estimation result 1450. be done. Here, the score for each item is a value indicating the probability that each clothing item is a clothing item that should be proposed.

推定モデル1400は、後述するような学習用データセットを用いた学習処理により生成される。後述するように、学習用データセットは、他の客を撮像して得られた画像および当該他の客が発話した音声に対して、当該他の客が購入した服飾アイテムをラベル付けした学習用データを複数含む。 The estimated model 1400 is generated by a learning process using a learning data set as described below. As will be described later, the training data set is a training data set in which clothing items purchased by the other customer are labeled based on images obtained by imaging the other customer and audio uttered by the other customer. Contains multiple data.

このように、学習済の推定モデルである推定モデル1400は、顔領域特徴量1410(第1特徴量)、体領域特徴量1420(第2特徴量)および音声特徴量1430(第3特徴量)の入力を受けて、複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性(スコア)を、推定結果1450として出力する。 In this way, the estimated model 1400, which is a trained estimation model, includes a face area feature 1410 (first feature), a body area feature 1420 (second feature), and a voice feature 1430 (third feature). In response to the input, the probability (score) of each of the plurality of clothing items being the clothing item to be proposed is output as an estimation result 1450.

(c3:推定モデル1400)
図14は、図11に示す推定モデル1400のネットワーク構成例を示す模式図である。図14を参照して、推定モデル1400は、DNN(Deep Neural Network)に分類されるネットワークである。推定モデル1400は、CNN(Convolutional Neural Network)に分類される前処理ネットワーク1460,1470,1480と、中間層1490と、出力層に相当する活性化関数1492と、Softmax関数1494とを含む。
(c3: Estimated model 1400)
FIG. 14 is a schematic diagram showing an example of the network configuration of the estimation model 1400 shown in FIG. 11. Referring to FIG. 14, estimation model 1400 is a network classified as a DNN (Deep Neural Network). Estimation model 1400 includes preprocessing networks 1460, 1470, and 1480 classified as CNNs (Convolutional Neural Networks), an intermediate layer 1490, an activation function 1492 corresponding to an output layer, and a Softmax function 1494.

前処理ネットワーク1460,1470,1480は、相対的に次数の大きな顔領域特徴量1410、体領域特徴量1420および音声特徴量1430から、推定結果1450を算出するために有効な特徴量を抽出するための一種のフィルタとして機能することが予定されている。前処理ネットワーク1460,1470,1480の各々は、畳み込み層(CONV)およびプーリング層(Pooling)が交互に配置された構成を有している。なお、畳み込み層とプーリング層との数は同数でなくてもよく、また、畳み込み層の出力側にはReLU(正規化線形関数:rectified linear unit)などの活性化関数が配置される。 The preprocessing networks 1460, 1470, and 1480 extract effective feature amounts for calculating the estimation result 1450 from the face region feature amount 1410, the body region feature amount 1420, and the voice feature amount 1430, which have relatively large degrees. It is planned to function as a kind of filter. Each of the preprocessing networks 1460, 1470, and 1480 has a configuration in which convolution layers (CONV) and pooling layers (Pooling) are arranged alternately. Note that the number of convolutional layers and pooling layers may not be the same, and an activation function such as ReLU (rectified linear unit) is placed on the output side of the convolutional layer.

より具体的には、前処理ネットワーク1460は、顔領域特徴量1410(x11,x12,・・・,x1r)の入力を受けて、来店者の性別や年齢などの属性情報を示す内部特徴量を出力するように構築される。前処理ネットワーク1470は、体領域特徴量1420(x21,x22,・・・,x2s)の入力を受けて、来店者の現在の服装に関する情報(すなわち、服飾の嗜好傾向を示す情報)を示す内部特徴量を出力するように構築される。前処理ネットワーク1480は、音声特徴量1430(x31,x32,・・・,x3t)の入力を受けて、カテゴリを特定するための情報、および、来店者の現在のフィーリング(気分)を示す情報を示す内部特徴量を出力するように構築される。 More specifically , the preprocessing network 1460 receives input of facial area feature amounts 1410 (x 11 , Constructed to output features. The preprocessing network 1470 receives the input of the body region feature amounts 1420 (x 21 , x 22 , . . . , x 2s ) and generates information regarding the visitor's current clothing (that is, information indicating clothing preferences). It is constructed to output internal features that indicate . The preprocessing network 1480 receives the input of the audio features 1430 (x 31 , x 32 , . . . , x 3t ) and inputs information for specifying the category and the current feeling of the store visitor. It is constructed to output internal features that indicate information.

中間層1490は、所定数の層数を有する全結合ネットワークからなり、前処理ネットワーク1460,1470,1480の各々からの出力を、各ノードについて決定される重みおよびバイアスを用いてノード毎に順次結合する。 The intermediate layer 1490 consists of a fully connected network having a predetermined number of layers, and sequentially combines the outputs from each of the preprocessing networks 1460, 1470, and 1480 node by node using weights and biases determined for each node. do.

中間層1490の出力側には、ReLUなどの活性化関数1492が配置され、最終的には、Softmax関数1494により確率分布に正規化された上で、推定結果1450(y,y,・・・,y)が出力される。 An activation function 1492 such as ReLU is placed on the output side of the intermediate layer 1490, and finally, after being normalized to a probability distribution by a Softmax function 1494, the estimation result 1450 (y 1 , y 2 , · ..., y N ) is output.

後述するような学習フェーズにおいては、推定モデル1400のネットワークを構築する各エレメントのパラメータが最適化される。 In the learning phase as described below, the parameters of each element that constructs the network of estimation model 1400 are optimized.

(c4:表示制御機能150およびクーポン発行制御機能160)
次に、図10に示す表示端末100の表示制御機能150およびクーポン発行制御機能160の詳細について説明する。
(c4: Display control function 150 and coupon issue control function 160)
Next, details of the display control function 150 and the coupon issuance control function 160 of the display terminal 100 shown in FIG. 10 will be explained.

図15は、本実施の形態に従う服飾提案システム1を構成する表示端末100の表示制御機能150およびクーポン発行制御機能160における処理内容を説明するための図である。図15を参照して、表示端末100は、表示制御機能150として、表示制御モジュール152を含む。 FIG. 15 is a diagram for explaining processing contents in the display control function 150 and the coupon issuing control function 160 of the display terminal 100 that constitute the clothing proposal system 1 according to the present embodiment. Referring to FIG. 15, display terminal 100 includes a display control module 152 as display control function 150.

表示制御モジュール152は、提案アイテム推定機能140により算出される推定結果1450を受け付けて、推定結果1450において上位のスコアを有するアイテムに対応するアイテム画像118を用いてアイテム提案画面52を生成する。表示制御モジュール152は、生成したアイテム提案画面52をディスプレイ102に出力する。すなわち、ディスプレイ102は、推定結果1450に基づいて、客に応じた服飾アイテムを表示する。 The display control module 152 receives the estimation result 1450 calculated by the suggested item estimation function 140 and generates the item proposal screen 52 using the item image 118 corresponding to the item having the highest score in the estimation result 1450. The display control module 152 outputs the generated item suggestion screen 52 to the display 102. That is, the display 102 displays clothing items appropriate for the customer based on the estimation result 1450.

アイテム画像118は、アイテムの識別情報に対応付けられた各アイテムの画像を含む。表示制御モジュール152は、推定結果1450に基づいて、アイテム画像118に含まれる画像のうち必要な画像を抽出する。 The item image 118 includes an image of each item associated with item identification information. The display control module 152 extracts necessary images from among the images included in the item image 118 based on the estimation result 1450.

また、表示端末100は、クーポン発行制御機能160として、クーポン発行制御モジュール162と、クーポンID生成モジュール164とを含む。クーポン発行制御モジュール162は、表示制御モジュール152からの提案アイテムとクーポンID生成モジュール164からのクーポンID166とを受け付けて、それらの情報が印字されたクーポン10をプリンタから発行する。 The display terminal 100 also includes a coupon issue control module 162 and a coupon ID generation module 164 as the coupon issue control function 160. The coupon issue control module 162 receives the proposed item from the display control module 152 and the coupon ID 166 from the coupon ID generation module 164, and issues the coupon 10 on which these pieces of information are printed from the printer.

クーポンID生成モジュール164は、ユニークな識別情報であるクーポンID166を任意の方法で生成する。なお、クーポンID166は、QRコードなどの形でクーポン10に印字されてもよい。この場合には、クーポンID生成モジュール164は、所定数の文字列をランダムに生成するとともに、生成された文字列に対応するQRコードを生成するようにしてもよい。後述するように、クーポンID166は、学習用データセット324を生成するためのキーとして用いられる。 Coupon ID generation module 164 generates coupon ID 166, which is unique identification information, using any method. Note that the coupon ID 166 may be printed on the coupon 10 in the form of a QR code or the like. In this case, the coupon ID generation module 164 may randomly generate a predetermined number of character strings, and may also generate a QR code corresponding to the generated character strings. As will be described later, the coupon ID 166 is used as a key for generating the learning data set 324.

(c5:画像音声保存機能170)
次に、図10に示す表示端末100の画像音声保存機能170の詳細について説明する。
(c5: Image and audio storage function 170)
Next, details of the image and audio storage function 170 of the display terminal 100 shown in FIG. 10 will be explained.

図16は、本実施の形態に従う服飾提案システム1を構成する表示端末100の画像音声保存機能170における処理内容を説明するための図である。図16を参照して、表示端末100は、画像音声保存機能170として、対応付けモジュール172と、画像音声格納部174とを含む。 FIG. 16 is a diagram for explaining processing contents in the image and audio storage function 170 of the display terminal 100 that constitutes the clothing proposal system 1 according to the present embodiment. Referring to FIG. 16, display terminal 100 includes an association module 172 and an image/audio storage section 174 as an image/audio storage function 170.

クーポン発行制御モジュール162(図15参照)がクーポン10を発行したことに応答して、対応付けモジュール172は、発行されたクーポン10に付与されたクーポンID166を受け付けて、当該クーポン10の発行に利用された撮像画像136および収集音声138に受け付けたクーポンID166を対応付ける。対応付けモジュール172は、対応付けられたクーポンID166と、撮像画像136および収集音声138とを一体として画像音声格納部174に格納する。 In response to the coupon issuing control module 162 (see FIG. 15) issuing the coupon 10, the association module 172 receives the coupon ID 166 given to the issued coupon 10, and uses the coupon ID 166 to issue the coupon 10. The received coupon ID 166 is associated with the captured image 136 and collected audio 138. The association module 172 stores the associated coupon ID 166, the captured image 136, and the collected audio 138 together in the image/audio storage unit 174.

画像音声格納部174は、メモリ106あるいはストレージ110(いずれも図7参照)が提供する記憶領域の少なくとも一部を用いて実現される。画像音声格納部174には、クーポンID166、撮像画像136および収集音声138からなるデータセットの単位でデータが格納される。 The image and audio storage unit 174 is realized using at least a part of the storage area provided by the memory 106 or the storage 110 (both shown in FIG. 7). The image/audio storage unit 174 stores data in units of data sets including the coupon ID 166, the captured image 136, and the collected audio 138.

(c6:処理手順)
次に、服飾提案システム1を構成する表示端末100において実行されるアイテム推定処理について説明する。
(c6: Processing procedure)
Next, the item estimation process executed in the display terminal 100 that constitutes the clothing proposal system 1 will be described.

図17は、本実施の形態に従う服飾提案システム1を構成する表示端末100におけるアイテム推定処理の処理手順を示すフローチャートである。図17に示す各ステップは、典型的には、表示端末100のプロセッサ104がOS112およびアプリケーションプログラム114(いずれも図7参照)を実行することで実現されてもよい。 FIG. 17 is a flowchart showing the processing procedure of the item estimation process in the display terminal 100 that constitutes the clothing suggestion system 1 according to the present embodiment. Each step shown in FIG. 17 may typically be realized by the processor 104 of the display terminal 100 executing the OS 112 and the application program 114 (both shown in FIG. 7).

図17を参照して、まず、表示端末100は、来店者を検知したか否かを判断する(ステップS100)。ステップS100においては、典型的には、人感センサ128(図7参照)からの検知結果に基づいて、来店者が存在しているか否かが判断される。来店者が検知されなければ(ステップS100においてNO)、ステップS100の処理が繰り返される。 Referring to FIG. 17, first, display terminal 100 determines whether a visitor is detected (step S100). In step S100, it is typically determined whether a visitor is present based on the detection result from the human sensor 128 (see FIG. 7). If no visitor is detected (NO in step S100), the process of step S100 is repeated.

来店者が検知されると(ステップS100においてYES)、表示端末100は、カテゴリ選択受付画面(図2参照)をディスプレイ102に表示する(ステップS102)。 When a visitor is detected (YES in step S100), display terminal 100 displays a category selection reception screen (see FIG. 2) on display 102 (step S102).

続いて、表示端末100は、表示端末100に正対する来店者をカメラ130により撮像することで撮像画像136を取得する(ステップS104)。併せて、表示端末100は、音声の収集を開始する(ステップS106)。そして、表示端末100は、収集される音声に基づいて、来店者の発話を検知したか否かを判断する(ステップS108)。ステップS108においては、図13に示すように、音声の時間的変化に対して有意な変化を示す区間(発話区間)が現れたか否かが判断される。来店者の発話が検知されなければ(ステップS108においてNO)、ステップS106およびS108の処理が繰り返される。このように、表示端末100は、客を撮像して得られた撮像画像136および客の発話を含む収集音声138を取得する処理を実行する。 Subsequently, the display terminal 100 acquires a captured image 136 by capturing an image of the visitor directly facing the display terminal 100 using the camera 130 (step S104). At the same time, the display terminal 100 starts collecting audio (step S106). Then, the display terminal 100 determines whether or not the visitor's utterance is detected based on the collected audio (step S108). In step S108, as shown in FIG. 13, it is determined whether a section (utterance section) showing a significant change with respect to the temporal change in the voice has appeared. If the visitor's utterance is not detected (NO in step S108), the processes of steps S106 and S108 are repeated. In this way, the display terminal 100 executes the process of acquiring the captured image 136 obtained by capturing the customer and the collected audio 138 including the customer's utterances.

来店者の発話が検知されると(ステップS108においてYES)、表示端末100は、撮像画像136から顔領域部分画像147および体領域部分画像148を抽出する(ステップS110)。そして、表示端末100は、抽出した顔領域部分画像147および体領域部分画像148をサイズ調整して顔領域特徴量1410および体領域特徴量1420を抽出する(ステップS112)。 When the visitor's utterance is detected (YES in step S108), the display terminal 100 extracts the face area partial image 147 and the body area partial image 148 from the captured image 136 (step S110). Then, the display terminal 100 adjusts the size of the extracted face area partial image 147 and body area partial image 148 to extract the face area feature amount 1410 and the body area feature amount 1420 (step S112).

併せて、表示端末100は、収集音声138に含まれる発話区間を特定区間音声149として抽出する(ステップS114)。そして、表示端末100は、抽出した特定区間音声149をリサンプリングして音声特徴量1430を抽出する(ステップS116)。 In addition, the display terminal 100 extracts the speech section included in the collected speech 138 as the specific section speech 149 (step S114). Then, the display terminal 100 resamples the extracted specific section audio 149 and extracts the audio feature amount 1430 (step S116).

表示端末100は、ステップS112において生成した顔領域特徴量1410および体領域特徴量1420、ならびに、ステップS116において生成した音声特徴量1430を推定モデル1400に入力して推定結果1450を生成する(ステップS118)。 The display terminal 100 inputs the face area feature amount 1410 and the body area feature amount 1420 generated in step S112, and the audio feature amount 1430 generated in step S116 to the estimation model 1400 to generate an estimation result 1450 (step S118 ).

このように、表示端末100は、撮像画像136および収集音声138から抽出される複数の特徴量を学習済の推定モデル1400に入力して当該客に応じた服飾アイテムの提案を生成する処理を実行する。 In this way, the display terminal 100 inputs a plurality of feature quantities extracted from the captured image 136 and the collected audio 138 into the trained estimation model 1400, and executes the process of generating a proposal for clothing items according to the customer. do.

表示端末100は、ステップS118において生成した推定結果1450においてスコアが上位のアイテムに基づいてアイテム提案画面52を生成して出力する(ステップS120)。 The display terminal 100 generates and outputs the item suggestion screen 52 based on the item with the highest score in the estimation result 1450 generated in step S118 (step S120).

表示端末100は、クーポン発行ボタンが押下されたか否かを判断する(ステップS122)。クーポン発行ボタンが押下されなければ(ステップS122においてNO)、ステップS122の処理が繰り返される。 The display terminal 100 determines whether the coupon issue button has been pressed (step S122). If the coupon issue button is not pressed (NO in step S122), the process of step S122 is repeated.

クーポン発行ボタンが押下されると(ステップS122においてYES)、表示端末100は、クーポンID166を生成するとともに、提案アイテムおよびクーポンID166が印字されたクーポン10を発行する(ステップS124)。すなわち、表示端末100は、識別情報であるクーポンID166を生成する処理を実行するとともに、媒体であるクーポン10を発行する処理を実行する。クーポン10は、生成された服飾アイテムの提案および生成されたクーポンID166(識別情報)を含むとともに、服飾アイテムの購入を促すための割引の内容が表示されている。 When the coupon issue button is pressed (YES in step S122), the display terminal 100 generates the coupon ID 166 and issues the coupon 10 on which the suggested item and the coupon ID 166 are printed (step S124). That is, the display terminal 100 executes the process of generating the coupon ID 166, which is the identification information, and also executes the process of issuing the coupon 10, which is the medium. The coupon 10 includes the generated clothing item suggestion and the generated coupon ID 166 (identification information), and displays the details of the discount to encourage the purchase of the clothing item.

最終的に、表示端末100は、クーポンID166に対応付けて撮像画像136および収集音声138を保存する(ステップS126)。すなわち、表示端末100は、生成されたクーポンID166(識別情報)と撮像画像136および収集音声138とを関連付ける処理を実行する。 Finally, the display terminal 100 stores the captured image 136 and the collected audio 138 in association with the coupon ID 166 (step S126). That is, the display terminal 100 executes a process of associating the generated coupon ID 166 (identification information) with the captured image 136 and the collected audio 138.

以上により、一人の来店者に対するアイテム推定処理は完了する。
(c7:小括)
本実施の形態に従う表示端末100は、来店者の顔領域部分画像147から生成される顔領域特徴量1410と、来店者の体領域部分画像148から生成される体領域特徴量1420と、来店者の特定区間音声149から生成される音声特徴量1430とを推定モデル1400に与えることで、来店者の嗜好に応じた服飾を提案できる。
With the above, the item estimation process for one store visitor is completed.
(c7: summary)
The display terminal 100 according to the present embodiment has a facial area feature amount 1410 generated from a facial area partial image 147 of the store visitor, a body area feature amount 1420 generated from the store visitor's body area partial image 148, and a facial area feature amount 1420 generated from the store visitor's body area partial image 148. By feeding the estimation model 1400 with the audio feature amount 1430 generated from the specific section audio 149, it is possible to propose clothing according to the store visitor's tastes.

また、本実施の形態に従う表示端末100は、クーポンID166を含むクーポン10を発行することで、後述するような学習フェーズで使用される学習データセットを生成するためのプラットフォームを提供できる。 Further, by issuing the coupon 10 including the coupon ID 166, the display terminal 100 according to the present embodiment can provide a platform for generating a learning data set used in a learning phase as described below.

<D.POS端末200の機能構成>
次に、本実施の形態に従う服飾提案システム1を構成するPOS端末200の機能および処理について説明する。服飾提案システム1において、POS端末200は、主として、学習済モデルを構築するための学習フェーズの一部を担当することになる。
<D. Functional configuration of POS terminal 200>
Next, the functions and processing of the POS terminal 200 that constitutes the clothing proposal system 1 according to the present embodiment will be explained. In the clothing proposal system 1, the POS terminal 200 is mainly responsible for part of the learning phase for constructing a trained model.

(d1:POS端末200の機能構成)
図18は、本実施の形態に従う服飾提案システム1を構成するPOS端末200の機能構成の一例を示す模式図である。図18に示す各機能は、典型的には、POS端末200のプロセッサ204がOS212およびアプリケーションプログラム214(いずれも図8参照)を実行することで実現されてもよい。
(d1: Functional configuration of POS terminal 200)
FIG. 18 is a schematic diagram showing an example of the functional configuration of the POS terminal 200 that constitutes the clothing proposal system 1 according to the present embodiment. Each function shown in FIG. 18 may typically be realized by the processor 204 of the POS terminal 200 executing the OS 212 and the application program 214 (both shown in FIG. 8).

図18を参照して、POS端末200は、機能構成として、会計機能240と、売上情報保存機能250とを有している。 Referring to FIG. 18, POS terminal 200 has an accounting function 240 and a sales information storage function 250 as functional configurations.

会計機能240は、来店者がアイテムを購入する際の決済処理を担当する。より具体的には、会計機能240は、購入対象のアイテムに付されているアイテムタグ20の情報およびクーポンから読み取られるクーポンID166に基づいて、購入対象アイテムの金額、割引額、支払額などを算出するとともに、決済処理を実行する。会計機能240は、決済処理されたアイテムを示す売上情報218を出力する。 The accounting function 240 is in charge of payment processing when a visitor purchases an item. More specifically, the accounting function 240 calculates the amount of the item to be purchased, the discount amount, the payment amount, etc. based on the information on the item tag 20 attached to the item to be purchased and the coupon ID 166 read from the coupon. At the same time, payment processing is executed. Accounting function 240 outputs sales information 218 indicating items for which payment has been processed.

売上情報保存機能250は、会計機能240から出力される売上情報218に、クーポン10から読み取られたクーポンID166を付与して保存する。売上情報保存機能250により保存される売上情報218(クーポンID166が付与されている)は、後述するように、管理装置300へ送信されて、学習済モデルを生成するための学習処理に用いられる。 The sales information storage function 250 adds the coupon ID 166 read from the coupon 10 to the sales information 218 output from the accounting function 240 and stores the same. The sales information 218 (to which the coupon ID 166 is assigned) stored by the sales information storage function 250 is transmitted to the management device 300 and used in a learning process to generate a trained model, as described later.

(d2:売上情報保存機能250)
次に、図18に示すPOS端末200の売上情報保存機能250の詳細について説明する。
(d2: Sales information storage function 250)
Next, details of the sales information storage function 250 of the POS terminal 200 shown in FIG. 18 will be explained.

図19は、本実施の形態に従う服飾提案システム1を構成するPOS端末200の売上情報保存機能250における処理内容を説明するための図である。図19を参照して、POS端末200は、売上情報保存機能250として、対応付けモジュール252と、売上情報格納部254とを含む。 FIG. 19 is a diagram for explaining processing contents in the sales information storage function 250 of the POS terminal 200 that constitutes the clothing proposal system 1 according to the present embodiment. Referring to FIG. 19, POS terminal 200 includes a correlation module 252 and a sales information storage section 254 as a sales information storage function 250.

会計機能240(図18参照)から売上情報218およびクーポンID166が入力されたことに応答して、対応付けモジュール252は、売上情報218に係るアイテムの購入時に使用されたクーポン10に付与されていたクーポンID166を受け付けて、売上情報218と対応付ける。対応付けモジュール252は、対応付けられたクーポンID166と売上情報218とを一体として売上情報格納部254に格納する。 In response to input of the sales information 218 and the coupon ID 166 from the accounting function 240 (see FIG. 18), the association module 252 determines whether the coupon 10 was attached to the coupon 10 used when purchasing the item related to the sales information 218. The coupon ID 166 is accepted and associated with the sales information 218. The association module 252 stores the associated coupon ID 166 and sales information 218 together in the sales information storage unit 254.

売上情報格納部254は、メモリ106あるいはストレージ110(いずれも図7参照)が提供する記憶領域の少なくとも一部を用いて実現される。売上情報格納部254には、クーポンID166および売上情報218からなるデータセットの単位でデータが格納される。 The sales information storage unit 254 is realized using at least a part of the storage area provided by the memory 106 or the storage 110 (both shown in FIG. 7). The sales information storage unit 254 stores data in units of data sets consisting of coupon IDs 166 and sales information 218.

売上情報218は、典型的には、アイテム種別(アイテム1,アイテム2,・・・,アイテムN)毎に売上個数が格納されている。 The sales information 218 typically stores the number of items sold for each item type (item 1, item 2, . . . , item N).

(d3:処理手順)
次に、服飾提案システム1を構成するPOS端末200において実行される売上管理処理について説明する。
(d3: Processing procedure)
Next, sales management processing executed in the POS terminal 200 that constitutes the clothing proposal system 1 will be explained.

図20は、本実施の形態に従う服飾提案システム1を構成するPOS端末200における売上管理処理の処理手順を示すフローチャートである。図20に示す各ステップは、典型的には、POS端末200のプロセッサ204がOS212およびアプリケーションプログラム214(いずれも図8参照)を実行することで実現されてもよい。 FIG. 20 is a flowchart showing the processing procedure of sales management processing in the POS terminal 200 configuring the clothing proposal system 1 according to the present embodiment. Each step shown in FIG. 20 may typically be realized by the processor 204 of the POS terminal 200 executing the OS 212 and the application program 214 (both shown in FIG. 8).

図20を参照して、まず、POS端末200は、光学読取機228(図8参照)によりクーポン10が読み取られたか否かを判断する(ステップS200)。クーポン10が読み取られると(ステップS200においてYES)、POS端末200は、読み取られたクーポン10のクーポンID166を取得する(ステップS202)。一方、クーポン10が読み取られなければ(ステップS200においてNO)、ステップS202の処理はスキップされる。 Referring to FIG. 20, POS terminal 200 first determines whether coupon 10 has been read by optical reader 228 (see FIG. 8) (step S200). When the coupon 10 is read (YES in step S200), the POS terminal 200 acquires the coupon ID 166 of the read coupon 10 (step S202). On the other hand, if the coupon 10 is not read (NO in step S200), the process of step S202 is skipped.

続いて、POS端末200は、光学読取機228(図8参照)により購入対象のアイテムに付されているアイテムタグ20が読み取られたか否かを判断する(ステップS204)。アイテムタグ20が読み取られると(ステップS204においてYES)、POS端末200は、読み取られたアイテムタグ20のアイテム情報を売上情報218に追加する(ステップS206)。 Subsequently, the POS terminal 200 determines whether the item tag 20 attached to the item to be purchased has been read by the optical reader 228 (see FIG. 8) (step S204). When the item tag 20 is read (YES in step S204), the POS terminal 200 adds the item information of the read item tag 20 to the sales information 218 (step S206).

そして、POS端末200は、アイテムタグの読み取り終了指示が与えられたか否かを判断する(ステップS208)。アイテムタグの読み取り終了指示が与えられていなければ(ステップS208においてNO)、ステップS204以下の処理が繰り返される。 Then, the POS terminal 200 determines whether an instruction to finish reading the item tag has been given (step S208). If the instruction to finish reading the item tag has not been given (NO in step S208), the processes from step S204 onwards are repeated.

アイテムタグの読み取り終了指示が与えられると(ステップS208においてYES)、POS端末200は、クーポン10の有無および現在の売上情報218に基づいて支払額を算出する(ステップS210)。そして、POS端末200は、ステップS210において算出した支払額について決済処理を実行する(ステップS212)。 When the instruction to finish reading the item tag is given (YES in step S208), the POS terminal 200 calculates the payment amount based on the presence or absence of the coupon 10 and the current sales information 218 (step S210). Then, the POS terminal 200 executes a payment process for the payment amount calculated in step S210 (step S212).

続いて、POS端末200は、クーポンID166が取得済であるか否かを判断する(ステップS214)。すなわち、ステップS200において、クーポン10が読み取られているか否かを判断する。 Subsequently, the POS terminal 200 determines whether the coupon ID 166 has been acquired (step S214). That is, in step S200, it is determined whether the coupon 10 has been read.

クーポンID166が取得済であれば(ステップS214においてYES)、POS端末200は、クーポンID166に対応付けて売上情報218を保存する(ステップS216)。一方、クーポンID166が取得済でなければ(ステップS214においてNO)、ステップS216の処理はスキップされる。以上により、一人の来店者に対する売上管理処理は完了する。 If the coupon ID 166 has been acquired (YES in step S214), the POS terminal 200 stores the sales information 218 in association with the coupon ID 166 (step S216). On the other hand, if the coupon ID 166 has not been acquired (NO in step S214), the process of step S216 is skipped. With the above steps, the sales management process for one store visitor is completed.

(d4:小括)
本実施の形態に従うPOS端末200は、来店者が購入するアイテムの決済処理を実行するとともに、その際に提示されるクーポン10に付与されているクーポンID166を読み取り、購入されたアイテムと対応付けて保存する。この保存された購入されたアイテムの情報(売上情報218)は、後述するような学習フェーズで使用される学習データセットの生成に利用される。
(d4: summary)
The POS terminal 200 according to this embodiment executes payment processing for items purchased by a store visitor, reads the coupon ID 166 given to the coupon 10 presented at that time, and associates it with the purchased item. save. This saved purchased item information (sales information 218) is used to generate a learning data set used in a learning phase as described below.

<E.学習フェーズの概要>
次に、本実施の形態に従う服飾提案システム1における学習フェーズの概要について説明する。
<E. Overview of learning phase>
Next, an overview of the learning phase in the clothing proposal system 1 according to the present embodiment will be explained.

本実施の形態に従う服飾提案システム1は、同一の来店者についての、表示端末100に保存される撮像画像136および収集音声138と、POS端末200に保存される売上情報218とを対応付けることで、学習用データセット324を生成し、生成した学習用データセット324を用いて推定モデルを学習する。 The clothing proposal system 1 according to this embodiment associates the captured image 136 and collected audio 138 stored in the display terminal 100 with the sales information 218 stored in the POS terminal 200 regarding the same visitor. A learning data set 324 is generated, and an estimation model is learned using the generated learning data set 324.

図21は、本実施の形態に従う服飾提案システム1における学習フェーズの概要について説明するための図である。図21を参照して、表示端末100は、アイテム推定処理の実行の際に取得した、クーポンID166が対応付けられた撮像画像136および収集音声138を管理装置300へ送信する(シーケンスSQ1)。同様に、POS端末200は、売上管理処理の実行の際に取得した、クーポンID166が対応付けられた売上情報218を管理装置300へ送信する(シーケンスSQ2)。 FIG. 21 is a diagram for explaining an overview of the learning phase in the clothing proposal system 1 according to the present embodiment. Referring to FIG. 21, display terminal 100 transmits captured image 136 and collected audio 138 associated with coupon ID 166, which were acquired during execution of the item estimation process, to management device 300 (sequence SQ1). Similarly, the POS terminal 200 transmits the sales information 218 associated with the coupon ID 166, which was acquired when executing the sales management process, to the management device 300 (sequence SQ2).

管理装置300は、表示端末100から送信された撮像画像136および収集音声138と、POS端末200から送信された売上情報218とを、クーポンID166をキーにして対応付けることで、学習用データセット324を生成する(シーケンスSQ3)。すなわち、シーケンスSQ3は、学習用データセット324を生成するための前処理に相当する。 The management device 300 creates the learning data set 324 by associating the captured image 136 and collected audio 138 transmitted from the display terminal 100 with the sales information 218 transmitted from the POS terminal 200 using the coupon ID 166 as a key. generate (sequence SQ3). That is, sequence SQ3 corresponds to preprocessing for generating the learning data set 324.

管理装置300は、生成した学習用データセット324を用いて、推定モデルを学習または追加学習することで、学習済モデル326を生成する(シーケンスSQ4)。そして、管理装置300は、生成した学習済モデル326を表示端末100の各々に送信する(シーケンスSQ5)。表示端末100は、管理装置300から送信された学習済モデル326を学習済モデル116として保存する。すなわち、表示端末100の学習済モデル116が設定あるいは更新される。 The management device 300 uses the generated learning data set 324 to learn or additionally learn the estimated model, thereby generating a learned model 326 (sequence SQ4). Then, the management device 300 transmits the generated trained model 326 to each of the display terminals 100 (sequence SQ5). The display terminal 100 stores the learned model 326 sent from the management device 300 as the learned model 116. That is, the learned model 116 of the display terminal 100 is set or updated.

図21に示すように、本実施の形態に従う服飾提案システム1においては、クーポン10に付与されたクーポンID166を用いて、表示端末100およびPOS端末200のそれぞれで取得される情報同士を結合できるので、来店者に負担を与えることなく、推定モデルの推定精度を高めるための学習用データセット324を容易に生成できる。 As shown in FIG. 21, in the clothing proposal system 1 according to the present embodiment, the information acquired by the display terminal 100 and the POS terminal 200 can be combined using the coupon ID 166 given to the coupon 10. , the learning data set 324 for improving the estimation accuracy of the estimation model can be easily generated without imposing a burden on the store visitors.

<F.管理装置300の機能構成>
次に、本実施の形態に従う服飾提案システム1を構成する管理装置300の機能および処理について説明する。服飾提案システム1において、管理装置300は、主として、学習済モデルを構築するための学習フェーズの一部を担当することになる。
<F. Functional configuration of management device 300>
Next, the functions and processing of the management device 300 that constitutes the clothing proposal system 1 according to this embodiment will be explained. In the clothing proposal system 1, the management device 300 is mainly responsible for a part of the learning phase for constructing a trained model.

(f1:管理装置300の機能構成)
図22は、本実施の形態に従う服飾提案システム1を構成する管理装置300の機能構成の一例を示す模式図である。図22に示す各機能は、典型的には、管理装置300のプロセッサ304がOS312、アプリケーションプログラム314、前処理プログラム316、および学習用プログラム318(いずれも図9参照)を実行することで実現されてもよい。
(f1: Functional configuration of management device 300)
FIG. 22 is a schematic diagram showing an example of the functional configuration of the management device 300 that constitutes the clothing proposal system 1 according to the present embodiment. Each function shown in FIG. 22 is typically realized by the processor 304 of the management device 300 executing the OS 312, application program 314, preprocessing program 316, and learning program 318 (all shown in FIG. 9). It's okay.

図22を参照して、管理装置300は、機能構成として、撮像画像・収集音声・売上情報取得機能340と、学習用データセット生成機能350と、学習機能360とを有している。 Referring to FIG. 22, the management device 300 has a captured image/collected audio/sales information acquisition function 340, a learning data set generation function 350, and a learning function 360 as functional configurations.

撮像画像・収集音声・売上情報取得機能340は、表示端末100に保存されている、クーポンID166が対応付けられた撮像画像136および収集音声138、ならびに、POS端末200に保存されている、クーポンID166が対応付けられた売上情報218を取得する。これらのデータは、学習用データセットとして用いられることになる。すなわち、管理装置300の撮像画像・収集音声・売上情報取得機能340は、学習用データセットを取得するための構成に相当する。 The captured image/collected audio/sales information acquisition function 340 retrieves the captured image 136 and collected audio 138 associated with the coupon ID 166 that are stored in the display terminal 100 and the coupon ID 166 that is stored in the POS terminal 200. obtains the sales information 218 associated with. These data will be used as a learning dataset. That is, the captured image/collected audio/sales information acquisition function 340 of the management device 300 corresponds to a configuration for acquiring a learning data set.

表示端末100およびPOS端末200からのデータ取得の方法としては、例えば、表示端末100およびPOS端末200に対して何らかの指令を与えて表示端末100およびPOS端末200がそれぞれデータを送信するようにしてもよいし、管理装置300が表示端末100およびPOS端末200にアクセスしてそれぞれデータを取得するようにしてもよい。あるいは、表示端末100およびPOS端末200は、予め定められた周期毎にデータを管理装置300へ送信するようにしてもよい。 As a method for acquiring data from the display terminal 100 and the POS terminal 200, for example, some instructions may be given to the display terminal 100 and the POS terminal 200 so that the display terminal 100 and the POS terminal 200 respectively transmit data. Alternatively, the management device 300 may access the display terminal 100 and the POS terminal 200 to obtain data from each. Alternatively, the display terminal 100 and the POS terminal 200 may transmit data to the management device 300 at predetermined intervals.

学習用データセット生成機能350は、表示端末100から取得されたクーポンID166が対応付けられた撮像画像136および収集音声138と、POS端末200から取得されたクーポンID166が対応付けられた売上情報218とから、学習用データセット324を生成する。 The learning data set generation function 350 generates captured images 136 and collected audio 138 associated with the coupon ID 166 acquired from the display terminal 100, and sales information 218 associated with the coupon ID 166 acquired from the POS terminal 200. From this, a learning data set 324 is generated.

学習機能360は、学習用データセット生成機能350により生成された学習用データセット324を用いて、推定モデルを学習することで学習済モデル326を生成する。生成された学習済モデル326は、表示端末100へ送信される。 The learning function 360 uses the learning data set 324 generated by the learning data set generation function 350 to generate a learned model 326 by learning the estimated model. The generated learned model 326 is transmitted to the display terminal 100.

(f2:学習用データセット生成機能350)
次に、図22に示す管理装置300の学習用データセット生成機能350の詳細について説明する。
(f2: Learning dataset generation function 350)
Next, details of the learning data set generation function 350 of the management device 300 shown in FIG. 22 will be described.

図23は、本実施の形態に従う服飾提案システム1を構成する管理装置300の学習用データセット生成機能350における処理内容を説明するための図である。図23を参照して、学習用データセット生成機能350に関して、管理装置300は、表示端末100から取得された、クーポンID166が対応付けられた撮像画像136および収集音声138と、POS端末200から取得された、クーポンID166が対応付けられた売上情報218とを比較して、同一のクーポンID166を有するデータ間を対応付ける。 FIG. 23 is a diagram for explaining the processing contents in the learning data set generation function 350 of the management device 300 that constitutes the clothing proposal system 1 according to the present embodiment. Referring to FIG. 23, regarding the learning data set generation function 350, the management device 300 acquires the captured image 136 and collected audio 138 associated with the coupon ID 166 acquired from the display terminal 100, and the acquired voice 138 acquired from the POS terminal 200. The sales information 218 that has been associated with the coupon ID 166 is compared with the sales information 218 that has been associated with the coupon ID 166, and the data having the same coupon ID 166 are associated with each other.

図23には、一例として、クーポンID166として「01」,「02」,「03」がそれぞれ付与された撮像画像136と収集音声138とのデータの組、ならびに、クーポンID166として「02」,「03」,「08」がそれぞれ付与された売上情報218が示されている。これらのうち、クーポンID166が「02」および「03」が付与されたデータについては、撮像画像136、収集音声138および売上情報218のすべてが揃うことになる。これらの3種類のデータを学習用データ(入力情報と推定結果の正解値との関係)として決定できる。複数のクーポンID166について学習用データをそれぞれ生成することで、学習用データセット324を生成できる。 As an example, FIG. 23 shows a data set of a captured image 136 and a collected audio 138 to which "01", "02", and "03" are assigned as coupon IDs 166, respectively, and "02" and "03" are assigned as coupon IDs 166, respectively. 03" and "08" are shown, respectively. Sales information 218 is shown. Of these, the captured image 136, collected audio 138, and sales information 218 are all available for data to which the coupon ID 166 is assigned "02" and "03." These three types of data can be determined as learning data (the relationship between the input information and the correct value of the estimation result). By generating learning data for each of the plurality of coupon IDs 166, the learning data set 324 can be generated.

このとき、後述するような学習処理に適合させるために、売上情報218がラベル(タグ)として用いられる。すなわち、学習用データセット324は、任意の客を撮像して得られた撮像画像136(学習用画像)および当該任意の客が発話した収集音声138(学習用音声)に対して、当該任意の客が購入した服飾アイテム(売上情報218)がラベル付けされている。 At this time, the sales information 218 is used as a label (tag) in order to adapt the learning process to be described later. In other words, the learning data set 324 is configured based on the captured image 136 (learning image) obtained by capturing an arbitrary customer and the collected audio 138 (learning audio) uttered by the arbitrary customer. Clothing items (sales information 218) purchased by the customer are labeled.

(f3:学習機能360)
次に、図22に示す管理装置300の学習機能360の詳細について説明する。
(f3: learning function 360)
Next, details of the learning function 360 of the management device 300 shown in FIG. 22 will be described.

図24は、本実施の形態に従う服飾提案システム1を構成する管理装置300の学習機能360における処理内容を説明するための図である。図24を参照して、管理装置300は、学習機能360として、領域特定モジュール141と、サイズ調整モジュール142,143と、区間特定モジュール144と、リサンプリングモジュール145とを含む。これらのモジュールは、表示端末100が、提案アイテム推定機能140として有しているモジュールと実質的に同一である。そのため、これらのモジュールについての詳細な説明は繰り返さない。 FIG. 24 is a diagram for explaining the processing content in the learning function 360 of the management device 300 that constitutes the clothing proposal system 1 according to the present embodiment. Referring to FIG. 24, management device 300 includes, as learning function 360, region identification module 141, size adjustment modules 142 and 143, section identification module 144, and resampling module 145. These modules are substantially the same as the modules that the display terminal 100 has as the suggested item estimation function 140. Therefore, a detailed description of these modules will not be repeated.

さらに、管理装置300は、学習機能360として、パラメータ最適化モジュール362を含む。パラメータ最適化モジュール362は、推定モデル1400を規定するためのモデルパラメータ364を最適化することで、学習済モデル326を生成する。 Furthermore, the management device 300 includes a parameter optimization module 362 as a learning function 360. Parameter optimization module 362 generates trained model 326 by optimizing model parameters 364 for defining estimated model 1400.

パラメータ最適化モジュール362は、学習用データセット324に含まれる撮像画像136、収集音声138および売上情報218の各組(学習用データ)を用いて、モデルパラメータ364を最適化する。 The parameter optimization module 362 optimizes the model parameters 364 using each set (learning data) of the captured image 136, collected audio 138, and sales information 218 included in the learning data set 324.

より具体的には、パラメータ最適化モジュール362は、学習用データセット324に含まれる各組の撮像画像136および収集音声138から、顔領域特徴量1410、体領域特徴量1420および音声特徴量1430を生成して、推定モデル1400に入力することで推定結果1450を算出する。そして、パラメータ最適化モジュール362は、推定モデル1400から出力される推定結果1450と対応する売上情報218(正解ラベル)とを比較することで誤差を算出し、算出した誤差に応じてモデルパラメータ364の値を最適化(調整)する。 More specifically, the parameter optimization module 362 calculates a face region feature amount 1410, a body region feature amount 1420, and a voice feature amount 1430 from each set of captured images 136 and collected audio 138 included in the learning data set 324. The estimation result 1450 is calculated by generating and inputting it to the estimation model 1400. Then, the parameter optimization module 362 calculates an error by comparing the estimation result 1450 output from the estimation model 1400 and the corresponding sales information 218 (correct label), and adjusts the model parameters 364 according to the calculated error. Optimize (adjust) values.

すなわち、パラメータ最適化モジュール362は、学習部に相当し、学習用データ(撮像画像136および収集音声138に売上情報218がラベル付けされている)から抽出された、顔領域特徴量1410(第1特徴量)、体領域特徴量1420(第2特徴量)および音声特徴量1430(第3特徴量)を推定モデル1400に入力して出力される推定結果1450が、当該学習用データにラベル付けされている服飾アイテムの購入実績(売上情報218)に近付くように、推定モデル1400を最適化する。言い換えれば、パラメータ最適化モジュール362は、学習用データに含まれる撮像画像136および収集音声138から特徴量を抽出して推定モデル1400に入力したときに算出される推定結果1450が対応する売上情報218と一致するようにモデルパラメータ364を調整する。 That is, the parameter optimization module 362 corresponds to a learning unit, and is based on the facial area feature amount 1410 (the first The estimation result 1450 that is output by inputting the body region feature amount 1420 (second feature amount), and the audio feature amount 1430 (third feature amount) to the estimation model 1400 is labeled with the training data. The estimation model 1400 is optimized so as to approximate the purchase history (sales information 218) of clothing items. In other words, the parameter optimization module 362 extracts features from the captured image 136 and collected audio 138 included in the learning data and inputs them into the estimation model 1400. Adjust model parameters 364 to match .

同様の手順で、学習用データセット324に含まれる各学習用データ(撮像画像136、収集音声138および売上情報218)に基づいて、推定モデル1400のモデルパラメータ364を繰り返し最適化することで、学習済モデル326が生成される。 In the same procedure, the model parameters 364 of the estimation model 1400 are repeatedly optimized based on each learning data (captured image 136, collected audio 138, and sales information 218) included in the learning data set 324. A completed model 326 is generated.

パラメータ最適化モジュール362がモデルパラメータ364の値を最適化するにあたっては、任意の最適化アルゴリズムを用いることができる。より具体的には、最適化アルゴリズムとしては、例えば、SGD(Stochastic Gradient Descent:確率的勾配降下法)、Momentum SGD(慣性項付加SGD)、AdaGrad、RMSprop、AdaDelta、Adam(Adaptive moment estimation)などの勾配法を用いることができる。 Parameter optimization module 362 may use any optimization algorithm to optimize the values of model parameters 364. More specifically, as an optimization algorithm, for example, SGD (Stochastic Gradient Descent), Momentum SGD (Inertial term added SGD), AdaGrad, RMSprop, AdaDelta, Adam (Adaptive moment estimation), etc. A gradient method can be used.

なお、推定モデル1400から出力される推定結果1450の各要素を正規化された確率として出力する場合には、売上情報218に含まれるアイテム種別(アイテム1,アイテム2,・・・,アイテムN)毎の売上個数(図19参照)についても正規化しておくことが好ましい。 Note that when outputting each element of the estimation result 1450 output from the estimation model 1400 as a normalized probability, the item type (item 1, item 2, ..., item N) included in the sales information 218 It is also preferable to normalize the number of sales for each period (see FIG. 19).

パラメータ最適化モジュール362によりモデルパラメータ364を最適化された推定モデル1400は、学習済モデル326に相当し、表示端末100へ送信される。 The estimated model 1400 whose model parameters 364 have been optimized by the parameter optimization module 362 corresponds to the learned model 326 and is transmitted to the display terminal 100.

(f4:処理手順)
次に、服飾提案システム1を構成する管理装置300において実行される学習処理について説明する。
(f4: processing procedure)
Next, a learning process executed in the management device 300 that constitutes the clothing proposal system 1 will be described.

図25は、本実施の形態に従う服飾提案システム1を構成する管理装置300における学習処理の処理手順を示すフローチャートである。図25に示す各ステップは、典型的には、管理装置300のプロセッサ304がOS312、アプリケーションプログラム314、前処理プログラム316、および学習用プログラム318(いずれも図9参照)を実行することで実現されてもよい。 FIG. 25 is a flowchart showing the processing procedure of the learning process in the management device 300 that constitutes the clothing suggestion system 1 according to the present embodiment. Each step shown in FIG. 25 is typically realized by the processor 304 of the management device 300 executing the OS 312, application program 314, preprocessing program 316, and learning program 318 (all shown in FIG. 9). It's okay.

図25を参照して、管理装置300は、表示端末100からクーポンID166が付与された撮像画像136および収集音声138を取得する(ステップS300)。併せて、管理装置300は、POS端末200からクーポンID166が付与された売上情報218を取得する(ステップS302)。すなわち、管理装置300は、媒体であるクーポン10に含まれるクーポンID166(識別情報)および客が購入した服飾アイテム(売上情報218)を取得する処理を実行する。 Referring to FIG. 25, management device 300 acquires captured image 136 and collected audio 138 to which coupon ID 166 is attached from display terminal 100 (step S300). At the same time, the management device 300 acquires the sales information 218 to which the coupon ID 166 is attached from the POS terminal 200 (step S302). That is, the management device 300 executes a process of acquiring the coupon ID 166 (identification information) included in the coupon 10 as a medium and the clothing item (sales information 218) purchased by the customer.

そして、管理装置300は、クーポンID166をキーにして、撮像画像136および収集音声138と、売上情報218とを対応付けることで、学習用データセット324を生成する(ステップS304)。すなわち、管理装置300は、媒体であるクーポン10から取得されたクーポンID166(識別情報)と客が購入した服飾アイテム(売上情報218)とを関連付ける処理を実行し、さらに、クーポンID166をキーとして撮像画像136および収集音声138と売上情報218とを関連付けて、推定モデル1400の学習に用いられる学習用データとして保存する処理を実行する。 Then, the management device 300 generates a learning data set 324 by associating the captured image 136 and collected audio 138 with the sales information 218 using the coupon ID 166 as a key (step S304). That is, the management device 300 executes a process of associating the coupon ID 166 (identification information) acquired from the coupon 10 that is the medium with the clothing item (sales information 218) purchased by the customer, and further performs an image capturing process using the coupon ID 166 as a key. A process of associating the image 136, the collected audio 138, and the sales information 218 with each other and storing the association as learning data used for learning the estimation model 1400 is executed.

管理装置300は、生成した学習用データセット324のうち、1つのデータの組(学習用データ)を選択する(ステップS306)。 The management device 300 selects one data set (learning data) from the generated learning data set 324 (step S306).

管理装置300は、選択したデータの撮像画像136から顔領域部分画像147および体領域部分画像148を抽出する(ステップS308)。そして、管理装置300は、抽出した顔領域部分画像147および体領域部分画像148をサイズ調整して顔領域特徴量1410および体領域特徴量1420を抽出する(ステップS310)。 The management device 300 extracts the face area partial image 147 and the body area partial image 148 from the captured image 136 of the selected data (step S308). Then, the management device 300 adjusts the size of the extracted face area partial image 147 and body area partial image 148 to extract the face area feature amount 1410 and the body area feature amount 1420 (step S310).

このように、管理装置300は、各学習用データの撮像画像136内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定する処理を実行する。そして、管理装置300は、撮像画像136の顔領域から顔領域特徴量1410(第1特徴量)を抽出するとともに、撮像画像136の体領域から体領域特徴量1420(第2特徴量)を抽出する処理を実行する。 In this way, the management device 300 executes the process of identifying the face area representing the customer's face and the body area representing the customer's body in the captured image 136 of each learning data. Then, the management device 300 extracts a face region feature amount 1410 (first feature amount) from the face region of the captured image 136, and extracts a body region feature amount 1420 (second feature amount) from the body region of the captured image 136. Execute the processing to be performed.

併せて、管理装置300は、選択したデータの収集音声138に含まれる発話区間を特定区間音声149として抽出する(ステップS312)。そして、管理装置300は、抽出した特定区間音声149をリサンプリングして音声特徴量1430を抽出する(ステップS314)。このように、管理装置300は、収集音声138のうち客の発話に対応する部分の音声から音声特徴量1430(第3特徴量)を抽出する処理を実行する。 In addition, the management device 300 extracts the speech section included in the collected speech 138 of the selected data as the specific section speech 149 (step S312). Then, the management device 300 resamples the extracted specific section audio 149 and extracts the audio feature amount 1430 (step S314). In this way, the management device 300 executes the process of extracting the voice feature amount 1430 (third feature amount) from the voice of the part of the collected voice 138 that corresponds to the customer's utterance.

管理装置300は、ステップS310において生成した顔領域特徴量1410および体領域特徴量1420、ならびに、ステップS314において生成した音声特徴量1430を推定モデル1400に入力して推定結果1450を生成する(ステップS316)。 The management device 300 inputs the face region feature amount 1410 and the body region feature amount 1420 generated in step S310, and the voice feature amount 1430 generated in step S314 to the estimation model 1400 to generate an estimation result 1450 (step S316 ).

管理装置300は、選択したデータの売上情報218とステップS316において生成した推定結果1450との誤差に基づいて推定モデルのモデルパラメータ364を最適化する(ステップS318)。 The management device 300 optimizes the model parameters 364 of the estimation model based on the error between the sales information 218 of the selected data and the estimation result 1450 generated in step S316 (step S318).

このように、管理装置300は、顔領域特徴量1410(第1特徴量)、体領域特徴量1420(第2特徴量)および音声特徴量1430(第3特徴量)を推定モデル1400に入力して出力される推定結果1450が、当該学習用データにラベル付けされている服飾アイテムの購入実績(売上情報218)に近付くように、推定モデル1400を最適化する処理を実行する。 In this way, the management device 300 inputs the face region feature amount 1410 (first feature amount), the body region feature amount 1420 (second feature amount), and the voice feature amount 1430 (third feature amount) to the estimation model 1400. A process of optimizing the estimation model 1400 is executed so that the estimation result 1450 outputted from the training data approaches the purchase history (sales information 218) of the clothing item labeled in the learning data.

そして、管理装置300は、ステップS304において生成した学習用データセット324のすべてを処理したか否かを判断する(ステップS320)。学習用データセット324のすべてを処理していなければ(ステップS320においてNO)、ステップS306以下の処理が繰り返される。 Then, the management device 300 determines whether all the learning data sets 324 generated in step S304 have been processed (step S320). If all of the learning data set 324 has not been processed (NO in step S320), the processes from step S306 onwards are repeated.

学習用データセット324のすべてを処理していれば(ステップS320においてYES)、管理装置300は、現在のモデルパラメータ364により規定される学習済モデル326を各表示端末100へ送信する(ステップS322)。以上により、学習処理は完了する。 If all of the learning data set 324 has been processed (YES in step S320), the management device 300 transmits the learned model 326 defined by the current model parameters 364 to each display terminal 100 (step S322). . With the above, the learning process is completed.

(f5:小括)
本実施の形態に従う管理装置300は、表示端末100から取得される撮像画像136および収集音声138と、POS端末200から取得される売上情報218とを、クーポンID166をキーにして対応付けることで、学習用データセット324を容易に生成できる。このような学習用データセット324を用いることで、推定モデルの構築あるいは学習済モデル326の追加学習が可能となる。これによって、服飾の提案精度を高めることができる。
(f5: summary)
The management device 300 according to the present embodiment learns by associating the captured image 136 and collected audio 138 acquired from the display terminal 100 with the sales information 218 acquired from the POS terminal 200 using the coupon ID 166 as a key. data set 324 can be easily generated. By using such a training data set 324, it is possible to construct an estimation model or perform additional learning on the trained model 326. This makes it possible to improve the accuracy of clothing suggestions.

<G.変形例>
上述の実施の形態においては、典型例として、表示端末100、POS端末200および管理装置300が単一の店舗30に配置された服飾提案システム1を例示したが、これに限らず、各種の変形が可能である。以下、いくつかの変形例について説明する。
<G. Modified example>
In the above-described embodiment, the clothing suggestion system 1 in which the display terminal 100, the POS terminal 200, and the management device 300 are arranged in a single store 30 is illustrated as a typical example, but the present invention is not limited to this, and various modifications can be made. is possible. Some modified examples will be described below.

(g1:複数店舗連携:変形例1)
一変形例として、管理装置300が複数の店舗間を管理するようにしてもよい。
(g1: Multiple store collaboration: Modification example 1)
As a variation, the management device 300 may manage multiple stores.

図26は、本実施の形態の変形例1に従う服飾提案システム1Aのシステム構成の一例を示す模式図である。図26を参照して、店舗30Aおよび店舗30Bの各々には、1または複数の表示端末100および1または複数のPOS端末200が配置されている。各店舗30は、広域ネットワーク4を介して同一の管理装置300と接続されている。 FIG. 26 is a schematic diagram showing an example of the system configuration of the clothing proposal system 1A according to the first modification of the present embodiment. Referring to FIG. 26, one or more display terminals 100 and one or more POS terminals 200 are arranged in each of store 30A and store 30B. Each store 30 is connected to the same management device 300 via the wide area network 4.

管理装置300は、店舗30Aの表示端末100およびPOS端末200から必要な情報(撮像画像136、収集音声138および売上情報218)を取得するとともに、店舗30Bの表示端末100およびPOS端末200から必要な情報を取得する。そして、管理装置300は、収集した情報に基づいて、両店舗に共通の学習済モデル、あるいは、店舗毎の学習済モデルを生成する。 The management device 300 acquires necessary information (captured images 136, collected audio 138, and sales information 218) from the display terminal 100 and POS terminal 200 of the store 30A, and also acquires necessary information from the display terminal 100 and POS terminal 200 of the store 30B. Get information. Then, the management device 300 generates a learned model common to both stores or a learned model for each store based on the collected information.

図26に示すような構成を採用することで、管理装置300の配置数を低減できるとともに、より多くの学習用データセットを取得できるので、学習済モデルの推定精度を高めることができる。 By adopting the configuration shown in FIG. 26, the number of management devices 300 to be arranged can be reduced, and more learning data sets can be acquired, so the estimation accuracy of the trained model can be improved.

(g2:カテゴリ別のアイテム提案:変形例2)
上述の実施の形態に従う推定モデル1400(図11参照)には、カテゴリ選択受付画面50に表示されるカテゴリのいずれかに対応する音声特徴量1430が入力されるので、基本的には、出力される推定結果1450において、発声されたカテゴリに属するアイテムは相対的に高いスコアを有することになる。なお、複数の服飾アイテムの各々は、予め定められた複数のカテゴリ(商品カテゴリ)のいずれかに属することになる。
(g2: Item proposal by category: Modification example 2)
Since the estimation model 1400 (see FIG. 11) according to the above-described embodiment is inputted with the audio feature amount 1430 corresponding to any of the categories displayed on the category selection reception screen 50, basically, the estimated model 1400 (see FIG. 11) is In the estimation result 1450, items belonging to the uttered category will have relatively high scores. Note that each of the plurality of clothing items belongs to one of a plurality of predetermined categories (product categories).

但し、選択されたカテゴリに属するアイテムと同時に購入された他のカテゴリに属するアイテムが多数存在する場合には、推定結果1450には、相対的に高いスコアを有する他のカテゴリに属するアイテムが混在し得る。このような場合には、アイテム提案画面52には、選択されたカテゴリ以外のカテゴリに属するアイテムも提案されることになる。 However, if there are many items belonging to other categories that were purchased at the same time as the item belonging to the selected category, the estimation result 1450 may include items belonging to other categories having relatively high scores. obtain. In such a case, items belonging to categories other than the selected category will also be proposed on the item suggestion screen 52.

図27は、本実施の形態の変形例2に従う服飾提案システム1の表示端末100に表示されるアイテム提案画面を説明するための図である。図27(a)に示すように、推定結果1450に他のカテゴリに属するアイテムが相対的に高いスコアを有する場合には、アイテム提案画面52の一覧表示54には、当該他のカテゴリに属するアイテム(符号54M)が含まれることになる。 FIG. 27 is a diagram for explaining an item suggestion screen displayed on the display terminal 100 of the clothing suggestion system 1 according to the second modification of the present embodiment. As shown in FIG. 27(a), when an item belonging to another category has a relatively high score in the estimation result 1450, the list display 54 of the item suggestion screen 52 shows the item belonging to the other category. (Symbol 54M) will be included.

このような他のカテゴリに属するアイテムを含み得るアイテム提案画面52を表示するようにしてもよいが、図27(b)に示すように、選択されたカテゴリに属するアイテムと、それ以外のカテゴリに属するアイテムとを異なる表示態様で提案してもよい。 The item suggestion screen 52 may be displayed which may include items belonging to other categories, but as shown in FIG. 27(b), items belonging to the selected category and other categories The items to which it belongs may be proposed in a different display mode.

すなわち、図27(b)に示すアイテム提案画面52は、来店者40が音声で選択したカテゴリに属するアイテムからなる一覧表示54と、来店者40が音声で選択したカテゴリ以外のカテゴリに属するアイテムからなる一覧表示55とを含む。一覧表示55には、選択されたカテゴリとは異なるカテゴリではあるものの、過去の販売実績に基づいて、提案にふさわしいアイテムであることを示す「こちらもどうですか」といったメッセージが併せて表示される。 That is, the item suggestion screen 52 shown in FIG. 27(b) includes a list display 54 consisting of items belonging to the category selected by the store visitor 40 by voice, and a list display 54 consisting of items belonging to the category other than the category selected by the store visitor 40 by voice. A list display 55 is included. The list display 55 also displays a message such as ``How about this one too?'' indicating that the item is suitable for the proposal based on past sales results, although it is in a different category than the selected category.

図28は、本実施の形態の変形例2に従う服飾提案システム1を構成する表示端末100の表示制御機能150Aおよびクーポン発行制御機能160における処理内容を説明するための図である。図28を参照して、表示端末100は、表示制御機能150Aとして、表示制御モジュール152Aと、音声解析モジュール154と、カテゴリ・アイテム対応情報156とを有している。 FIG. 28 is a diagram for explaining the processing contents in the display control function 150A and the coupon issuing control function 160 of the display terminal 100 that constitute the clothing suggestion system 1 according to the second modification of the present embodiment. Referring to FIG. 28, display terminal 100 has display control module 152A, audio analysis module 154, and category/item correspondence information 156 as display control function 150A.

音声解析モジュール154は、来店者40が発話した収集音声138を音声解析することで、来店者40が音声で選択したカテゴリを特定する。すなわち、音声解析モジュール154は、客が発話した音声に基づいて、複数のカテゴリの中から、客によって選択されたカテゴリを特定する。なお、音声解析モジュール154による音声解析方法は、公知の任意のアルゴリズムを用いることができる。音声解析モジュール154により特定されたカテゴリは、表示制御モジュール152Aへ与えられる。 The voice analysis module 154 performs voice analysis on the collected voice 138 uttered by the store visitor 40 to identify the category selected by the store visitor 40 by voice. That is, the voice analysis module 154 identifies the category selected by the customer from among a plurality of categories based on the voice uttered by the customer. Note that any known algorithm can be used as the voice analysis method by the voice analysis module 154. The categories identified by the audio analysis module 154 are provided to the display control module 152A.

表示制御モジュール152Aは、提案アイテム推定機能140により算出される推定結果1450を受け付けて、推定結果1450において上位のスコアを有するアイテムを特定する。表示制御モジュール152Aは、カテゴリ・アイテム対応情報156を参照して、推定結果1450において上位のスコアを有するアイテムの各々が、音声解析モジュール154により特定されたカテゴリに属するか否かを判断する。そして、表示制御モジュール152Aは、アイテム画像118を参照して、音声解析モジュール154により特定されたカテゴリに属するアイテムについては、その画像を一覧表示54に追加し、音声解析モジュール154により特定されたカテゴリ以外のカテゴリに属するアイテムについては、その画像を一覧表示55に追加することで、アイテム提案画面52Aを生成する。生成されたアイテム提案画面52Aは、ディスプレイ102に表示される。 The display control module 152A receives the estimation result 1450 calculated by the suggested item estimation function 140, and identifies the item having the highest score in the estimation result 1450. The display control module 152A refers to the category/item correspondence information 156 and determines whether each item having a high score in the estimation result 1450 belongs to the category specified by the audio analysis module 154. Then, the display control module 152A refers to the item image 118, adds the image to the list display 54 for items belonging to the category specified by the audio analysis module 154, and adds the image to the list display 54, For items belonging to other categories, the item suggestion screen 52A is generated by adding the image to the list display 55. The generated item suggestion screen 52A is displayed on the display 102.

以上のような表示制御モジュール152Aでの処理が実行されることで、図27(b)に示されるようなアイテム提案画面52Aが提供される。すなわち、ディスプレイ102は、推定結果1450に基づいて表示される服飾アイテムのうち、音声解析モジュール154により特定されたカテゴリに属する服飾アイテムと、当該特定されたカテゴリに属さない服飾アイテムとを異なる表示態様で表示する。このような表示態様を採用することで、来店者40が選択したカテゴリ以外のアイテムについても購入を促すことができる。 By executing the processing in the display control module 152A as described above, an item suggestion screen 52A as shown in FIG. 27(b) is provided. That is, the display 102 displays clothing items that belong to the category specified by the voice analysis module 154 and clothing items that do not belong to the specified category among the clothing items displayed based on the estimation result 1450 in different display modes. Display in . By adopting such a display mode, it is possible to encourage purchase of items other than the category selected by the store visitor 40.

その他の処理および機能については、図15を参照して説明した内容と実質的に同一であるので、詳細な説明は繰り返さない。 Other processes and functions are substantially the same as those described with reference to FIG. 15, so detailed descriptions will not be repeated.

(g3:ネットワーク:変形例3)
上述の実施の形態においては、顔領域特徴量1410、体領域特徴量1420および音声特徴量1430が入力される推定モデル1400を例示したが、さらに追加の情報を入力可能な推定モデルを採用してもよい。
(g3: Network: Modification 3)
In the embodiment described above, the estimation model 1400 to which the face region feature amount 1410, the body region feature amount 1420, and the voice feature amount 1430 are input is illustrated, but an estimation model that can input additional information is also adopted. Good too.

図29は、本実施の形態の変形例3に従う服飾提案システム1を構成する表示端末100の提案アイテム推定機能140における処理内容を説明するための図である。図29には、天気や気温といった気象情報を入力特徴量1440として受け付ける推定モデル1400Aを示す。このように、入力情報を追加することで、推定精度を高めることができる。 FIG. 29 is a diagram for explaining the processing contents in the suggested item estimation function 140 of the display terminal 100 that constitutes the clothing suggestion system 1 according to the third modification of the present embodiment. FIG. 29 shows an estimation model 1400A that accepts meteorological information such as weather and temperature as an input feature amount 1440. In this way, by adding input information, estimation accuracy can be improved.

推定モデル1400Aに入力する特徴量を追加した場合には、推定モデル1400Aの学習に用いられる学習用データセットに含める情報についても、入力される特徴量に対応させて増加させることになる。 When a feature quantity input to the estimation model 1400A is added, the information included in the learning data set used for learning the estimation model 1400A is also increased in accordance with the input feature quantity.

なお、図29には、典型例として、気象情報を示すが、追加的に入力する情報は、これに限らず、提案するアイテムの決定に何らかの関連性が推定される情報であれば、任意の情報を採用できる。例えば、風速や日照時間などの他の気象情報、日時や曜日といった時間情報、当該店舗の混雑具合などの情報を用いてもよい。 Note that although weather information is shown as a typical example in FIG. 29, additional information to be input is not limited to this, and any information that is presumed to have some relevance to the decision of the item to be proposed may be used. Information can be adopted. For example, other weather information such as wind speed and sunshine hours, time information such as date and time and day of the week, and information such as how crowded the store is may be used.

(g4:ネットワーク:変形例4)
上述の実施の形態においては、顔領域特徴量1410、体領域特徴量1420および音声特徴量1430が入力される推定モデル1400を例示したが、一部の情報を代替するような推定モデルを採用してもよい。
(g4: Network: Modification 4)
In the embodiment described above, the estimation model 1400 to which the face region feature amount 1410, the body region feature amount 1420, and the voice feature amount 1430 are inputted is illustrated, but an estimation model that substitutes some information may be adopted. It's okay.

図30は、本実施の形態の変形例4に従う服飾提案システム1を構成する表示端末100の提案アイテム推定機能140における処理内容を説明するための図である。図30には、音声特徴量1430に代えて、カテゴリを示す入力特徴量1442を入力する構成例を示す。入力特徴量1442については、来店者40が発話した収集音声138を音声解析することで、来店者40が音声で選択したカテゴリを特定することで生成してもよい。 FIG. 30 is a diagram for explaining the processing contents in the suggested item estimation function 140 of the display terminal 100 that constitutes the clothing suggestion system 1 according to the fourth modification of the present embodiment. FIG. 30 shows a configuration example in which an input feature amount 1442 indicating a category is input instead of the audio feature amount 1430. The input feature amount 1442 may be generated by analyzing the collected speech 138 uttered by the store visitor 40 and specifying the category selected by the store visitor 40 by voice.

あるいは、来店者40が、表示端末100に表示されるカテゴリ選択受付画面50において、カテゴリに対応する部分をタッチすることで選択した場合には、そのタッチ操作により選択されたカテゴリを入力特徴量1442として入力するようにしてもよい。 Alternatively, if the store visitor 40 selects a category by touching the part corresponding to the category on the category selection reception screen 50 displayed on the display terminal 100, the category selected by the touch operation is input to the feature amount 1442. You may also input it as .

なお、図30には、カテゴリを示す入力特徴量1442を入力する例を示すが、上述の図28に示すような構成を採用することで、入力特徴量1442の入力も削除するようにしてもよい。 Note that although FIG. 30 shows an example in which the input feature amount 1442 indicating the category is input, by adopting the configuration shown in FIG. good.

(g5:携帯端末を用いたアイテム提案:変形例5)
一変形例として、実店舗に代えて、個人所有の携帯端末上で上述したようなアイテム提案を行うようにしてもよい。
(g5: Item proposal using mobile terminal: Modification example 5)
As a variation, the above-described item suggestion may be made on a personally owned mobile terminal instead of at a physical store.

図31は、本実施の形態の変形例5に従う服飾提案システム1Bの使用例を示す模式図である。図31を参照して、携帯端末500のアプリケーションをインストールすることで、表示端末100と同様の機能を携帯端末500上で実現できる。ネットユーザは、携帯端末500でアプリケーションを実行するとともに、携帯端末500に搭載されているカメラを用いて自身を撮像しつつ、希望するカテゴリを発声することで、上述したような服飾の提案を受けることができる。 FIG. 31 is a schematic diagram showing an example of use of the clothing suggestion system 1B according to the fifth modification of the present embodiment. Referring to FIG. 31, by installing an application on mobile terminal 500, the same functions as display terminal 100 can be realized on mobile terminal 500. The net user executes an application on the mobile terminal 500, takes an image of himself using the camera installed in the mobile terminal 500, and speaks the desired category, thereby receiving the above-mentioned clothing suggestions. be able to.

携帯端末500で本実施の形態に従うアイテム推定処理を実現するための実装としては、任意の形態を採用できる。 Any implementation may be adopted to implement the item estimation process according to this embodiment on mobile terminal 500.

図32は、本実施の形態の変形例5に従う服飾提案システムの実装例を示す模式図である。 FIG. 32 is a schematic diagram showing an implementation example of the clothing suggestion system according to the fifth modification of the present embodiment.

図32(a)は、携帯端末500単体でアイテム推定処理を実現する実装例を示す。図32(a)に示すように、サーバ装置400からアプリケーション510を携帯端末500にインストールする。アプリケーション510は、提案アイテム推定機能512と、表示制御機能514と、クーポン発行制御機能516とを有している。提案アイテム推定機能512、表示制御機能514およびクーポン発行制御機能516は、表示端末100の提案アイテム推定機能140、表示制御機能150およびクーポン発行制御機能160(いずれも図10参照)と実質的に同一の処理を実行する。 FIG. 32(a) shows an implementation example in which the item estimation process is implemented by the mobile terminal 500 alone. As shown in FIG. 32(a), an application 510 is installed from the server device 400 onto the mobile terminal 500. The application 510 has a suggested item estimation function 512, a display control function 514, and a coupon issuance control function 516. The suggested item estimation function 512, display control function 514, and coupon issuance control function 516 are substantially the same as the suggested item estimation function 140, display control function 150, and coupon issuance control function 160 of the display terminal 100 (all see FIG. 10). Execute the process.

図32(a)に示す実装例においては、学習済モデル518(表示端末100に配置される学習済モデル116と実質的に同一)が携帯端末500に配置されるので、サーバ装置400との通信が行えない場合であっても、アイテム推定処理を実行できる。 In the implementation example shown in FIG. 32A, a trained model 518 (substantially the same as the trained model 116 located in the display terminal 100) is located in the mobile terminal 500, so communication with the server device 400 is Even if it cannot be performed, item estimation processing can be performed.

図32(b)は、サーバ装置400と携帯端末500とが連携してアイテム推定処理を実現する実装例を示す。図32(b)に示すように、サーバ装置400からアプリケーション520を携帯端末500にインストールする。アプリケーション520は、特徴量生成機能522および表示機能524を有している。特徴量生成機能522は、ネットユーザを撮像することで得られる撮像画像から顔領域特徴量1410および体領域特徴量1420を抽出するとともに、ネットユーザが発した収集音声138から音声特徴量1430を生成して、サーバ装置400へ送信する。 FIG. 32(b) shows an implementation example in which the server device 400 and the mobile terminal 500 cooperate to realize item estimation processing. As shown in FIG. 32(b), an application 520 is installed on the mobile terminal 500 from the server device 400. The application 520 has a feature generation function 522 and a display function 524. The feature amount generation function 522 extracts a face area feature amount 1410 and a body area feature amount 1420 from a captured image obtained by capturing an image of a net user, and also generates a voice feature amount 1430 from the collected voice 138 uttered by the net user. and transmits it to the server device 400.

表示機能524は、サーバ装置400からの表示内容を携帯端末500のディスプレイに出力する。 The display function 524 outputs the display content from the server device 400 to the display of the mobile terminal 500.

一方、サーバ装置400は、提案アイテム推定機能412と、表示制御機能414と、クーポン発行制御機能416とを有している。提案アイテム推定機能412は、表示端末100の提案アイテム推定機能140(図11参照)において特徴量を抽出する機能を除いた部分に対応する。表示制御機能414およびクーポン発行制御機能416は、表示端末100の表示制御機能150およびクーポン発行制御機能160(いずれも図10参照)と実質的に同一の処理を実行する。 On the other hand, the server device 400 has a suggested item estimation function 412, a display control function 414, and a coupon issuance control function 416. The suggested item estimation function 412 corresponds to the part of the suggested item estimation function 140 (see FIG. 11) of the display terminal 100 excluding the function of extracting feature amounts. The display control function 414 and the coupon issuance control function 416 execute substantially the same processing as the display control function 150 and the coupon issuance control function 160 (both see FIG. 10) of the display terminal 100.

図32(b)に示す実装例においては、学習済モデル518(表示端末100に配置される学習済モデル116と実質的に同一)がサーバ装置400に配置されるので、サーバ装置400において学習済モデル518の適宜更新などが可能になる。また、携帯端末500では、特徴量のみを抽出すればよいので、携帯端末500側のリソースの消費を低減できる。 In the example of implementation shown in FIG. It becomes possible to update the model 518 as appropriate. Moreover, since the mobile terminal 500 only needs to extract the feature amount, the consumption of resources on the mobile terminal 500 side can be reduced.

図32(c)は、サーバ装置400と携帯端末500とが連携してアイテム推定処理を実現する実装例を示す。図32(c)に示すように、サーバ装置400からアプリケーション530を携帯端末500にインストールする。アプリケーション530は、画像音声送信機能532および表示機能524を有している。画像音声送信機能532は、ネットユーザを撮像することで得られる撮像画像およびネットユーザが発した収集音声138をサーバ装置400へ送信する。 FIG. 32(c) shows an implementation example in which the server device 400 and the mobile terminal 500 cooperate to realize item estimation processing. As shown in FIG. 32(c), an application 530 is installed on the mobile terminal 500 from the server device 400. The application 530 has an image/audio transmission function 532 and a display function 524. The image/audio transmission function 532 transmits to the server device 400 a captured image obtained by capturing an image of a net user and a collected voice 138 uttered by the net user.

表示機能534は、サーバ装置400からの表示内容を携帯端末500のディスプレイに出力する。 The display function 534 outputs the display content from the server device 400 to the display of the mobile terminal 500.

一方、サーバ装置400は、提案アイテム推定機能412と、表示制御機能414と、クーポン発行制御機能416とを有している。提案アイテム推定機能412、表示制御機能414およびクーポン発行制御機能416は、表示端末100の表示制御機能150およびクーポン発行制御機能160(いずれも図10参照)と実質的に同一の処理を実行する。 On the other hand, the server device 400 has a suggested item estimation function 412, a display control function 414, and a coupon issuance control function 416. The suggested item estimation function 412, the display control function 414, and the coupon issuance control function 416 execute substantially the same processing as the display control function 150 and the coupon issuance control function 160 (all see FIG. 10) of the display terminal 100.

図32(c)に示す実装例においては、学習済モデル518(表示端末100に配置される学習済モデル116と実質的に同一)がサーバ装置400に配置されるので、サーバ装置400において学習済モデル518の適宜更新などが可能になる。また、携帯端末500では、撮像画像136および収集音声138をそのままサーバ装置400へ送信すればよいので、携帯端末500側のリソースの消費を低減できる。 In the implementation example shown in FIG. It becomes possible to update the model 518 as appropriate. Furthermore, since the mobile terminal 500 only needs to transmit the captured image 136 and the collected audio 138 to the server device 400 as they are, the consumption of resources on the mobile terminal 500 side can be reduced.

(g6:その他)
上述したような変形例に限らず、本発明の趣旨に沿った各種変形が可能であることは自明である。また、上述したそれぞれの変形例については、1または複数を任意に組み合わせることもできる。
(g6:Other)
It is obvious that various modifications can be made in accordance with the spirit of the present invention, without being limited to the above-mentioned modifications. Furthermore, one or more of the above-mentioned modifications can be arbitrarily combined.

<H.まとめ>
本実施の形態に従う服飾提案システム1によれば、来店者の顔領域部分画像147から生成される顔領域特徴量1410と、来店者の体領域部分画像148から生成される体領域特徴量1420と、来店者の特定区間音声149から生成される音声特徴量1430とを入力情報として用いることで、来店者の嗜好に応じた服飾をより高い精度で提案できる。
<H. Summary>
According to the clothing proposal system 1 according to the present embodiment, the facial area feature amount 1410 generated from the facial area partial image 147 of the store visitor, and the body area feature amount 1420 generated from the store visitor's body area partial image 148. By using the audio feature amount 1430 generated from the visitor's specific section speech 149 as input information, it is possible to propose clothing according to the visitor's taste with higher accuracy.

また、本実施の形態に従う服飾提案システム1によれば、来店者から取得された入力情報(撮像画像136および収集音声138)と、当該来店者が実際に購入したアイテムとを、クーポン10に付与されたクーポンID166を用いて互いに対応付けることで学習用データセット324を生成できる。このような学習用データセット324を用いて、推定モデルを学習することで、推定精度を継続的に高めることができるとともに、新たなアイテムが追加された場合であっても、推定モデルを適合させることができる。 Further, according to the clothing suggestion system 1 according to the present embodiment, input information acquired from the store visitor (captured image 136 and collected audio 138) and items actually purchased by the store visitor are attached to the coupon 10. A learning data set 324 can be generated by associating the coupons with each other using the coupon IDs 166. By learning the estimation model using such a training data set 324, estimation accuracy can be continuously improved, and even when new items are added, the estimation model can be adapted. be able to.

さらに、本実施の形態に従う服飾提案システム1は、支払金額が割り引かれるクーポン10を発行するので、来店者はクーポン10を積極的に利用しようとするインセンティブが存在する。その結果、学習用データセット324を生成するための情報を収集する可能性を高めることができる。 Furthermore, since the clothing proposal system 1 according to the present embodiment issues a coupon 10 with which the payment amount is discounted, the store visitor has an incentive to actively use the coupon 10. As a result, the possibility of collecting information for generating the learning data set 324 can be increased.

今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims rather than the description of the embodiments described above, and it is intended that all changes within the meaning and range equivalent to the claims are included.

1,1A,1B 服飾提案システム、2 ローカルネットワーク、4 広域ネットワーク、10 クーポン、12 割引額表示、14,54,55 一覧表示、16 地図、18 識別画像、20 アイテムタグ、30,30A,30B 店舗、40 来店者、50 カテゴリ選択受付画面、52,52A アイテム提案画面、56 クーポン発行ボタン、100 表示端末、102,202,302 ディスプレイ、104,204,304 プロセッサ、106,206,306 メモリ、108,208,308 ネットワークコントローラ、110,210,310 ストレージ、112,212,312 OS、114,214,314 アプリケーションプログラム、116,326,518 学習済モデル、118 アイテム画像、120,220 プリンタ、122,222 光学ドライブ、124,224 光学ディスク、126,226 タッチ検出部、128 人感センサ、130 カメラ、132 マイクロフォン、136 撮像画像、138 収集音声、140,412,512 提案アイテム推定機能、141 領域特定モジュール、142,143 サイズ調整モジュール、144 区間特定モジュール、145 リサンプリングモジュール、147 顔領域部分画像、148 体領域部分画像、149 特定区間音声、150,150A,414,514 表示制御機能、152,152A 表示制御モジュール、154 音声解析モジュール、156 カテゴリ・アイテム対応情報、160,416,516 クーポン発行制御機能、162 クーポン発行制御モジュール、164 クーポンID生成モジュール、166 クーポンID、170 画像音声保存機能、172,252 対応付けモジュール、174 画像音声格納部、200 POS端末、216 アイテム情報、218,322 売上情報、228 光学読取機、230,330 入力部、232 決済処理部、240 会計機能、250 売上情報保存機能、254 売上情報格納部、300 管理装置、316 前処理プログラム、318 学習用プログラム、320 音声情報、324 学習用データセット、340 売上情報取得機能、350 学習用データセット生成機能、360 学習機能、362 パラメータ最適化モジュール、364 モデルパラメータ、400 サーバ装置、500 携帯端末、510,520,530 アプリケーション、522 特徴量生成機能、524,534 表示機能、532 画像音声送信機能、1400,1400A 推定モデル、1410 顔領域特徴量、1420 体領域特徴量、1430 音声特徴量、1440,1442 入力特徴量、1450 推定結果、1460,1470,1480 前処理ネットワーク、1490 中間層、1492 活性化関数、1494 Softmax関数。 1, 1A, 1B Clothing proposal system, 2 Local network, 4 Wide area network, 10 Coupon, 12 Discount amount display, 14, 54, 55 List display, 16 Map, 18 Identification image, 20 Item tag, 30, 30A, 30B Store , 40 visitor, 50 category selection reception screen, 52, 52A item suggestion screen, 56 coupon issue button, 100 display terminal, 102, 202, 302 display, 104, 204, 304 processor, 106, 206, 306 memory, 108, 208,308 Network controller, 110,210,310 Storage, 112,212,312 OS, 114,214,314 Application program, 116,326,518 Trained model, 118 Item image, 120,220 Printer, 122,222 Optics Drive, 124,224 Optical disk, 126,226 Touch detection unit, 128 Human sensor, 130 Camera, 132 Microphone, 136 Captured image, 138 Collected audio, 140,412,512 Suggested item estimation function, 141 Area identification module, 142 , 143 size adjustment module, 144 section identification module, 145 resampling module, 147 face area partial image, 148 body area partial image, 149 specific section audio, 150, 150A, 414, 514 display control function, 152, 152A display control module , 154 Voice analysis module, 156 Category/item correspondence information, 160,416,516 Coupon issue control function, 162 Coupon issue control module, 164 Coupon ID generation module, 166 Coupon ID, 170 Image and audio storage function, 172,252 Correspondence module, 174 image and audio storage unit, 200 POS terminal, 216 item information, 218, 322 sales information, 228 optical reader, 230, 330 input unit, 232 payment processing unit, 240 accounting function, 250 sales information storage function, 254 sales information storage unit, 300 management device, 316 preprocessing program, 318 learning program, 320 audio information, 324 learning dataset, 340 sales information acquisition function, 350 learning dataset generation function, 360 learning function, 362 parameter optimization module, 364 model parameter, 400 server device, 500 mobile terminal, 510, 520, 530 application, 522 feature generation function, 524, 534 display function, 532 image and audio transmission function, 1400, 1400A estimation model, 1410 face area feature , 1420 Body region feature amount, 1430 Audio feature amount, 1440, 1442 Input feature amount, 1450 Estimation result, 1460, 1470, 1480 Preprocessing network, 1490 Middle layer, 1492 Activation function, 1494 Softmax function.

Claims (7)

客の特徴を表わす特徴量に基づいて複数の服飾アイテムの中から当該客に応じた服飾アイテムを学習済みの推定モデルの推定結果に基づいて提案する情報処理装置であって、
前記客を撮像するためのカメラと、
前記カメラで前記客を撮像して得られた画像内において前記客の顔を表わす顔領域からの第1特徴量ベクトルおよび前記画像内において前記客の体を表わす体領域からの第2特徴量ベクトルを抽出するための画像特徴抽出部とを備え、
前記推定モデルに対する機械学習においては、前記複数の服飾アイテムのうち購入された服飾アイテムが前記推定モデルの出力の正解として使用され、
前記推定モデルは、前記第1特徴量ベクトルおよび前記第2特徴量ベクトルを受けて、前記複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性を、前記推定結果として出力する、情報処理装置。
An information processing device that proposes a clothing item suitable for a customer from among a plurality of clothing items based on a feature amount representing the customer's characteristics based on an estimation result of a learned estimation model, the information processing device comprising:
a camera for capturing an image of the customer;
A first feature vector from a face region representing the customer's face in an image obtained by imaging the customer with the camera, and a second feature vector from a body region representing the customer's body in the image. and an image feature extraction unit for extracting the
In machine learning for the estimation model, a purchased clothing item among the plurality of clothing items is used as the correct answer for the output of the estimation model,
The estimation model receives the first feature vector and the second feature vector and outputs the probability that each of the plurality of clothing items is a clothing item to be proposed as the estimation result. , information processing equipment.
前記画像内において、前記顔領域と、前記体領域とを特定するための領域特定部と、
前記推定結果に基づいて、前記客に応じた服飾アイテムを表示するための表示部とをさらに備える、請求項1に記載の情報処理装置。
an area specifying unit for specifying the face area and the body area in the image;
The information processing device according to claim 1, further comprising a display unit for displaying clothing items appropriate for the customer based on the estimation result.
前記領域特定部は、前記客が身につけている服飾を表わす部分を前記体領域として特定する、請求項2に記載の情報処理装置。 The information processing device according to claim 2, wherein the area specifying unit specifies a part representing clothing worn by the customer as the body area. 客の特徴を表わす特徴量に基づいて複数の服飾アイテムの中から当該客に応じた服飾アイテムを学習済みの推定モデルの推定結果に基づいて提案する情報処理装置であって、
前記客を撮像するためのカメラと、
前記カメラで前記客を撮像して得られた画像内において前記客の顔を表わす顔領域からの第1特徴量および前記画像内において前記客の体を表わす体領域からの第2特徴量を抽出するための画像特徴抽出部と、
前記画像内において、前記顔領域と、前記体領域とを特定するための領域特定部と、
前記推定結果に基づいて、前記客に応じた服飾アイテムを表示するための表示部と、
音声を収集するためのマイクロフォンとを備え、
前記推定モデルは、前記第1特徴量および前記第2特徴量を受けて、前記複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性を、前記推定結果として出力し、
前記領域特定部は、前記客が身につけている服飾を表わす部分を前記体領域として特定し、
前記表示部は、服飾アイテムの分類を示すカテゴリのリストを表示するとともに、当該リストに表示されているカテゴリのいずれかを音声で選択することを前記客に促すメッセージを表示する、情報処理装置。
An information processing device that proposes a clothing item suitable for a customer from among a plurality of clothing items based on a feature amount representing the customer's characteristics based on an estimation result of a learned estimation model, the information processing device comprising:
a camera for capturing an image of the customer;
Extracting a first feature amount from a face region representing the customer's face in an image obtained by imaging the customer with the camera and a second feature amount from a body region representing the customer's body in the image. an image feature extraction unit for
an area specifying unit for specifying the face area and the body area in the image;
a display unit for displaying clothing items according to the customer based on the estimation result;
Equipped with a microphone for collecting audio,
The estimation model receives the first feature amount and the second feature amount, and outputs each possibility that each of the plurality of clothing items is a clothing item to be proposed as the estimation result;
The area specifying unit specifies a part representing clothing worn by the customer as the body area,
The display unit displays a list of categories indicating classifications of clothing items, and displays a message prompting the customer to select one of the categories displayed in the list by voice.
前記複数の服飾アイテムの各々は、予め定められた複数のカテゴリのいずれかに属しており、
前記情報処理装置は、前記客が発話した音声に基づいて、前記複数のカテゴリの中から、前記客によって選択されたカテゴリを特定するための音声解析部をさらに備え、
前記表示部は、前記推定結果に基づいて表示される服飾アイテムのうち、前記音声解析部により特定されたカテゴリに属する服飾アイテムと、当該特定されたカテゴリに属さない服飾アイテムとを異なる表示態様で表示する、請求項4に記載の情報処理装置。
Each of the plurality of clothing items belongs to one of a plurality of predetermined categories,
The information processing device further includes a voice analysis unit for identifying a category selected by the customer from among the plurality of categories based on the voice uttered by the customer,
The display section displays, among the clothing items displayed based on the estimation results, clothing items that belong to the category specified by the voice analysis section and clothing items that do not belong to the specified category in different display modes. The information processing device according to claim 4, which displays the information.
情報処理システムであって、
客の特徴を表わす特徴量を学習済の推定モデルに入力して、複数の服飾アイテムの中から当該客に応じた服飾アイテムを前記推定モデルの推定結果に基づいて提案する情報処理装置と、
前記推定モデルを生成するための学習装置とを備え、
前記情報処理装置は、
前記客を撮像するためのカメラと、
前記カメラで前記客を撮像して得られた入力画像内において前記客の顔を表わす顔領域からの第1特徴量ベクトルおよび前記入力画像内において前記客の体を表わす体領域からの第2特徴量ベクトルを抽出するための画像特徴抽出部とを含み、
前記推定モデルは、前記第1特徴量ベクトルおよび前記第2特徴量ベクトルを受けて、前記複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性を、前記推定結果として出力するように学習されており、
前記学習装置は、
学習用データセットを取得するための取得部を含み、前記学習用データセットは、他の客を撮像して得られた学習用画像に対して、前記複数の服飾アイテムのうち当該他の客が購入した服飾アイテムを前記推定モデルの出力の正解として関連付けた学習用データを複数含み、さらに
前記学習用画像内において前記他の客の顔を表わす顔領域からの第1学習用特徴量ベクトルおよび前記学習用画像内において前記他の客の体を表わす体領域からの第2学習用特徴量ベクトルを抽出するための画像特徴抽出部と、
前記学習用データから抽出された、前記第1学習用特徴量ベクトルおよび前記第2学習用特徴量ベクトルを前記推定モデルに入力して出力される推定結果が、当該学習用データにラベル付けされている服飾アイテムの購入実績に近付くように、前記推定モデルを最適化するための学習部とを含む、情報処理システム。
An information processing system,
an information processing device that inputs feature quantities representing characteristics of a customer into a learned estimation model and proposes a clothing item suitable for the customer from among a plurality of clothing items based on the estimation result of the estimation model;
and a learning device for generating the estimated model,
The information processing device includes:
a camera for capturing an image of the customer;
A first feature vector from a face region representing the customer's face in an input image obtained by imaging the customer with the camera, and a second feature vector from a body region representing the customer's body in the input image. an image feature extraction unit for extracting the quantity vector;
The estimation model receives the first feature vector and the second feature vector and outputs the probability that each of the plurality of clothing items is a clothing item to be proposed as the estimation result. It is learned that
The learning device includes:
The learning data set includes an acquisition unit for acquiring a learning data set, and the learning data set includes a learning image obtained by capturing images of other customers. A first learning feature vector from a face region representing the other customer's face in the learning image, and a first learning feature vector from a face region representing the other customer's face in the learning image; an image feature extraction unit for extracting a second learning feature vector from a body region representing the body of the other customer in the learning image;
The first learning feature vector and the second learning feature vector extracted from the learning data are input to the estimation model and an estimation result is outputted by labeling the learning data. and a learning unit for optimizing the estimation model so as to approximate the purchase history of clothing items.
客の特徴を表わす特徴量の入力を受けて複数の服飾アイテムの中から当該客に応じた服飾アイテムの提案に用いられる推定モデルを生成するための学習装置であって、
学習用データセットを取得するための取得部を備え、前記学習用データセットは、客を撮像して得られた画像に対して、前記複数の服飾アイテムのうち当該客が購入した服飾アイテムを前記推定モデルの出力の正解として関連付けた学習用データを複数含み、さらに
前記画像内において客の顔を現す顔領域からの第1特徴量ベクトルおよび前記画像内において前記客の体を表わす体領域からの第2特徴量ベクトルを抽出するための画像特徴抽出部と、
前記学習用データから抽出された、前記第1特徴量ベクトルおよび前記第2特徴量ベクトルを前記推定モデルに入力して出力される推定結果が、当該学習用データにラベル付けされている服飾アイテムの購入実績に近付くように、前記推定モデルを最適化するための学習部とを備える、学習装置。
A learning device for generating an estimation model used to propose a clothing item suitable for the customer from among a plurality of clothing items upon receiving an input of feature values representing the customer's characteristics, the learning device comprising:
The learning data set includes an acquisition unit for acquiring a learning data set, and the learning data set selects the clothing items purchased by the customer from among the plurality of clothing items with respect to the image obtained by capturing the customer. It includes a plurality of learning data associated as correct answers of the output of the estimation model , and further includes a first feature vector from a face region representing the customer's face in the image and a first feature vector from a body region representing the customer's body in the image. an image feature extraction unit for extracting a second feature vector;
The first feature vector and the second feature vector extracted from the learning data are input to the estimation model, and the estimation result output is the estimation result of the clothing item labeled in the learning data. A learning device, comprising: a learning unit for optimizing the estimation model so as to approximate the purchase record.
JP2018237069A 2018-11-02 2018-12-19 Information processing devices, information processing systems, and learning devices Active JP7450241B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018237069A JP7450241B2 (en) 2018-11-02 2018-12-19 Information processing devices, information processing systems, and learning devices
JP2023187443A JP2024008995A (en) 2018-12-19 2023-11-01 Information processing device, information processing system, learning device, learned estimation model, and method for collecting data for learning

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018207329A JP6472925B1 (en) 2018-11-02 2018-11-02 Information processing apparatus, information processing system, learning apparatus, learned estimation model, and learning data collection method
JP2018237069A JP7450241B2 (en) 2018-11-02 2018-12-19 Information processing devices, information processing systems, and learning devices

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018207329A Division JP6472925B1 (en) 2018-11-02 2018-11-02 Information processing apparatus, information processing system, learning apparatus, learned estimation model, and learning data collection method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023187443A Division JP2024008995A (en) 2018-12-19 2023-11-01 Information processing device, information processing system, learning device, learned estimation model, and method for collecting data for learning

Publications (3)

Publication Number Publication Date
JP2020071852A JP2020071852A (en) 2020-05-07
JP2020071852A5 JP2020071852A5 (en) 2022-05-06
JP7450241B2 true JP7450241B2 (en) 2024-03-15

Family

ID=90194676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018237069A Active JP7450241B2 (en) 2018-11-02 2018-12-19 Information processing devices, information processing systems, and learning devices

Country Status (1)

Country Link
JP (1) JP7450241B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022162331A (en) * 2021-04-12 2022-10-24 株式会社Nttドコモ Information processing apparatus
JP7378743B2 (en) * 2021-05-07 2023-11-14 株式会社Next Mホールディングス Information processing system, information processing method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6069565B1 (en) 2016-05-30 2017-02-01 サイジニア株式会社 RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM
WO2017086108A1 (en) 2015-11-16 2017-05-26 大日本印刷株式会社 Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system
US20170308909A1 (en) 2016-04-20 2017-10-26 OA Labs LLC Systems and methods for sensor data analysis through machine learning
JP2018063484A (en) 2016-10-11 2018-04-19 凸版印刷株式会社 User's evaluation prediction system, user's evaluation prediction method and program
JP2018120527A (en) 2017-01-27 2018-08-02 株式会社リコー Image processing apparatus, image processing method, and image processing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017086108A1 (en) 2015-11-16 2017-05-26 大日本印刷株式会社 Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system
US20170308909A1 (en) 2016-04-20 2017-10-26 OA Labs LLC Systems and methods for sensor data analysis through machine learning
JP6069565B1 (en) 2016-05-30 2017-02-01 サイジニア株式会社 RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM
JP2018063484A (en) 2016-10-11 2018-04-19 凸版印刷株式会社 User's evaluation prediction system, user's evaluation prediction method and program
JP2018120527A (en) 2017-01-27 2018-08-02 株式会社リコー Image processing apparatus, image processing method, and image processing system

Also Published As

Publication number Publication date
JP2020071852A (en) 2020-05-07

Similar Documents

Publication Publication Date Title
JP6472925B1 (en) Information processing apparatus, information processing system, learning apparatus, learned estimation model, and learning data collection method
US11341515B2 (en) Systems and methods for sensor data analysis through machine learning
CN109165992A (en) A kind of intelligent shopping guide method, apparatus, system and computer storage medium
US20110016001A1 (en) Method and apparatus for recommending beauty-related products
CN110023982A (en) Select product title
JP7130991B2 (en) ADVERTISING DISPLAY SYSTEM, DISPLAY DEVICE, ADVERTISING OUTPUT DEVICE, PROGRAM AND ADVERTISING DISPLAY METHOD
US20220398621A1 (en) Wearable device that is automatically configurable between wearer facing and redemption interfaces
KR102409718B1 (en) Method and system for managing personal review shop on commerce platform connected with social network service
US11810176B2 (en) Methods and systems for anonymizing and providing access to transaction data
US20150332311A1 (en) Optimized placement of digital offers
KR102409717B1 (en) Method and apparatus for recommending selling item to seller of on-line shopping mall
WO2020098829A2 (en) Method and system for personalizing offers
JP7450241B2 (en) Information processing devices, information processing systems, and learning devices
US20220207589A1 (en) Methods and systems for providing a vehicle recommendation
KR102422408B1 (en) Method and apparatus for recommending item based on collaborative filtering neural network
JP2024008995A (en) Information processing device, information processing system, learning device, learned estimation model, and method for collecting data for learning
KR102423179B1 (en) Product sales system based on artificial intelligence
JP6907701B2 (en) Information processing equipment, information processing systems, information processing methods and programs
JP6180344B2 (en) Shopping support device and program
CN113971581A (en) Robot control method and device, terminal equipment and storage medium
KR102512371B1 (en) System for Selling Clothing Online
KR102653483B1 (en) Method of predicting price of artwork based on artificial intelligence
WO2022080160A1 (en) Information providing system, information providing method, and program
Rayavel et al. Optimizing User Satisfaction and Streamlining Operations in Online Retail Using CNN Algorithm
GB2593802A (en) Methods and systems for anonymizing and providing access to transaction data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231101

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240227

R150 Certificate of patent or registration of utility model

Ref document number: 7450241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150