JP7450241B2 - Information processing devices, information processing systems, and learning devices - Google Patents
Information processing devices, information processing systems, and learning devices Download PDFInfo
- Publication number
- JP7450241B2 JP7450241B2 JP2018237069A JP2018237069A JP7450241B2 JP 7450241 B2 JP7450241 B2 JP 7450241B2 JP 2018237069 A JP2018237069 A JP 2018237069A JP 2018237069 A JP2018237069 A JP 2018237069A JP 7450241 B2 JP7450241 B2 JP 7450241B2
- Authority
- JP
- Japan
- Prior art keywords
- customer
- learning
- clothing
- image
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 27
- 210000000746 body region Anatomy 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims 1
- 238000010801 machine learning Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 158
- 238000000034 method Methods 0.000 description 88
- 238000012545 processing Methods 0.000 description 65
- 238000010586 diagram Methods 0.000 description 56
- 238000003860 storage Methods 0.000 description 56
- 230000008569 process Effects 0.000 description 51
- 230000001815 facial effect Effects 0.000 description 27
- 230000003287 optical effect Effects 0.000 description 27
- 238000012986 modification Methods 0.000 description 23
- 230000004048 modification Effects 0.000 description 23
- 239000000284 extract Substances 0.000 description 20
- 238000012549 training Methods 0.000 description 16
- 238000005457 optimization Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 238000007781 pre-processing Methods 0.000 description 10
- 238000012952 Resampling Methods 0.000 description 9
- 238000013459 approach Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 235000019640 taste Nutrition 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
本発明は、複数の服飾アイテムの中から客に応じた服飾アイテムを提案する技術に関する。 The present invention relates to a technique for suggesting a clothing item suitable for a customer from among a plurality of clothing items.
服飾アイテムを販売する店舗においては、多くの服飾アイテムが陳列されており、購入予定者が目的の服飾アイテムを探すことが容易ではない。 In stores that sell clothing items, many clothing items are displayed, and it is not easy for prospective purchasers to find the clothing item they are looking for.
例えば、特開2017-215667号公報(特許文献1)は、来店した顧客に対し、当該顧客が所持している物や顧客が見ている販売商品に基づく推奨商品を簡単にレコメンドすることができなかったといった課題に対して、店舗に来店した顧客に対して、当該顧客が身に着けている物品や店舗内の顧客がいる位置に陳列されている販売商品を撮影した写真を用いて、当該写真に写っている物品等の所有者情報に応じた種類の推奨商品に関する商品情報を提案する構成を開示する。 For example, Japanese Patent Application Publication No. 2017-215667 (Patent Document 1) makes it possible to easily recommend recommended products to customers who visit the store based on the items the customer owns or the sales products the customer is looking at. In order to solve the problem of not having a product, we asked customers who visited the store to take photos of the items they were wearing and the products on sale displayed at the customer's location in the store. To disclose a configuration for proposing product information regarding a type of recommended product according to owner information of an article or the like shown in a photograph.
国際公開第2003/069526号公報(特許文献2)は、身体的特徴が入力されたとき、その特徴に似合うファッション内容のデータを出力する第1データベース装置と、その第1データベース装置から出力されたファッション内容のデータに基づき、そのファッション内容を提供する店舗のデータを出力する第2データベース装置とを備えているファッションアドバイジングシステムを開示する。 International Publication No. 2003/069526 (Patent Document 2) discloses a first database device that outputs data on fashion contents that match the physical characteristics when physical characteristics are input; A fashion advising system is disclosed that includes a second database device that outputs data on stores that provide fashion content based on data on fashion content.
特表2001-502090号公報(特許文献3)は、顧客によるファッションショッピングの方法に関し、具体的には、顧客に関するデータに基づいて、購入するための適切なファッションを選択するのを助ける方法を開示する。 Japanese Patent Publication No. 2001-502090 (Patent Document 3) relates to a method for fashion shopping by customers, and specifically discloses a method for helping customers select appropriate fashion items to purchase based on data about the customer. do.
特許文献1に開示される構成は、写真に写っている物品の種類と異なる商品で、例えば、色、形状、模様などのデザイン要素がその物品に合う商品、あるいは、所有者情報が第二所有者情報の場合の推奨商品は、例えば、写真に写っている物品の種類と同じ商品で、例えば、色、形状、模様などのデザイン要素がその物品に合う商品を、レコメンドするものであり、客の嗜好に応じた商品をレコメンドするようなものではない。
The configuration disclosed in
特許文献2に開示される構成は、客の身体的特徴が入力されたとき、その特徴に似合うファッション内容を決定することが主眼に置かれており、客の嗜好に応じたファッションを提供するようなものではない。
The configuration disclosed in
特許文献3に開示される構成は、バスト、ヒップ、ウエスト、腕長、身長、および正面中心の測定値を含む個人情報を取得して、購入するための衣服アイテムの選択を支援するものであり、衣服アイテムの提案には個人情報が必要となり、汎用的な運用には適さない構成である。 The configuration disclosed in Patent Document 3 acquires personal information including bust, hip, waist, arm length, height, and front-centered measurements to assist in selecting clothing items to purchase. , Personal information is required to suggest clothing items, and the configuration is not suitable for general-purpose operation.
本発明は、客の特徴を表わす特徴量に基づいて、複数の服飾アイテムの中から客に応じた服飾アイテムをより高い精度で提案する技術を提供することを目的としている。 An object of the present invention is to provide a technology that proposes a clothing item suitable for a customer from among a plurality of clothing items with higher accuracy based on feature quantities representing the customer's characteristics.
本発明のある局面によれば、客の特徴を表わす特徴量に基づいて複数の服飾アイテムの中から当該客に応じた服飾アイテムを提案する情報処理装置が提供される。情報処理装置は、客を撮像するためのカメラと、音声を収集するためのマイクロフォンと、カメラで客を撮像して得られた画像内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定するための領域特定部と、画像の顔領域から第1特徴量を抽出するとともに、画像の体領域から第2特徴量を抽出するための画像特徴抽出部と、マイクロフォンで収集された音声のうち客の発話に対応する部分の音声から第3特徴量を抽出するための音声特徴抽出部と、第1特徴量、第2特徴量および第3特徴量の入力を受けて、複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性を、推定結果として出力する学習済の推定モデルと、推定結果に基づいて、客に応じた服飾アイテムを表示するための表示部とを含む。推定モデルは、学習用データセットを用いた学習処理により生成され、学習用データセットは、他の客を撮像して得られた画像および当該他の客が発話した音声に対して、当該他の客が購入した服飾アイテムをラベル付けした学習用データを複数含む。 According to an aspect of the present invention, there is provided an information processing device that proposes a clothing item suitable for a customer from among a plurality of clothing items based on a feature quantity representing the customer's characteristics. The information processing device includes a camera for taking an image of the customer, a microphone for collecting voice, and a facial area representing the customer's face and a facial area representing the customer's body in the image obtained by taking the customer with the camera. an image feature extractor for extracting a first feature from the face region of the image and a second feature from the body region of the image; an audio feature extraction unit for extracting a third feature from a portion of the collected audio that corresponds to the customer's utterance; , a trained estimation model that outputs the probability that each of a plurality of clothing items is a clothing item that should be proposed as an estimation result, and a system that displays clothing items according to the customer based on the estimation results. and a display section. The estimation model is generated by a learning process using a training data set, and the training data set is based on images obtained by capturing images of other customers and voices uttered by the other customers. Contains multiple learning data labeled with clothing items purchased by customers.
表示部は、マイクロフォンによる音声の収集前に、服飾アイテムの分類を示すカテゴリのリストを表示するとともに、当該リストに表示されているカテゴリのいずれかを音声で選択することを客に促すメッセージを表示するようにしてもよい。 Before the voice is collected by the microphone, the display section displays a list of categories indicating the classification of clothing items, and also displays a message prompting the customer to select one of the categories displayed on the list by voice. You may also do so.
領域特定部は、客が身につけている服飾を表わす部分を体領域として特定するようにしてもよい。 The area specifying unit may specify a part representing clothing worn by the customer as the body area.
複数の服飾アイテムの各々は、予め定められた複数のカテゴリのいずれかに属していてもよい。情報処理装置は、客が発話した音声に基づいて、複数のカテゴリの中から、客によって選択されたカテゴリを特定するための音声解析部をさらに含んでいてもよい。表示部は、推定結果に基づいて表示される服飾アイテムのうち、音声解析部により特定されたカテゴリに属する服飾アイテムと、当該特定されたカテゴリに属さない服飾アイテムとを異なる表示態様で表示するようにしてもよい。 Each of the plurality of clothing items may belong to one of a plurality of predetermined categories. The information processing device may further include a voice analysis unit for identifying a category selected by the customer from among a plurality of categories based on the voice uttered by the customer. The display unit is configured to display clothing items that belong to the category specified by the voice analysis unit and clothing items that do not belong to the specified category in different display modes among the clothing items displayed based on the estimation results. You may also do so.
本発明の別の局面に従う情報処理システムは、客の特徴を表わす特徴量を学習済の推定モデルに入力して複数の服飾アイテムの中から当該客に応じた服飾アイテムを提案する情報処理装置と、推定モデルを生成するための学習装置とを含む。情報処理装置は、客を撮像するためのカメラと、音声を収集するためのマイクロフォンと、カメラで客を撮像して得られた入力画像内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定するための領域特定部と、入力画像の顔領域から第1特徴量を抽出するとともに、入力画像の体領域から第2特徴量を抽出するための画像特徴抽出部と、マイクロフォンで収集された音声のうち客の発話に対応する部分の音声から第3特徴量を抽出するための音声特徴抽出部とを含む。推定モデルは、第1特徴量、第2特徴量および第3特徴量の入力を受けて、複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性を、推定結果として出力するように学習されている。情報処理装置は、推定結果に基づいて、客に応じた服飾アイテムを表示するための表示部をさらに含む。学習装置は、学習用データセットを取得するための取得部を含む。学習用データセットは、他の客を撮像して得られた学習用画像および当該他の客が発話した学習用音声に対して、当該他の客が購入した服飾アイテムをラベル付けした学習用データを複数含む。学習装置は、さらに、学習用画像内において、他の客の顔を表わす顔領域と、他の客の体を表わす体領域とを特定するための領域特定部と、学習用画像の顔領域から第1学習用特徴量を抽出するとともに、学習用画像の体領域から第2学習用特徴量を抽出するための画像特徴抽出部と、学習用音声のうち他の客の発話に対応する部分の音声から第3学習用特徴量を抽出するための音声特徴抽出部と、学習用データから抽出された、第1学習用特徴量、第2学習用特徴量および第3学習用特徴量を推定モデルに入力して出力される推定結果が、当該学習用データにラベル付けされている服飾アイテムの購入実績に近付くように、推定モデルを最適化するための学習部とを含む。 An information processing system according to another aspect of the present invention is an information processing device that inputs feature quantities representing characteristics of a customer into a trained estimation model to suggest clothing items suitable for the customer from among a plurality of clothing items. , and a learning device for generating an estimated model. The information processing device includes a camera for capturing an image of the customer, a microphone for collecting voice, and a facial area representing the customer's face and a facial area representing the customer's body in the input image obtained by capturing the customer using the camera. an image feature extraction unit for extracting a first feature amount from the face region of the input image and a second feature amount from the body region of the input image; , and an audio feature extracting unit for extracting a third feature amount from a portion of the audio collected by the microphone that corresponds to the customer's utterance. The estimation model receives input of the first feature, the second feature, and the third feature, and outputs the probability that each of the plurality of clothing items is the clothing item to be proposed as an estimation result. This is how it is learned. The information processing device further includes a display unit for displaying clothing items appropriate for the customer based on the estimation result. The learning device includes an acquisition unit for acquiring a learning data set. The training data set is training data in which clothing items purchased by the other customer are labeled based on the training image obtained by imaging the other customer and the training voice uttered by the other customer. Contains multiple. The learning device further includes an area identifying unit for identifying a face area representing the face of another customer and a body area representing the body of the other customer in the learning image, and an area identifying unit for identifying a face area representing the face of another customer and a body area representing the body of the other customer in the learning image; an image feature extraction unit for extracting a first learning feature and a second learning feature from the body region of the learning image; A voice feature extraction unit for extracting a third learning feature from speech, and a model for estimating the first learning feature, second learning feature, and third learning feature extracted from the learning data. and a learning unit for optimizing the estimation model so that the estimation result inputted and output from the learning data approaches the purchase history of the clothing item labeled in the learning data.
本発明のさらに別の局面に従えば、客の特徴を表わす特徴量の入力を受けて複数の服飾アイテムの中から当該客に応じた服飾アイテムの提案に用いられる推定モデルを生成するための学習装置が提供される。学習装置は、学習用データセットを取得するための取得部を含む。学習用データセットは、客を撮像して得られた画像および当該客が発話した音声に対して、当該客が購入した服飾アイテムをラベル付けした学習用データを複数含む。学習装置は、画像内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定するための領域特定部と、画像の顔領域から第1特徴量を抽出するとともに、画像の体領域から第2特徴量を抽出するための画像特徴抽出部と、音声のうち客の発話に対応する部分の音声から第3特徴量を抽出するための音声特徴抽出部と、学習用データから抽出された、第1特徴量、第2特徴量および第3特徴量を推定モデルに入力して出力される推定結果が、当該学習用データにラベル付けされている服飾アイテムの購入実績に近付くように、推定モデルを最適化するための学習部とを含む。 According to still another aspect of the present invention, learning is performed to generate an estimation model used to propose a clothing item suitable for the customer from among a plurality of clothing items upon receiving input of feature values representing the customer's characteristics. Equipment is provided. The learning device includes an acquisition unit for acquiring a learning data set. The learning data set includes a plurality of pieces of learning data in which clothing items purchased by the customer are labeled with respect to images obtained by imaging the customer and voices uttered by the customer. The learning device includes an area identifying unit for identifying a facial area representing a customer's face and a body area representing a customer's body in the image, and a region identifying unit that extracts a first feature amount from the facial area of the image. an image feature extractor for extracting a second feature from the body region of the customer; an audio feature extractor for extracting a third feature from a portion of the voice that corresponds to the customer's utterance; and learning data. The estimation result that is output by inputting the first feature amount, second feature amount, and third feature amount extracted from the estimation model to the estimation model approaches the purchase history of the clothing item labeled in the training data. and a learning unit for optimizing the estimation model.
本発明のさらに別の局面に従えば、客の特徴を表わす特徴量の入力を受けて複数の服飾アイテムの中から当該客に応じた服飾アイテムの提案に用いられる学習済の推定モデルが提供される。推定モデルは、学習用データセットを用いた学習処理により生成される。学習用データセットは、客を撮像して得られた画像および当該客が発話した音声に対して、当該客が購入した服飾アイテムをラベル付けした学習用データを複数含む。学習処理は、学習用データの各々について、画像内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定するステップと、画像の顔領域から第1特徴量を抽出するとともに、画像の体領域から第2特徴量を抽出するステップと、音声のうち客の発話に対応する部分の音声から第3特徴量を抽出するステップと、第1特徴量、第2特徴量および第3特徴量を推定モデルに入力して出力される推定結果が、当該学習用データにラベル付けされている服飾アイテムの購入実績に近付くように、推定モデルを最適化するステップとを含む。 According to still another aspect of the present invention, there is provided a trained estimation model that is used to propose a clothing item suitable for the customer from among a plurality of clothing items upon receiving input of feature quantities representing the customer's characteristics. Ru. The estimated model is generated by a learning process using a learning data set. The learning data set includes a plurality of pieces of learning data in which clothing items purchased by the customer are labeled with respect to images obtained by imaging the customer and voices uttered by the customer. The learning process includes the steps of identifying, for each of the learning data, a facial area representing the customer's face and a body area representing the customer's body in the image, and extracting a first feature amount from the facial area of the image. In addition, a step of extracting a second feature amount from the body region of the image, a step of extracting a third feature amount from a portion of the audio corresponding to the customer's utterance, and a step of extracting the first feature amount, the second feature amount, and The method includes a step of optimizing the estimation model so that the estimation result outputted by inputting the third feature amount into the estimation model approaches the purchase history of the clothing item labeled in the learning data.
本発明のさらに別の局面に従えば、客の特徴を表わす特徴量の入力を受けて複数の服飾アイテムの中から当該客に応じた服飾アイテムの提案に用いられる推定モデルの学習に用いられる学習用データの収集方法が提供される。学習用データの収集方法は、客を撮像して得られた画像および客の発話を含む音声を取得するステップと、画像および音声から抽出される複数の特徴量を学習済の推定モデルに入力して当該客に応じた服飾アイテムの提案を生成するステップと、識別情報を生成するステップと、生成された服飾アイテムの提案および生成された識別情報を含む、服飾アイテムの購入を促す媒体を発行するステップと、生成された識別情報と画像および音声とを関連付けるステップと、媒体に含まれる識別情報および客が購入した服飾アイテムを取得するステップと、媒体から取得された識別情報と客が購入した服飾アイテムとを関連付けるステップと、識別情報をキーとして画像および音声と客が購入した服飾アイテムとを関連付けて、推定モデルの学習に用いられる学習用データとして保存するステップとを含む。 According to still another aspect of the present invention, learning is used for learning an estimation model used to propose a clothing item suitable for the customer from among a plurality of clothing items upon receiving input of feature values representing the customer's characteristics. A method for collecting data is provided. The method of collecting data for training involves the steps of capturing an image of a customer and acquiring audio including the customer's utterances, and inputting multiple features extracted from the image and audio into a trained estimation model. generating a proposal for a clothing item according to the customer; generating identification information; and publishing a medium that encourages the purchase of the clothing item, including the generated proposal for the clothing item and the generated identification information. a step of associating the generated identification information with an image and a sound; a step of obtaining the identification information included in the medium and the clothing item purchased by the customer; and the step of associating the generated identification information with the image and audio; and the step of obtaining the identification information acquired from the medium and the clothing item purchased by the customer. and a step of associating the image and voice with the clothing item purchased by the customer using identification information as a key, and storing the association as learning data used for learning the estimation model.
本発明によれば、客の特徴を表わす特徴量に基づいて、複数の服飾アイテムの中から客に応じた服飾アイテムをより高い精度で提案できる。 According to the present invention, it is possible to suggest a clothing item suitable for a customer from among a plurality of clothing items with higher accuracy based on feature amounts representing the customer's characteristics.
本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the figures are designated by the same reference numerals, and the description thereof will not be repeated.
<A.服飾提案システムの概要>
まず、本発明に係る情報処理システムの典型例として、本実施の形態に従う服飾提案システム1の概要について説明する。
<A. Overview of the clothing suggestion system>
First, as a typical example of an information processing system according to the present invention, an outline of a
本明細書において、「服飾」は、人が身につける衣服(衣類)および装身具(装飾品)の全般を意味する。「服飾アイテム」は、服飾に含まれる任意の商品を指し示す用語である。説明の簡単化のため、「服飾アイテム」を単に「アイテム」と称することもある。 As used herein, "clothing" refers to all clothing (clothing) and accessories (accessories) worn by people. "Clothing item" is a term indicating any product included in clothing. For ease of explanation, "clothing items" may be simply referred to as "items."
本明細書において、「客」は、服飾アイテムについて何らかの購入意思を有するユーザ一般を意味するものである。以下の説明においては、店舗の来店する客を「来店者」とも称す。また、携帯端末を介して本実施の形態に従うシステムを利用する客を「ネットユーザ」とも称す。 In this specification, the term "customer" refers to a general user who has some intention of purchasing clothing items. In the following explanation, customers who visit the store are also referred to as "visitors." Further, a customer who uses the system according to this embodiment via a mobile terminal is also referred to as a "net user."
図1は、本実施の形態に従う服飾提案システム1が配置される店舗の外観の一例を示す模式図である。図2および図3は、本実施の形態に従う服飾提案システム1を構成する表示端末100での処理を説明するための図である。
FIG. 1 is a schematic diagram showing an example of the appearance of a store in which a
図1に示すように、店舗30に客(以下、「来店者40」とも称す。)が入店したとする。店舗30の店内の入り口付近には、情報処理装置の一例である表示端末100が配置されている。表示端末100は、比較的大型のディスプレイ102と、ディスプレイ102に近傍に配置された人感センサ128、カメラ130およびマイクロフォン132とを含む。ディスプレイ102の下部には、プリンタ120が配置されている。
As shown in FIG. 1, it is assumed that a customer (hereinafter also referred to as "
来店者40が表示端末100に接近すると(図2(a))、人感センサ128がその接近を検知して、ディスプレイ102にはカテゴリ選択受付画面50が表示される(図2(b))。この状態において、表示端末100のカメラ130により来店者40が撮像される。すなわち、表示端末100では来店者40を示す画像(以下、「撮像画像136」とも称す。)が取得される。
When the
カテゴリ選択受付画面50には、1または複数のカテゴリがリスト表示されている。併せて、来店者40の発話を促すための、「音声でカテゴリを選択して下さい」とのメッセージが表示されている。
The category
その後、表示端末100のマイクロフォン132により音声の収集が開始され、来店者40が希望するカテゴリを示す音声(図2に示す例では、「ジャケット」)を発すると(図2(c))、ディスプレイ102にはアイテム提案画面52が出力される(図3(a))。このとき、表示端末100では来店者40が発した音声(以下、「収集音声138」とも称す。)が取得される。
Thereafter, the
このように、ディスプレイ102は、マイクロフォン132による音声の収集前に、服飾アイテムの分類を示すカテゴリのリストを表示するとともに、当該リストに表示されているカテゴリのいずれかを音声で選択することを来店者40に促すメッセージを表示する。
In this way, before the
アイテム提案画面52は、来店者40の嗜好に応じて「おすすめ」と推定された服飾アイテムの一覧表示54を含む。アイテム提案画面52に一覧表示されるアイテムは、後述するような学習済モデルを用いたアイテム推定処理の実行により得られる推定結果に基づいて決定される。このように、情報処理装置の一例である表示端末100は、客の特徴を表わす特徴量(典型的には、撮像画像136および収集音声138)に基づいて複数の服飾アイテムの中から当該客に応じた服飾アイテムを提案する。
The
アイテム提案画面52は、クーポン発行ボタン56をさらに有している。クーポン発行ボタン56の押下に応答して、プリンタ120からはクーポン10が出力される。
The
プリンタ120から出力されるクーポン10は、割引額表示12に加えて、アイテム提案画面52に含まれる一覧表示54に対応する一覧表示14と、一覧表示14に含まれる各アイテムが店舗内のいずれに位置にあるのかを示す地図16とを含む(図3(b))。
In addition to the
さらに、クーポン10は、後述するクーポンIDを示すQRコード(登録商標)などの識別画像18を含む。識別画像18が示すクーポンIDを用いることで、推定モデルの学習に用いられる学習用データセットが生成される。
Further, the
図4は、本実施の形態に従う服飾提案システム1を構成する表示端末100から出力されたクーポン10を利用する来店者40を説明するための図である。来店者40は、クーポン10に印字された内容を参考にしながら、ショッピングを楽しむことができる(図4(a))。クーポン10を提示することで割引が適用されるので、通常、来店者40は、表示端末100から出力されたクーポン10を会計時に提示する(図4(b))。
FIG. 4 is a diagram for explaining a
図5は、本実施の形態に従う服飾提案システム1における学習用データセットの生成処理を説明するための図である。図5を参照して、表示端末100において取得された撮像画像136および収集音声138と、購入されたアイテムの情報(以下、「売上情報218」とも称す。)とは、クーポン10(正確には、クーポンID166)を媒介として対応付けられる。このように、対応付けられた撮像画像136および収集音声138と売上情報218とが学習用データセットとして推定モデルの学習に用いられる。
FIG. 5 is a diagram for explaining the training data set generation process in the
このように、本実施の形態に従う服飾提案システム1においては、入店時に来店者40の嗜好に基づくアイテムの提案を行うとともに、来店者40が実際に購入したアイテムの情報を用いて、アイテムの提案を行うための推定モデルを学習することができる。
In this way, the
<B.服飾提案システムのハードウェア構成例>
次に、本実施の形態に従う服飾提案システム1のシステム構成例について説明する。先に、服飾提案システム1の全体構成例を説明した上で、服飾提案システム1に含まれる主要装置のハードウェア構成例について説明する。
<B. Hardware configuration example of clothing proposal system>
Next, an example of the system configuration of the
(b1:システム構成例)
図6は、本実施の形態に従う服飾提案システム1のシステム構成の一例を示す模式図である。図6を参照して、服飾提案システム1は、ローカルネットワーク2を介して接続された、1または複数の表示端末100と、1または複数のPOS端末200と、管理装置300とを含む。
(b1: System configuration example)
FIG. 6 is a schematic diagram showing an example of the system configuration of the
表示端末100は、典型的には店舗30の入口付近に配置されて、来店者の嗜好に応じた服飾を提案する。より具体的には、表示端末100は、来店者を撮像することで画像を取得するとともに、当該来店者が発する音声を収集する。表示端末100は、来店者の画像(以下、「撮像画像」とも称す。)および音声(以下、「収集音声」とも称す。)を学習済モデルに入力することで、当該来店者の嗜好への適合度(以下、「スコア」とも称す。)を販売しているアイテム毎に算出する。表示端末100は、上位のスコアを有するアイテムを当該来店者へ提案する。表示端末100は、来店者へ提案したアイテムが印字されたクーポンを発行することもできる。
The
表示端末100は、さらに、撮像画像および収集音声を要求に応じて管理装置300へ送信することもできる。
The
POS端末200は、来店者が購入を希望するアイテムの会計処理を実行する。POS端末200は、購入されたアイテムの情報(売上情報)を生成するとともに、要求に応じて管理装置300へ送信することもできる。
The
管理装置300は、表示端末100が利用する学習済モデルの管理および更新を担当する。より具体的には、管理装置300は、表示端末100から撮像画像および収集音声を取得するとともに、POS端末200から売上情報を取得する。そして、管理装置300は、取得した撮像画像および収集音声と取得した売上情報とから学習用データセットを生成する。管理装置300は、生成した学習用データセットを用いて、学習済モデルの学習(新規学習および追加学習の両方を含み得る。)を実行する。
The
管理装置300により生成または更新された学習済モデルは、表示端末100へ送信される。
The learned model generated or updated by the
(b2:表示端末100)
図7は、本実施の形態に従う服飾提案システム1を構成する表示端末100のハードウェア構成の一例を示す模式図である。表示端末100は、汎用コンピュータを用いて実現されてもよい。
(b2: display terminal 100)
FIG. 7 is a schematic diagram showing an example of the hardware configuration of the
図7を参照して、表示端末100は、主要なハードウェア要素として、ディスプレイ102と、プロセッサ104と、メモリ106と、ネットワークコントローラ108と、ストレージ110と、プリンタ120と、光学ドライブ122と、タッチ検出部126と、人感センサ128と、カメラ130と、マイクロフォン132とを含む。
Referring to FIG. 7, the
ディスプレイ102は、カテゴリ選択受付画面50やアイテム提案画面52などを出力する。ディスプレイ102は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイなどで構成される。
The
プロセッサ104は、後述するような各種プログラムを実行することで、表示端末100の実現に必要な処理を実行する演算主体である、プロセッサ104としては、例えば、1または複数のCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで構成される。複数のコアを有するCPUまたはGPUを用いてもよい。
The
メモリ106は、プロセッサ104がプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ106としては、例えば、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)などの揮発性メモリデバイスを用いてもよい。
The
ネットワークコントローラ108は、ローカルネットワーク2を介して、管理装置300を含む任意の情報処理装置などとの間でデータを送受信する。ネットワークコントローラ108は、例えば、イーサネット(登録商標)、無線LAN(Local Area Network)、Bluetooth(登録商標)などの任意の通信方式に対応するようにしてもよい。
The
ストレージ110は、プロセッサ104にて実行されるOS(Operating System)112、後述するような機能構成を実現するためのアプリケーションプログラム114、学習済モデル116、およびアイテム提案画面52を生成するためのアイテム画像118などを格納する。ストレージ110としては、例えば、ハードディスク、SSD(Solid State Drive)などの不揮発性メモリデバイスを用いてもよい。さらに、ストレージ110には、来店者を撮像して取得される撮像画像および当該来店者が発する音声である収集音声を格納するようにしてもよい。
The
アプリケーションプログラム114をプロセッサ104で実行する際に必要となるライブラリや機能モジュールの一部を、OS112が標準で提供するライブラリまたは機能モジュールを用いるようにしてもよい。この場合には、アプリケーションプログラム114単体では、対応する機能を実現するために必要なプログラムモジュールのすべてを含むものにはならないが、OS112の実行環境下にインストールされることで、後述するような機能構成を実現できることになる。そのため、このような一部のライブラリまたは機能モジュールを含まないプログラムであっても、本発明の技術的範囲に含まれ得る。
A part of the library or function module required when the
プリンタ120は、来店者へ提案したアイテムが印字されたクーポンを発行する。プリンタ120としては、電子写真方式、インクジェット方式および感熱紙方式などの任意の印刷方式を採用できる。
The
光学ドライブ122は、CD-ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)などの光学ディスク124に格納されているプログラムなどの情報を読み出す。光学ディスク124は、非一過的(non-transitory)な記録媒体の一例であり、任意のプログラムを不揮発的に格納した状態で流通する。光学ドライブ122が光学ディスク124からプログラムを読み出して、ストレージ110にインストールすることで、本実施の形態に従う表示端末100を構成できる。したがって、本発明の主題は、ストレージ110などにインストールされたプログラム自体、または、本実施の形態に従う機能や処理を実現するためのプログラムを格納した光学ディスク124などの記録媒体でもあり得る。
The
図7には、非一過的な記録媒体の一例として、光学ディスク124などの光学記録媒体を示すが、これに限らず、フラッシュメモリなどの半導体記録媒体、ハードディスクまたはストレージテープなどの磁気記録媒体、MO(Magneto-Optical disk)などの光磁気記録媒体を用いてもよい。
FIG. 7 shows an optical recording medium such as an
あるいは、表示端末100を実現するためのプログラムは、上述したような任意の記録媒体に格納されて流通するだけでなく、インターネットまたはイントラネットを介してサーバ装置などからダウンロードすることで配布されてもよい。
Alternatively, the program for realizing the
タッチ検出部126は、ディスプレイ102に対応付けられて配置されており、ディスプレイ102への入力操作を検知する。タッチ検出部126としては、静電容量方式、抵抗膜方式、超音波表面弾性波方式などの任意の検出方式を採用できる。
The touch detection unit 126 is arranged in association with the
人感センサ128は、赤外線などを用いて、表示端末100への来店者の接近を検知する。
The
カメラ130は、来店者を撮像するデバイスであり、ディスプレイ102の表示エリアの近傍などに配置され、ディスプレイ102に正対する来店者を視野に含むように構成される。カメラ130は、視野範囲を所定周期で連続的に撮像するようにしてもよいし、プロセッサ104などから発せられる指令に応じて撮像を行うようにしてもよい。
The
マイクロフォン132は、音声を収集するためのデバイスであり、来店者が発する音声を収集可能な、ディスプレイ102の表示エリアの近傍などに配置される。マイクロフォン132は、ディスプレイ102に正対する来店者の声のみを収集することが好ましく、そのため、先鋭な指向性を有することが好ましい。
The
図7には、汎用コンピュータ(プロセッサ104)がアプリケーションプログラム114を実行することで表示端末100を実現する構成例を示すが、表示端末100を実現するために必要な機能の全部または一部を、集積回路などのハードワイヤード回路(hard-wired circuit)を用いて実現してもよい。例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などを用いて実現してもよい。
FIG. 7 shows a configuration example in which the
(b3:POS端末200)
図8は、本実施の形態に従う服飾提案システム1を構成するPOS端末200のハードウェア構成の一例を示す模式図である。図8を参照して、POS端末200は、主要なハードウェア要素として、ディスプレイ202と、プロセッサ204と、メモリ206と、ネットワークコントローラ208と、ストレージ210と、プリンタ220と、光学ドライブ222と、タッチ検出部226と、光学読取機228と、入力部230と、決済処理部232とを含む。
(b3: POS terminal 200)
FIG. 8 is a schematic diagram showing an example of the hardware configuration of the
ディスプレイ202は、アイテムの会計処理に必要な情報などを表示する。ディスプレイ202は、例えば、LCDや有機ELディスプレイなどで構成される。
The
プロセッサ204は、後述するような各種プログラムを実行することで、POS端末200の実現に必要な処理を実行する演算主体である、プロセッサ204としては、例えば、1または複数のCPUなどで構成される。複数のコアを有するCPUを用いてもよい。
The
メモリ206は、プロセッサ204がプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ206としては、例えば、DRAMやSRAMなどの揮発性メモリデバイスを用いてもよい。
The
ネットワークコントローラ208は、ローカルネットワーク2を介して、管理装置300を含む任意の情報処理装置などとの間でデータを送受信する。ネットワークコントローラ208は、例えば、イーサネット、無線LAN、Bluetoothなどの任意の通信方式に対応するようにしてもよい。
The
ストレージ210は、プロセッサ204にて実行されるOS212、後述するような機能構成を実現するためのアプリケーションプログラム214、会計処理に必要な各アイテムの価格や属性情報などを含むアイテム情報216、および購入されたアイテムの情報である売上情報218などを格納する。ストレージ210としては、例えば、ハードディスク、SSDなどの不揮発性メモリデバイスを用いてもよい。
The
アプリケーションプログラム214をプロセッサ204で実行する際に必要となるライブラリや機能モジュールの一部を、OS212が標準で提供するライブラリまたは機能モジュールを用いるようにしてもよい。この場合には、アプリケーションプログラム214単体では、対応する機能を実現するために必要なプログラムモジュールのすべてを含むものにはならないが、OS212の実行環境下にインストールされることで、後述するような機能構成を実現できることになる。そのため、このような一部のライブラリまたは機能モジュールを含まないプログラムであっても、本発明の技術的範囲に含まれ得る。
Some of the libraries and function modules required when the
プリンタ220は、会計処理の結果など印字されたレシートを発行する。プリンタ220としては、電子写真方式、インクジェット方式および感熱紙方式などの任意の印刷方式を採用できる。
The
光学ドライブ222は、CD-ROM、DVDなどの光学ディスク224に格納されているプログラムなどの情報を読み出す。光学ディスク224は、非一過的な記録媒体の一例であり、任意のプログラムを不揮発的に格納した状態で流通する。光学ドライブ222が光学ディスク224からプログラムを読み出して、ストレージ210にインストールすることで、本実施の形態に従うPOS端末200を構成できる。したがって、本発明の主題は、ストレージ210などにインストールされたプログラム自体、または、本実施の形態に従う機能や処理を実現するためのプログラムを格納した光学ディスク224などの記録媒体でもあり得る。
The
図8には、非一過的な記録媒体の一例として、光学ディスク224などの光学記録媒体を示すが、これに限らず、フラッシュメモリなどの半導体記録媒体、ハードディスクまたはストレージテープなどの磁気記録媒体、MOなどの光磁気記録媒体を用いてもよい。
Although FIG. 8 shows an optical recording medium such as an
あるいは、POS端末200を実現するためのプログラムは、上述したような任意の記録媒体に格納されて流通するだけでなく、インターネットまたはイントラネットを介してサーバ装置などからダウンロードすることで配布されてもよい。
Alternatively, the program for implementing the
タッチ検出部226は、ディスプレイ202に対応付けられて配置されており、ディスプレイ202への入力操作を検知する。タッチ検出部226としては、静電容量方式、抵抗膜方式、超音波表面弾性波方式などの任意の検出方式を採用できる。
The touch detection unit 226 is arranged in association with the
光学読取機228は、アイテムに付されているアイテムタグの情報やクーポンに含まれるQRコードなどを光学的に読み取る。光学読取機228としては、レーザスキャン方式やイメージセンシング方式などの任意の検出方式を採用できる。
The
入力部230は、金額は品種などの入力操作を受け付ける。入力部230としては、例えば、レジキー、キーボード、マウス、タッチパネル、ペンなどを用いてもよい。
The
決済処理部232は、現金決済に必要な機構、ならびに、クレジットカードなどの電子的決済に必要な機構を含む。より具体的には、決済処理部232は、現金決済に関して、紙幣や硬貨を格納するための現金格納部および売上額を管理する売上管理部などを含む。決済処理部232は、電子決済に関して、クレジットカードに格納された情報を読み取って決済センタなどとの間で決済情報を遣り取りする機構などを含む。
The
図8には、汎用コンピュータ(プロセッサ204)がアプリケーションプログラム214を実行することでPOS端末200を実現する構成例を示すが、POS端末200を実現するために必要な機能の全部または一部を、集積回路などのハードワイヤード回路を用いて実現してもよい。例えば、ASICやFPGAなどを用いて実現してもよい。
FIG. 8 shows a configuration example in which a general-purpose computer (processor 204) executes an
(b4:管理装置300)
図9は、本実施の形態に従う服飾提案システム1を構成する管理装置300のハードウェア構成の一例を示す模式図である。図9を参照して、管理装置300は、主要なハードウェア要素として、ディスプレイ302と、プロセッサ304と、メモリ306と、ネットワークコントローラ308と、ストレージ310と、入力部330とを含む。
(b4: management device 300)
FIG. 9 is a schematic diagram showing an example of the hardware configuration of the
ディスプレイ302は、管理装置300での処理に必要な情報を表示する。ディスプレイ302は、例えば、LCDや有機ELディスプレイなどで構成される。
The
プロセッサ304は、後述するような各種プログラムを実行することで、管理装置300の実現に必要な処理を実行する演算主体である、プロセッサ304としては、例えば、1または複数のCPUやGPUなどで構成される。複数のコアを有するCPUまたはGPUを用いてもよい。管理装置300においては、学習済モデルを生成するための学習処理に適したGPUなどを採用することが好ましい。
The
メモリ306は、プロセッサ304がプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ306としては、例えば、DRAMやSRAMなどの揮発性メモリデバイスを用いてもよい。
The
ネットワークコントローラ308は、ローカルネットワーク2を介して、表示端末100およびPOS端末200を含む任意の情報処理装置などとの間でデータを送受信する。ネットワークコントローラ308は、例えば、イーサネット、無線LAN、Bluetoothなどの任意の通信方式に対応するようにしてもよい。
The
ストレージ310は、プロセッサ304にて実行されるOS312、後述するような機能構成を実現するためのアプリケーションプログラム314、画像/音声情報320および売上情報322から学習用データセット324を生成するための前処理プログラム316、ならびに、学習用データセット324を用いて学習済モデル326を生成するための学習用プログラム318などを格納する。
The
画像/音声情報320は、表示端末100から取得される撮像画像136および収集音声138からなる。売上情報322は、POS端末200から取得された売上情報218からなる。画像/音声情報320および売上情報322の取得処理については、後に詳述する。
The image/
学習用データセット324は、画像/音声情報320に売上情報322をラベル(あるいは、タグ)として付与した訓練データセットである。学習済モデル326は、学習用データセット324を用いて学習処理を実行することで得られる推定モデルである。
The learning
ストレージ310としては、例えば、ハードディスク、SSDなどの不揮発性メモリデバイスを用いてもよい。
As the
アプリケーションプログラム314、前処理プログラム316および学習用プログラム318をプロセッサ304で実行する際に必要となるライブラリや機能モジュールの一部を、OS312が標準で提供するライブラリまたは機能モジュールを用いるようにしてもよい。この場合には、アプリケーションプログラム314、前処理プログラム316および学習用プログラム318の各単体では、対応する機能を実現するために必要なプログラムモジュールのすべてを含むものにはならないが、OS312の実行環境下にインストールされることで、後述するような機能構成を実現できることになる。そのため、このような一部のライブラリまたは機能モジュールを含まないプログラムであっても、本発明の技術的範囲に含まれ得る。
Some of the libraries and function modules required when the
アプリケーションプログラム314、前処理プログラム316および学習用プログラム318は、光学ディスクなどの光学記録媒体、フラッシュメモリなどの半導体記録媒体、ハードディスクまたはストレージテープなどの磁気記録媒体、ならびにMOなどの光磁気記録媒体といった非一過的な記録媒体に格納されて流通し、ストレージ310にインストールされてもよい。したがって、本発明の主題は、ストレージ310などにインストールされたプログラム自体、または、本実施の形態に従う機能や処理を実現するためのプログラムを格納した記録媒体でもあり得る。
The
あるいは、管理装置300を実現するためのプログラムは、上述したような任意の記録媒体に格納されて流通するだけでなく、インターネットまたはイントラネットを介してサーバ装置などからダウンロードすることで配布されてもよい。
Alternatively, the program for realizing the
入力部330は、各種の入力操作を受け付ける。入力部330としては、例えば、キーボード、マウス、タッチパネル、ペンなどを用いてもよい。
図9には、汎用コンピュータ(プロセッサ304)がアプリケーションプログラム314、前処理プログラム316および学習用プログラム318を実行することで管理装置300を実現する構成例を示すが、管理装置300を実現するために必要な機能の全部または一部を、集積回路などのハードワイヤード回路を用いて実現してもよい。例えば、ASICやFPGAなどを用いて実現してもよい。
FIG. 9 shows a configuration example in which a general-purpose computer (processor 304) executes an
(b5:統合型構成/クラウド構成)
図6~図9には、典型例として、表示端末100、POS端末200および管理装置300の各々が担当する機能を実現するためにプロセッサを有している構成を例示したが、これに限らず、服飾提案システム1の実現に必要な機能をより少ない演算主体で実現する統合型の構成を採用してもよい。
(b5: Integrated configuration/cloud configuration)
As a typical example, FIGS. 6 to 9 illustrate a configuration in which each of the
このような統合型の構成の一例としては、表示端末100およびPOS端末200が担当する機能を管理装置300において実現するとともに、表示端末100およびPOS端末200は、いわばシンクライアントのようなユーザインターフェイスのみを提供するようにしてもよい。
As an example of such an integrated configuration, the functions handled by the
さらに、管理装置300についても、コンピュータネットワークを介して接続された複数のコンピュータが明示的または黙示的に連携して実現するようにしてもよい。複数のコンピュータが連携する場合、一部のコンピュータがいわゆるクラウドコンピュータと称される、ネットワーク上にある不特定のコンピュータであってもよい。
Furthermore, the
当業者であれば、本発明が実施される時代に応じた技術を適宜用いて、本実施の形態に従う服飾提案システム1を実現できるであろう。
Those skilled in the art will be able to realize the
<C.表示端末100の機能および処理>
次に、本実施の形態に従う服飾提案システム1を構成する表示端末100の機能および処理について説明する。服飾提案システム1において、表示端末100は、学習済モデル(推定モデル)を用いた服飾の提案という運用フェーズを担当するとともに、学習済モデルを構築するための学習フェーズの一部も担当することになる。
<C. Functions and processing of
Next, the functions and processing of the
(c1:表示端末100の機能構成)
図10は、本実施の形態に従う服飾提案システム1を構成する表示端末100の機能構成の一例を示す模式図である。図10に示す各機能は、典型的には、表示端末100のプロセッサ104がOS112およびアプリケーションプログラム114(いずれも図7参照)を実行することで実現されてもよい。
(c1: Functional configuration of display terminal 100)
FIG. 10 is a schematic diagram showing an example of the functional configuration of the
図10を参照して、表示端末100は、機能構成として、提案アイテム推定機能140と、表示制御機能150と、クーポン発行制御機能160と、画像音声保存機能170とを有している。
Referring to FIG. 10,
提案アイテム推定機能140は、カメラ130により来店者を撮像して得られた撮像画像136、および、マイクロフォン132により来店者が発した音声を収集して得られた収集音声138を入力として受け付けて、学習済モデル116に入力することで、推定結果を出力する。
The suggested
表示制御機能150は、提案アイテム推定機能140からの推定結果を受け付けて、来店者の嗜好に応じた服飾を提案する画面を生成する。
The
クーポン発行制御機能160は、表示制御機能150が来店者に提案したアイテムの情報を受け付けて、クーポンID166を生成するとともに、提案アイテムおよびクーポンID166が印字されたクーポン10を発行する。
The coupon
画像音声保存機能170は、提案アイテム推定機能140が入力として受け付けた撮像画像136および収集音声138に、クーポン発行制御機能160が生成したクーポンID166を付与して保存する。画像音声保存機能170により保存される撮像画像136および収集音声138(クーポンID166が付与されている)は、後述するように、管理装置300へ送信されて、学習済モデルを生成するための学習処理に用いられる。
The image and
(c2:提案アイテム推定機能140)
次に、図10に示す表示端末100の提案アイテム推定機能140の詳細について説明する。
(c2: Suggested item estimation function 140)
Next, details of the suggested
図11は、本実施の形態に従う服飾提案システム1を構成する表示端末100の提案アイテム推定機能140における処理内容を説明するための図である。図11を参照して、表示端末100は、提案アイテム推定機能140として、領域特定モジュール141と、サイズ調整モジュール142,143と、区間特定モジュール144と、リサンプリングモジュール145とを含む。
FIG. 11 is a diagram for explaining the processing content in the suggested
領域特定モジュール141は、撮像画像136に含まれる被写体(来店者)を解析して、顔領域および体領域を特定する。すなわち、領域特定モジュール141は、カメラ130で客を撮像して得られた画像内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定する。領域特定モジュール141は、特定した顔領域および体領域に対応する顔領域部分画像147および体領域部分画像148を撮像画像136から抽出して出力する。
The
典型的には、領域特定モジュール141は、目や鼻などの顔特徴を抽出するとともに、手足などの骨格特徴を抽出することで、顔領域および体領域を特定する。このとき、領域特定モジュール141は、客が身につけている服飾を表わす部分を体領域として特定するようにしてもよい。
Typically, the
図12は、図11に示す領域特定モジュール141による領域特定の処理を説明するための図である。図12を参照して、領域特定モジュール141は、来店者の顔を含む領域を顔領域部分画像147として抽出し、来店者の顔より下部の領域を体領域部分画像148として抽出する。
FIG. 12 is a diagram for explaining area identification processing by the
顔領域部分画像147は、来店者の性別や年齢などの属性情報を含むと考えられ、体領域部分画像148は、来店者の現在の服装に関する情報(すなわち、服飾の嗜好傾向を示す情報)を含むと考えられる。
The face area
再度図11を参照して、領域特定モジュール141が撮像画像136から抽出した顔領域部分画像147は、サイズ調整モジュール142へ出力される。同様に、領域特定モジュール141が撮像画像136から抽出した体領域部分画像148は、サイズ調整モジュール143へ出力される。
Referring again to FIG. 11, the facial area
サイズ調整モジュール142および143において、顔領域部分画像147および体領域部分画像148は、予め定められた次元をもつ特徴量(特徴量ベクトル)に変換されて推定モデル1400に与えられる。ここで、領域特定モジュール141により抽出される顔領域部分画像147および体領域部分画像148の画像サイズは変動し得るため、サイズ調整モジュール142および143は画像サイズを規格化する。
In the
より具体的には、サイズ調整モジュール142は、領域特定モジュール141からの顔領域部分画像147を予め定められた画素数の画像に調整した上で、調整後の画像を構成する各画素の画素値を顔領域特徴量1410として推定モデル1400に入力する。
More specifically, the
同様に、サイズ調整モジュール143は、領域特定モジュール141からの体領域部分画像148を予め定められた画素数の画像に調整した上で、調整後の画像を構成する各画素の画素値を体領域特徴量1420として推定モデル1400に入力する。
Similarly, the
このように、サイズ調整モジュール142,143は、顔領域部分画像147(画像の顔領域)から顔領域特徴量1410(第1特徴量)を抽出するとともに、体領域部分画像148(画像の体領域)から体領域特徴量1420(第2特徴量)を抽出する。
In this way, the
区間特定モジュール144は、収集音声138に含まれる来店者が発した音声の区間を特定して、特定区間音声149を抽出して出力する。典型的には、区間特定モジュール144は、収集音声138が示す音声の時間的変化を解析して、表示端末100の周囲にある雑音成分に対して、振幅あるいは周波数などが変化した区間を特定することで、特定区間音声149を抽出する。
The
図13は、図11に示す区間特定モジュール144による区間特定の処理を説明するための図である。図13を参照して、区間特定モジュール144は、収集音声138が示す音声の時間的変化のうち、前後の時間的変化に対して有意な変化を示す区間を来店者による発話区間であるとして特定し、特定区間音声149として抽出する。
FIG. 13 is a diagram for explaining the process of specifying a section by the
特定区間音声149は、来店者が希望するカテゴリを発話した音声であるので、希望するカテゴリを特定するための情報を含む。さらに、特定区間音声149は、来店者の現在のフィーリング(気分)を示す情報を含むと考えられる。
The
このように、区間特定モジュール144およびリサンプリングモジュール145は、マイクロフォン132で収集された音声のうち客の発話に対応する部分の音声から音声特徴量1430(第3特徴量)を抽出する。
In this manner, the
再度図11を参照して、リサンプリングモジュール145が収集音声138から抽出した特定区間音声149は、リサンプリングモジュール145へ出力される。リサンプリングモジュール145において、特定区間音声149は、予め定められた次元をもつ特徴量(特徴量ベクトル)に変換されて推定モデル1400に与えられる。ここで、区間特定モジュール144により特定される特定区間音声149の音声の時間長さは変動し得るため、リサンプリングモジュール145が音声サンプリング数を規格化する。
Referring again to FIG. 11,
より具体的には、リサンプリングモジュール145は、区間特定モジュール144からの特定区間音声149が示す音声の時間波形を予め定められたサンプル数でサンプリングすることで、各サンプリング点での振幅値を音声特徴量1430として推定モデル1400に入力する。
More specifically, the
推定モデル1400は、ネットワーク構造および対応するパラメータを規定する学習済モデル116に基づいて構築される。顔領域特徴量1410、体領域特徴量1420および音声特徴量1430が推定モデル1400に入力されることで、推定モデル1400が定義する演算処理が実行されて、推定結果1450としてアイテム毎のスコアが算出される。ここで、アイテム毎のスコアは、各服飾アイテムが提案されるべき服飾アイテムであるそれぞれの可能性を示す値である。
Estimated
推定モデル1400は、後述するような学習用データセットを用いた学習処理により生成される。後述するように、学習用データセットは、他の客を撮像して得られた画像および当該他の客が発話した音声に対して、当該他の客が購入した服飾アイテムをラベル付けした学習用データを複数含む。
The estimated
このように、学習済の推定モデルである推定モデル1400は、顔領域特徴量1410(第1特徴量)、体領域特徴量1420(第2特徴量)および音声特徴量1430(第3特徴量)の入力を受けて、複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性(スコア)を、推定結果1450として出力する。
In this way, the estimated
(c3:推定モデル1400)
図14は、図11に示す推定モデル1400のネットワーク構成例を示す模式図である。図14を参照して、推定モデル1400は、DNN(Deep Neural Network)に分類されるネットワークである。推定モデル1400は、CNN(Convolutional Neural Network)に分類される前処理ネットワーク1460,1470,1480と、中間層1490と、出力層に相当する活性化関数1492と、Softmax関数1494とを含む。
(c3: Estimated model 1400)
FIG. 14 is a schematic diagram showing an example of the network configuration of the
前処理ネットワーク1460,1470,1480は、相対的に次数の大きな顔領域特徴量1410、体領域特徴量1420および音声特徴量1430から、推定結果1450を算出するために有効な特徴量を抽出するための一種のフィルタとして機能することが予定されている。前処理ネットワーク1460,1470,1480の各々は、畳み込み層(CONV)およびプーリング層(Pooling)が交互に配置された構成を有している。なお、畳み込み層とプーリング層との数は同数でなくてもよく、また、畳み込み層の出力側にはReLU(正規化線形関数:rectified linear unit)などの活性化関数が配置される。
The
より具体的には、前処理ネットワーク1460は、顔領域特徴量1410(x11,x12,・・・,x1r)の入力を受けて、来店者の性別や年齢などの属性情報を示す内部特徴量を出力するように構築される。前処理ネットワーク1470は、体領域特徴量1420(x21,x22,・・・,x2s)の入力を受けて、来店者の現在の服装に関する情報(すなわち、服飾の嗜好傾向を示す情報)を示す内部特徴量を出力するように構築される。前処理ネットワーク1480は、音声特徴量1430(x31,x32,・・・,x3t)の入力を受けて、カテゴリを特定するための情報、および、来店者の現在のフィーリング(気分)を示す情報を示す内部特徴量を出力するように構築される。
More specifically , the preprocessing network 1460 receives input of facial area feature amounts 1410 (x 11 , Constructed to output features. The
中間層1490は、所定数の層数を有する全結合ネットワークからなり、前処理ネットワーク1460,1470,1480の各々からの出力を、各ノードについて決定される重みおよびバイアスを用いてノード毎に順次結合する。
The
中間層1490の出力側には、ReLUなどの活性化関数1492が配置され、最終的には、Softmax関数1494により確率分布に正規化された上で、推定結果1450(y1,y2,・・・,yN)が出力される。
An
後述するような学習フェーズにおいては、推定モデル1400のネットワークを構築する各エレメントのパラメータが最適化される。
In the learning phase as described below, the parameters of each element that constructs the network of
(c4:表示制御機能150およびクーポン発行制御機能160)
次に、図10に示す表示端末100の表示制御機能150およびクーポン発行制御機能160の詳細について説明する。
(c4:
Next, details of the
図15は、本実施の形態に従う服飾提案システム1を構成する表示端末100の表示制御機能150およびクーポン発行制御機能160における処理内容を説明するための図である。図15を参照して、表示端末100は、表示制御機能150として、表示制御モジュール152を含む。
FIG. 15 is a diagram for explaining processing contents in the
表示制御モジュール152は、提案アイテム推定機能140により算出される推定結果1450を受け付けて、推定結果1450において上位のスコアを有するアイテムに対応するアイテム画像118を用いてアイテム提案画面52を生成する。表示制御モジュール152は、生成したアイテム提案画面52をディスプレイ102に出力する。すなわち、ディスプレイ102は、推定結果1450に基づいて、客に応じた服飾アイテムを表示する。
The
アイテム画像118は、アイテムの識別情報に対応付けられた各アイテムの画像を含む。表示制御モジュール152は、推定結果1450に基づいて、アイテム画像118に含まれる画像のうち必要な画像を抽出する。
The
また、表示端末100は、クーポン発行制御機能160として、クーポン発行制御モジュール162と、クーポンID生成モジュール164とを含む。クーポン発行制御モジュール162は、表示制御モジュール152からの提案アイテムとクーポンID生成モジュール164からのクーポンID166とを受け付けて、それらの情報が印字されたクーポン10をプリンタから発行する。
The
クーポンID生成モジュール164は、ユニークな識別情報であるクーポンID166を任意の方法で生成する。なお、クーポンID166は、QRコードなどの形でクーポン10に印字されてもよい。この場合には、クーポンID生成モジュール164は、所定数の文字列をランダムに生成するとともに、生成された文字列に対応するQRコードを生成するようにしてもよい。後述するように、クーポンID166は、学習用データセット324を生成するためのキーとして用いられる。
Coupon
(c5:画像音声保存機能170)
次に、図10に示す表示端末100の画像音声保存機能170の詳細について説明する。
(c5: Image and audio storage function 170)
Next, details of the image and
図16は、本実施の形態に従う服飾提案システム1を構成する表示端末100の画像音声保存機能170における処理内容を説明するための図である。図16を参照して、表示端末100は、画像音声保存機能170として、対応付けモジュール172と、画像音声格納部174とを含む。
FIG. 16 is a diagram for explaining processing contents in the image and
クーポン発行制御モジュール162(図15参照)がクーポン10を発行したことに応答して、対応付けモジュール172は、発行されたクーポン10に付与されたクーポンID166を受け付けて、当該クーポン10の発行に利用された撮像画像136および収集音声138に受け付けたクーポンID166を対応付ける。対応付けモジュール172は、対応付けられたクーポンID166と、撮像画像136および収集音声138とを一体として画像音声格納部174に格納する。
In response to the coupon issuing control module 162 (see FIG. 15) issuing the
画像音声格納部174は、メモリ106あるいはストレージ110(いずれも図7参照)が提供する記憶領域の少なくとも一部を用いて実現される。画像音声格納部174には、クーポンID166、撮像画像136および収集音声138からなるデータセットの単位でデータが格納される。
The image and
(c6:処理手順)
次に、服飾提案システム1を構成する表示端末100において実行されるアイテム推定処理について説明する。
(c6: Processing procedure)
Next, the item estimation process executed in the
図17は、本実施の形態に従う服飾提案システム1を構成する表示端末100におけるアイテム推定処理の処理手順を示すフローチャートである。図17に示す各ステップは、典型的には、表示端末100のプロセッサ104がOS112およびアプリケーションプログラム114(いずれも図7参照)を実行することで実現されてもよい。
FIG. 17 is a flowchart showing the processing procedure of the item estimation process in the
図17を参照して、まず、表示端末100は、来店者を検知したか否かを判断する(ステップS100)。ステップS100においては、典型的には、人感センサ128(図7参照)からの検知結果に基づいて、来店者が存在しているか否かが判断される。来店者が検知されなければ(ステップS100においてNO)、ステップS100の処理が繰り返される。
Referring to FIG. 17, first,
来店者が検知されると(ステップS100においてYES)、表示端末100は、カテゴリ選択受付画面(図2参照)をディスプレイ102に表示する(ステップS102)。
When a visitor is detected (YES in step S100),
続いて、表示端末100は、表示端末100に正対する来店者をカメラ130により撮像することで撮像画像136を取得する(ステップS104)。併せて、表示端末100は、音声の収集を開始する(ステップS106)。そして、表示端末100は、収集される音声に基づいて、来店者の発話を検知したか否かを判断する(ステップS108)。ステップS108においては、図13に示すように、音声の時間的変化に対して有意な変化を示す区間(発話区間)が現れたか否かが判断される。来店者の発話が検知されなければ(ステップS108においてNO)、ステップS106およびS108の処理が繰り返される。このように、表示端末100は、客を撮像して得られた撮像画像136および客の発話を含む収集音声138を取得する処理を実行する。
Subsequently, the
来店者の発話が検知されると(ステップS108においてYES)、表示端末100は、撮像画像136から顔領域部分画像147および体領域部分画像148を抽出する(ステップS110)。そして、表示端末100は、抽出した顔領域部分画像147および体領域部分画像148をサイズ調整して顔領域特徴量1410および体領域特徴量1420を抽出する(ステップS112)。
When the visitor's utterance is detected (YES in step S108), the
併せて、表示端末100は、収集音声138に含まれる発話区間を特定区間音声149として抽出する(ステップS114)。そして、表示端末100は、抽出した特定区間音声149をリサンプリングして音声特徴量1430を抽出する(ステップS116)。
In addition, the
表示端末100は、ステップS112において生成した顔領域特徴量1410および体領域特徴量1420、ならびに、ステップS116において生成した音声特徴量1430を推定モデル1400に入力して推定結果1450を生成する(ステップS118)。
The
このように、表示端末100は、撮像画像136および収集音声138から抽出される複数の特徴量を学習済の推定モデル1400に入力して当該客に応じた服飾アイテムの提案を生成する処理を実行する。
In this way, the
表示端末100は、ステップS118において生成した推定結果1450においてスコアが上位のアイテムに基づいてアイテム提案画面52を生成して出力する(ステップS120)。
The
表示端末100は、クーポン発行ボタンが押下されたか否かを判断する(ステップS122)。クーポン発行ボタンが押下されなければ(ステップS122においてNO)、ステップS122の処理が繰り返される。
The
クーポン発行ボタンが押下されると(ステップS122においてYES)、表示端末100は、クーポンID166を生成するとともに、提案アイテムおよびクーポンID166が印字されたクーポン10を発行する(ステップS124)。すなわち、表示端末100は、識別情報であるクーポンID166を生成する処理を実行するとともに、媒体であるクーポン10を発行する処理を実行する。クーポン10は、生成された服飾アイテムの提案および生成されたクーポンID166(識別情報)を含むとともに、服飾アイテムの購入を促すための割引の内容が表示されている。
When the coupon issue button is pressed (YES in step S122), the
最終的に、表示端末100は、クーポンID166に対応付けて撮像画像136および収集音声138を保存する(ステップS126)。すなわち、表示端末100は、生成されたクーポンID166(識別情報)と撮像画像136および収集音声138とを関連付ける処理を実行する。
Finally, the
以上により、一人の来店者に対するアイテム推定処理は完了する。
(c7:小括)
本実施の形態に従う表示端末100は、来店者の顔領域部分画像147から生成される顔領域特徴量1410と、来店者の体領域部分画像148から生成される体領域特徴量1420と、来店者の特定区間音声149から生成される音声特徴量1430とを推定モデル1400に与えることで、来店者の嗜好に応じた服飾を提案できる。
With the above, the item estimation process for one store visitor is completed.
(c7: summary)
The
また、本実施の形態に従う表示端末100は、クーポンID166を含むクーポン10を発行することで、後述するような学習フェーズで使用される学習データセットを生成するためのプラットフォームを提供できる。
Further, by issuing the
<D.POS端末200の機能構成>
次に、本実施の形態に従う服飾提案システム1を構成するPOS端末200の機能および処理について説明する。服飾提案システム1において、POS端末200は、主として、学習済モデルを構築するための学習フェーズの一部を担当することになる。
<D. Functional configuration of POS terminal 200>
Next, the functions and processing of the
(d1:POS端末200の機能構成)
図18は、本実施の形態に従う服飾提案システム1を構成するPOS端末200の機能構成の一例を示す模式図である。図18に示す各機能は、典型的には、POS端末200のプロセッサ204がOS212およびアプリケーションプログラム214(いずれも図8参照)を実行することで実現されてもよい。
(d1: Functional configuration of POS terminal 200)
FIG. 18 is a schematic diagram showing an example of the functional configuration of the
図18を参照して、POS端末200は、機能構成として、会計機能240と、売上情報保存機能250とを有している。
Referring to FIG. 18,
会計機能240は、来店者がアイテムを購入する際の決済処理を担当する。より具体的には、会計機能240は、購入対象のアイテムに付されているアイテムタグ20の情報およびクーポンから読み取られるクーポンID166に基づいて、購入対象アイテムの金額、割引額、支払額などを算出するとともに、決済処理を実行する。会計機能240は、決済処理されたアイテムを示す売上情報218を出力する。
The
売上情報保存機能250は、会計機能240から出力される売上情報218に、クーポン10から読み取られたクーポンID166を付与して保存する。売上情報保存機能250により保存される売上情報218(クーポンID166が付与されている)は、後述するように、管理装置300へ送信されて、学習済モデルを生成するための学習処理に用いられる。
The sales
(d2:売上情報保存機能250)
次に、図18に示すPOS端末200の売上情報保存機能250の詳細について説明する。
(d2: Sales information storage function 250)
Next, details of the sales
図19は、本実施の形態に従う服飾提案システム1を構成するPOS端末200の売上情報保存機能250における処理内容を説明するための図である。図19を参照して、POS端末200は、売上情報保存機能250として、対応付けモジュール252と、売上情報格納部254とを含む。
FIG. 19 is a diagram for explaining processing contents in the sales
会計機能240(図18参照)から売上情報218およびクーポンID166が入力されたことに応答して、対応付けモジュール252は、売上情報218に係るアイテムの購入時に使用されたクーポン10に付与されていたクーポンID166を受け付けて、売上情報218と対応付ける。対応付けモジュール252は、対応付けられたクーポンID166と売上情報218とを一体として売上情報格納部254に格納する。
In response to input of the
売上情報格納部254は、メモリ106あるいはストレージ110(いずれも図7参照)が提供する記憶領域の少なくとも一部を用いて実現される。売上情報格納部254には、クーポンID166および売上情報218からなるデータセットの単位でデータが格納される。
The sales
売上情報218は、典型的には、アイテム種別(アイテム1,アイテム2,・・・,アイテムN)毎に売上個数が格納されている。
The
(d3:処理手順)
次に、服飾提案システム1を構成するPOS端末200において実行される売上管理処理について説明する。
(d3: Processing procedure)
Next, sales management processing executed in the
図20は、本実施の形態に従う服飾提案システム1を構成するPOS端末200における売上管理処理の処理手順を示すフローチャートである。図20に示す各ステップは、典型的には、POS端末200のプロセッサ204がOS212およびアプリケーションプログラム214(いずれも図8参照)を実行することで実現されてもよい。
FIG. 20 is a flowchart showing the processing procedure of sales management processing in the
図20を参照して、まず、POS端末200は、光学読取機228(図8参照)によりクーポン10が読み取られたか否かを判断する(ステップS200)。クーポン10が読み取られると(ステップS200においてYES)、POS端末200は、読み取られたクーポン10のクーポンID166を取得する(ステップS202)。一方、クーポン10が読み取られなければ(ステップS200においてNO)、ステップS202の処理はスキップされる。
Referring to FIG. 20,
続いて、POS端末200は、光学読取機228(図8参照)により購入対象のアイテムに付されているアイテムタグ20が読み取られたか否かを判断する(ステップS204)。アイテムタグ20が読み取られると(ステップS204においてYES)、POS端末200は、読み取られたアイテムタグ20のアイテム情報を売上情報218に追加する(ステップS206)。
Subsequently, the
そして、POS端末200は、アイテムタグの読み取り終了指示が与えられたか否かを判断する(ステップS208)。アイテムタグの読み取り終了指示が与えられていなければ(ステップS208においてNO)、ステップS204以下の処理が繰り返される。
Then, the
アイテムタグの読み取り終了指示が与えられると(ステップS208においてYES)、POS端末200は、クーポン10の有無および現在の売上情報218に基づいて支払額を算出する(ステップS210)。そして、POS端末200は、ステップS210において算出した支払額について決済処理を実行する(ステップS212)。
When the instruction to finish reading the item tag is given (YES in step S208), the
続いて、POS端末200は、クーポンID166が取得済であるか否かを判断する(ステップS214)。すなわち、ステップS200において、クーポン10が読み取られているか否かを判断する。
Subsequently, the
クーポンID166が取得済であれば(ステップS214においてYES)、POS端末200は、クーポンID166に対応付けて売上情報218を保存する(ステップS216)。一方、クーポンID166が取得済でなければ(ステップS214においてNO)、ステップS216の処理はスキップされる。以上により、一人の来店者に対する売上管理処理は完了する。
If the
(d4:小括)
本実施の形態に従うPOS端末200は、来店者が購入するアイテムの決済処理を実行するとともに、その際に提示されるクーポン10に付与されているクーポンID166を読み取り、購入されたアイテムと対応付けて保存する。この保存された購入されたアイテムの情報(売上情報218)は、後述するような学習フェーズで使用される学習データセットの生成に利用される。
(d4: summary)
The
<E.学習フェーズの概要>
次に、本実施の形態に従う服飾提案システム1における学習フェーズの概要について説明する。
<E. Overview of learning phase>
Next, an overview of the learning phase in the
本実施の形態に従う服飾提案システム1は、同一の来店者についての、表示端末100に保存される撮像画像136および収集音声138と、POS端末200に保存される売上情報218とを対応付けることで、学習用データセット324を生成し、生成した学習用データセット324を用いて推定モデルを学習する。
The
図21は、本実施の形態に従う服飾提案システム1における学習フェーズの概要について説明するための図である。図21を参照して、表示端末100は、アイテム推定処理の実行の際に取得した、クーポンID166が対応付けられた撮像画像136および収集音声138を管理装置300へ送信する(シーケンスSQ1)。同様に、POS端末200は、売上管理処理の実行の際に取得した、クーポンID166が対応付けられた売上情報218を管理装置300へ送信する(シーケンスSQ2)。
FIG. 21 is a diagram for explaining an overview of the learning phase in the
管理装置300は、表示端末100から送信された撮像画像136および収集音声138と、POS端末200から送信された売上情報218とを、クーポンID166をキーにして対応付けることで、学習用データセット324を生成する(シーケンスSQ3)。すなわち、シーケンスSQ3は、学習用データセット324を生成するための前処理に相当する。
The
管理装置300は、生成した学習用データセット324を用いて、推定モデルを学習または追加学習することで、学習済モデル326を生成する(シーケンスSQ4)。そして、管理装置300は、生成した学習済モデル326を表示端末100の各々に送信する(シーケンスSQ5)。表示端末100は、管理装置300から送信された学習済モデル326を学習済モデル116として保存する。すなわち、表示端末100の学習済モデル116が設定あるいは更新される。
The
図21に示すように、本実施の形態に従う服飾提案システム1においては、クーポン10に付与されたクーポンID166を用いて、表示端末100およびPOS端末200のそれぞれで取得される情報同士を結合できるので、来店者に負担を与えることなく、推定モデルの推定精度を高めるための学習用データセット324を容易に生成できる。
As shown in FIG. 21, in the
<F.管理装置300の機能構成>
次に、本実施の形態に従う服飾提案システム1を構成する管理装置300の機能および処理について説明する。服飾提案システム1において、管理装置300は、主として、学習済モデルを構築するための学習フェーズの一部を担当することになる。
<F. Functional configuration of
Next, the functions and processing of the
(f1:管理装置300の機能構成)
図22は、本実施の形態に従う服飾提案システム1を構成する管理装置300の機能構成の一例を示す模式図である。図22に示す各機能は、典型的には、管理装置300のプロセッサ304がOS312、アプリケーションプログラム314、前処理プログラム316、および学習用プログラム318(いずれも図9参照)を実行することで実現されてもよい。
(f1: Functional configuration of management device 300)
FIG. 22 is a schematic diagram showing an example of the functional configuration of the
図22を参照して、管理装置300は、機能構成として、撮像画像・収集音声・売上情報取得機能340と、学習用データセット生成機能350と、学習機能360とを有している。
Referring to FIG. 22, the
撮像画像・収集音声・売上情報取得機能340は、表示端末100に保存されている、クーポンID166が対応付けられた撮像画像136および収集音声138、ならびに、POS端末200に保存されている、クーポンID166が対応付けられた売上情報218を取得する。これらのデータは、学習用データセットとして用いられることになる。すなわち、管理装置300の撮像画像・収集音声・売上情報取得機能340は、学習用データセットを取得するための構成に相当する。
The captured image/collected audio/sales
表示端末100およびPOS端末200からのデータ取得の方法としては、例えば、表示端末100およびPOS端末200に対して何らかの指令を与えて表示端末100およびPOS端末200がそれぞれデータを送信するようにしてもよいし、管理装置300が表示端末100およびPOS端末200にアクセスしてそれぞれデータを取得するようにしてもよい。あるいは、表示端末100およびPOS端末200は、予め定められた周期毎にデータを管理装置300へ送信するようにしてもよい。
As a method for acquiring data from the
学習用データセット生成機能350は、表示端末100から取得されたクーポンID166が対応付けられた撮像画像136および収集音声138と、POS端末200から取得されたクーポンID166が対応付けられた売上情報218とから、学習用データセット324を生成する。
The learning data set
学習機能360は、学習用データセット生成機能350により生成された学習用データセット324を用いて、推定モデルを学習することで学習済モデル326を生成する。生成された学習済モデル326は、表示端末100へ送信される。
The
(f2:学習用データセット生成機能350)
次に、図22に示す管理装置300の学習用データセット生成機能350の詳細について説明する。
(f2: Learning dataset generation function 350)
Next, details of the learning data set
図23は、本実施の形態に従う服飾提案システム1を構成する管理装置300の学習用データセット生成機能350における処理内容を説明するための図である。図23を参照して、学習用データセット生成機能350に関して、管理装置300は、表示端末100から取得された、クーポンID166が対応付けられた撮像画像136および収集音声138と、POS端末200から取得された、クーポンID166が対応付けられた売上情報218とを比較して、同一のクーポンID166を有するデータ間を対応付ける。
FIG. 23 is a diagram for explaining the processing contents in the learning data set
図23には、一例として、クーポンID166として「01」,「02」,「03」がそれぞれ付与された撮像画像136と収集音声138とのデータの組、ならびに、クーポンID166として「02」,「03」,「08」がそれぞれ付与された売上情報218が示されている。これらのうち、クーポンID166が「02」および「03」が付与されたデータについては、撮像画像136、収集音声138および売上情報218のすべてが揃うことになる。これらの3種類のデータを学習用データ(入力情報と推定結果の正解値との関係)として決定できる。複数のクーポンID166について学習用データをそれぞれ生成することで、学習用データセット324を生成できる。
As an example, FIG. 23 shows a data set of a captured
このとき、後述するような学習処理に適合させるために、売上情報218がラベル(タグ)として用いられる。すなわち、学習用データセット324は、任意の客を撮像して得られた撮像画像136(学習用画像)および当該任意の客が発話した収集音声138(学習用音声)に対して、当該任意の客が購入した服飾アイテム(売上情報218)がラベル付けされている。
At this time, the
(f3:学習機能360)
次に、図22に示す管理装置300の学習機能360の詳細について説明する。
(f3: learning function 360)
Next, details of the
図24は、本実施の形態に従う服飾提案システム1を構成する管理装置300の学習機能360における処理内容を説明するための図である。図24を参照して、管理装置300は、学習機能360として、領域特定モジュール141と、サイズ調整モジュール142,143と、区間特定モジュール144と、リサンプリングモジュール145とを含む。これらのモジュールは、表示端末100が、提案アイテム推定機能140として有しているモジュールと実質的に同一である。そのため、これらのモジュールについての詳細な説明は繰り返さない。
FIG. 24 is a diagram for explaining the processing content in the
さらに、管理装置300は、学習機能360として、パラメータ最適化モジュール362を含む。パラメータ最適化モジュール362は、推定モデル1400を規定するためのモデルパラメータ364を最適化することで、学習済モデル326を生成する。
Furthermore, the
パラメータ最適化モジュール362は、学習用データセット324に含まれる撮像画像136、収集音声138および売上情報218の各組(学習用データ)を用いて、モデルパラメータ364を最適化する。
The
より具体的には、パラメータ最適化モジュール362は、学習用データセット324に含まれる各組の撮像画像136および収集音声138から、顔領域特徴量1410、体領域特徴量1420および音声特徴量1430を生成して、推定モデル1400に入力することで推定結果1450を算出する。そして、パラメータ最適化モジュール362は、推定モデル1400から出力される推定結果1450と対応する売上情報218(正解ラベル)とを比較することで誤差を算出し、算出した誤差に応じてモデルパラメータ364の値を最適化(調整)する。
More specifically, the
すなわち、パラメータ最適化モジュール362は、学習部に相当し、学習用データ(撮像画像136および収集音声138に売上情報218がラベル付けされている)から抽出された、顔領域特徴量1410(第1特徴量)、体領域特徴量1420(第2特徴量)および音声特徴量1430(第3特徴量)を推定モデル1400に入力して出力される推定結果1450が、当該学習用データにラベル付けされている服飾アイテムの購入実績(売上情報218)に近付くように、推定モデル1400を最適化する。言い換えれば、パラメータ最適化モジュール362は、学習用データに含まれる撮像画像136および収集音声138から特徴量を抽出して推定モデル1400に入力したときに算出される推定結果1450が対応する売上情報218と一致するようにモデルパラメータ364を調整する。
That is, the
同様の手順で、学習用データセット324に含まれる各学習用データ(撮像画像136、収集音声138および売上情報218)に基づいて、推定モデル1400のモデルパラメータ364を繰り返し最適化することで、学習済モデル326が生成される。
In the same procedure, the
パラメータ最適化モジュール362がモデルパラメータ364の値を最適化するにあたっては、任意の最適化アルゴリズムを用いることができる。より具体的には、最適化アルゴリズムとしては、例えば、SGD(Stochastic Gradient Descent:確率的勾配降下法)、Momentum SGD(慣性項付加SGD)、AdaGrad、RMSprop、AdaDelta、Adam(Adaptive moment estimation)などの勾配法を用いることができる。
なお、推定モデル1400から出力される推定結果1450の各要素を正規化された確率として出力する場合には、売上情報218に含まれるアイテム種別(アイテム1,アイテム2,・・・,アイテムN)毎の売上個数(図19参照)についても正規化しておくことが好ましい。
Note that when outputting each element of the
パラメータ最適化モジュール362によりモデルパラメータ364を最適化された推定モデル1400は、学習済モデル326に相当し、表示端末100へ送信される。
The estimated
(f4:処理手順)
次に、服飾提案システム1を構成する管理装置300において実行される学習処理について説明する。
(f4: processing procedure)
Next, a learning process executed in the
図25は、本実施の形態に従う服飾提案システム1を構成する管理装置300における学習処理の処理手順を示すフローチャートである。図25に示す各ステップは、典型的には、管理装置300のプロセッサ304がOS312、アプリケーションプログラム314、前処理プログラム316、および学習用プログラム318(いずれも図9参照)を実行することで実現されてもよい。
FIG. 25 is a flowchart showing the processing procedure of the learning process in the
図25を参照して、管理装置300は、表示端末100からクーポンID166が付与された撮像画像136および収集音声138を取得する(ステップS300)。併せて、管理装置300は、POS端末200からクーポンID166が付与された売上情報218を取得する(ステップS302)。すなわち、管理装置300は、媒体であるクーポン10に含まれるクーポンID166(識別情報)および客が購入した服飾アイテム(売上情報218)を取得する処理を実行する。
Referring to FIG. 25,
そして、管理装置300は、クーポンID166をキーにして、撮像画像136および収集音声138と、売上情報218とを対応付けることで、学習用データセット324を生成する(ステップS304)。すなわち、管理装置300は、媒体であるクーポン10から取得されたクーポンID166(識別情報)と客が購入した服飾アイテム(売上情報218)とを関連付ける処理を実行し、さらに、クーポンID166をキーとして撮像画像136および収集音声138と売上情報218とを関連付けて、推定モデル1400の学習に用いられる学習用データとして保存する処理を実行する。
Then, the
管理装置300は、生成した学習用データセット324のうち、1つのデータの組(学習用データ)を選択する(ステップS306)。
The
管理装置300は、選択したデータの撮像画像136から顔領域部分画像147および体領域部分画像148を抽出する(ステップS308)。そして、管理装置300は、抽出した顔領域部分画像147および体領域部分画像148をサイズ調整して顔領域特徴量1410および体領域特徴量1420を抽出する(ステップS310)。
The
このように、管理装置300は、各学習用データの撮像画像136内において、客の顔を表わす顔領域と、客の体を表わす体領域とを特定する処理を実行する。そして、管理装置300は、撮像画像136の顔領域から顔領域特徴量1410(第1特徴量)を抽出するとともに、撮像画像136の体領域から体領域特徴量1420(第2特徴量)を抽出する処理を実行する。
In this way, the
併せて、管理装置300は、選択したデータの収集音声138に含まれる発話区間を特定区間音声149として抽出する(ステップS312)。そして、管理装置300は、抽出した特定区間音声149をリサンプリングして音声特徴量1430を抽出する(ステップS314)。このように、管理装置300は、収集音声138のうち客の発話に対応する部分の音声から音声特徴量1430(第3特徴量)を抽出する処理を実行する。
In addition, the
管理装置300は、ステップS310において生成した顔領域特徴量1410および体領域特徴量1420、ならびに、ステップS314において生成した音声特徴量1430を推定モデル1400に入力して推定結果1450を生成する(ステップS316)。
The
管理装置300は、選択したデータの売上情報218とステップS316において生成した推定結果1450との誤差に基づいて推定モデルのモデルパラメータ364を最適化する(ステップS318)。
The
このように、管理装置300は、顔領域特徴量1410(第1特徴量)、体領域特徴量1420(第2特徴量)および音声特徴量1430(第3特徴量)を推定モデル1400に入力して出力される推定結果1450が、当該学習用データにラベル付けされている服飾アイテムの購入実績(売上情報218)に近付くように、推定モデル1400を最適化する処理を実行する。
In this way, the
そして、管理装置300は、ステップS304において生成した学習用データセット324のすべてを処理したか否かを判断する(ステップS320)。学習用データセット324のすべてを処理していなければ(ステップS320においてNO)、ステップS306以下の処理が繰り返される。
Then, the
学習用データセット324のすべてを処理していれば(ステップS320においてYES)、管理装置300は、現在のモデルパラメータ364により規定される学習済モデル326を各表示端末100へ送信する(ステップS322)。以上により、学習処理は完了する。
If all of the learning
(f5:小括)
本実施の形態に従う管理装置300は、表示端末100から取得される撮像画像136および収集音声138と、POS端末200から取得される売上情報218とを、クーポンID166をキーにして対応付けることで、学習用データセット324を容易に生成できる。このような学習用データセット324を用いることで、推定モデルの構築あるいは学習済モデル326の追加学習が可能となる。これによって、服飾の提案精度を高めることができる。
(f5: summary)
The
<G.変形例>
上述の実施の形態においては、典型例として、表示端末100、POS端末200および管理装置300が単一の店舗30に配置された服飾提案システム1を例示したが、これに限らず、各種の変形が可能である。以下、いくつかの変形例について説明する。
<G. Modified example>
In the above-described embodiment, the
(g1:複数店舗連携:変形例1)
一変形例として、管理装置300が複数の店舗間を管理するようにしてもよい。
(g1: Multiple store collaboration: Modification example 1)
As a variation, the
図26は、本実施の形態の変形例1に従う服飾提案システム1Aのシステム構成の一例を示す模式図である。図26を参照して、店舗30Aおよび店舗30Bの各々には、1または複数の表示端末100および1または複数のPOS端末200が配置されている。各店舗30は、広域ネットワーク4を介して同一の管理装置300と接続されている。
FIG. 26 is a schematic diagram showing an example of the system configuration of the clothing proposal system 1A according to the first modification of the present embodiment. Referring to FIG. 26, one or
管理装置300は、店舗30Aの表示端末100およびPOS端末200から必要な情報(撮像画像136、収集音声138および売上情報218)を取得するとともに、店舗30Bの表示端末100およびPOS端末200から必要な情報を取得する。そして、管理装置300は、収集した情報に基づいて、両店舗に共通の学習済モデル、あるいは、店舗毎の学習済モデルを生成する。
The
図26に示すような構成を採用することで、管理装置300の配置数を低減できるとともに、より多くの学習用データセットを取得できるので、学習済モデルの推定精度を高めることができる。
By adopting the configuration shown in FIG. 26, the number of
(g2:カテゴリ別のアイテム提案:変形例2)
上述の実施の形態に従う推定モデル1400(図11参照)には、カテゴリ選択受付画面50に表示されるカテゴリのいずれかに対応する音声特徴量1430が入力されるので、基本的には、出力される推定結果1450において、発声されたカテゴリに属するアイテムは相対的に高いスコアを有することになる。なお、複数の服飾アイテムの各々は、予め定められた複数のカテゴリ(商品カテゴリ)のいずれかに属することになる。
(g2: Item proposal by category: Modification example 2)
Since the estimation model 1400 (see FIG. 11) according to the above-described embodiment is inputted with the
但し、選択されたカテゴリに属するアイテムと同時に購入された他のカテゴリに属するアイテムが多数存在する場合には、推定結果1450には、相対的に高いスコアを有する他のカテゴリに属するアイテムが混在し得る。このような場合には、アイテム提案画面52には、選択されたカテゴリ以外のカテゴリに属するアイテムも提案されることになる。
However, if there are many items belonging to other categories that were purchased at the same time as the item belonging to the selected category, the
図27は、本実施の形態の変形例2に従う服飾提案システム1の表示端末100に表示されるアイテム提案画面を説明するための図である。図27(a)に示すように、推定結果1450に他のカテゴリに属するアイテムが相対的に高いスコアを有する場合には、アイテム提案画面52の一覧表示54には、当該他のカテゴリに属するアイテム(符号54M)が含まれることになる。
FIG. 27 is a diagram for explaining an item suggestion screen displayed on the
このような他のカテゴリに属するアイテムを含み得るアイテム提案画面52を表示するようにしてもよいが、図27(b)に示すように、選択されたカテゴリに属するアイテムと、それ以外のカテゴリに属するアイテムとを異なる表示態様で提案してもよい。
The
すなわち、図27(b)に示すアイテム提案画面52は、来店者40が音声で選択したカテゴリに属するアイテムからなる一覧表示54と、来店者40が音声で選択したカテゴリ以外のカテゴリに属するアイテムからなる一覧表示55とを含む。一覧表示55には、選択されたカテゴリとは異なるカテゴリではあるものの、過去の販売実績に基づいて、提案にふさわしいアイテムであることを示す「こちらもどうですか」といったメッセージが併せて表示される。
That is, the
図28は、本実施の形態の変形例2に従う服飾提案システム1を構成する表示端末100の表示制御機能150Aおよびクーポン発行制御機能160における処理内容を説明するための図である。図28を参照して、表示端末100は、表示制御機能150Aとして、表示制御モジュール152Aと、音声解析モジュール154と、カテゴリ・アイテム対応情報156とを有している。
FIG. 28 is a diagram for explaining the processing contents in the
音声解析モジュール154は、来店者40が発話した収集音声138を音声解析することで、来店者40が音声で選択したカテゴリを特定する。すなわち、音声解析モジュール154は、客が発話した音声に基づいて、複数のカテゴリの中から、客によって選択されたカテゴリを特定する。なお、音声解析モジュール154による音声解析方法は、公知の任意のアルゴリズムを用いることができる。音声解析モジュール154により特定されたカテゴリは、表示制御モジュール152Aへ与えられる。
The
表示制御モジュール152Aは、提案アイテム推定機能140により算出される推定結果1450を受け付けて、推定結果1450において上位のスコアを有するアイテムを特定する。表示制御モジュール152Aは、カテゴリ・アイテム対応情報156を参照して、推定結果1450において上位のスコアを有するアイテムの各々が、音声解析モジュール154により特定されたカテゴリに属するか否かを判断する。そして、表示制御モジュール152Aは、アイテム画像118を参照して、音声解析モジュール154により特定されたカテゴリに属するアイテムについては、その画像を一覧表示54に追加し、音声解析モジュール154により特定されたカテゴリ以外のカテゴリに属するアイテムについては、その画像を一覧表示55に追加することで、アイテム提案画面52Aを生成する。生成されたアイテム提案画面52Aは、ディスプレイ102に表示される。
The display control module 152A receives the
以上のような表示制御モジュール152Aでの処理が実行されることで、図27(b)に示されるようなアイテム提案画面52Aが提供される。すなわち、ディスプレイ102は、推定結果1450に基づいて表示される服飾アイテムのうち、音声解析モジュール154により特定されたカテゴリに属する服飾アイテムと、当該特定されたカテゴリに属さない服飾アイテムとを異なる表示態様で表示する。このような表示態様を採用することで、来店者40が選択したカテゴリ以外のアイテムについても購入を促すことができる。
By executing the processing in the display control module 152A as described above, an
その他の処理および機能については、図15を参照して説明した内容と実質的に同一であるので、詳細な説明は繰り返さない。 Other processes and functions are substantially the same as those described with reference to FIG. 15, so detailed descriptions will not be repeated.
(g3:ネットワーク:変形例3)
上述の実施の形態においては、顔領域特徴量1410、体領域特徴量1420および音声特徴量1430が入力される推定モデル1400を例示したが、さらに追加の情報を入力可能な推定モデルを採用してもよい。
(g3: Network: Modification 3)
In the embodiment described above, the
図29は、本実施の形態の変形例3に従う服飾提案システム1を構成する表示端末100の提案アイテム推定機能140における処理内容を説明するための図である。図29には、天気や気温といった気象情報を入力特徴量1440として受け付ける推定モデル1400Aを示す。このように、入力情報を追加することで、推定精度を高めることができる。
FIG. 29 is a diagram for explaining the processing contents in the suggested
推定モデル1400Aに入力する特徴量を追加した場合には、推定モデル1400Aの学習に用いられる学習用データセットに含める情報についても、入力される特徴量に対応させて増加させることになる。
When a feature quantity input to the
なお、図29には、典型例として、気象情報を示すが、追加的に入力する情報は、これに限らず、提案するアイテムの決定に何らかの関連性が推定される情報であれば、任意の情報を採用できる。例えば、風速や日照時間などの他の気象情報、日時や曜日といった時間情報、当該店舗の混雑具合などの情報を用いてもよい。 Note that although weather information is shown as a typical example in FIG. 29, additional information to be input is not limited to this, and any information that is presumed to have some relevance to the decision of the item to be proposed may be used. Information can be adopted. For example, other weather information such as wind speed and sunshine hours, time information such as date and time and day of the week, and information such as how crowded the store is may be used.
(g4:ネットワーク:変形例4)
上述の実施の形態においては、顔領域特徴量1410、体領域特徴量1420および音声特徴量1430が入力される推定モデル1400を例示したが、一部の情報を代替するような推定モデルを採用してもよい。
(g4: Network: Modification 4)
In the embodiment described above, the
図30は、本実施の形態の変形例4に従う服飾提案システム1を構成する表示端末100の提案アイテム推定機能140における処理内容を説明するための図である。図30には、音声特徴量1430に代えて、カテゴリを示す入力特徴量1442を入力する構成例を示す。入力特徴量1442については、来店者40が発話した収集音声138を音声解析することで、来店者40が音声で選択したカテゴリを特定することで生成してもよい。
FIG. 30 is a diagram for explaining the processing contents in the suggested
あるいは、来店者40が、表示端末100に表示されるカテゴリ選択受付画面50において、カテゴリに対応する部分をタッチすることで選択した場合には、そのタッチ操作により選択されたカテゴリを入力特徴量1442として入力するようにしてもよい。
Alternatively, if the
なお、図30には、カテゴリを示す入力特徴量1442を入力する例を示すが、上述の図28に示すような構成を採用することで、入力特徴量1442の入力も削除するようにしてもよい。
Note that although FIG. 30 shows an example in which the
(g5:携帯端末を用いたアイテム提案:変形例5)
一変形例として、実店舗に代えて、個人所有の携帯端末上で上述したようなアイテム提案を行うようにしてもよい。
(g5: Item proposal using mobile terminal: Modification example 5)
As a variation, the above-described item suggestion may be made on a personally owned mobile terminal instead of at a physical store.
図31は、本実施の形態の変形例5に従う服飾提案システム1Bの使用例を示す模式図である。図31を参照して、携帯端末500のアプリケーションをインストールすることで、表示端末100と同様の機能を携帯端末500上で実現できる。ネットユーザは、携帯端末500でアプリケーションを実行するとともに、携帯端末500に搭載されているカメラを用いて自身を撮像しつつ、希望するカテゴリを発声することで、上述したような服飾の提案を受けることができる。
FIG. 31 is a schematic diagram showing an example of use of the clothing suggestion system 1B according to the fifth modification of the present embodiment. Referring to FIG. 31, by installing an application on
携帯端末500で本実施の形態に従うアイテム推定処理を実現するための実装としては、任意の形態を採用できる。
Any implementation may be adopted to implement the item estimation process according to this embodiment on
図32は、本実施の形態の変形例5に従う服飾提案システムの実装例を示す模式図である。 FIG. 32 is a schematic diagram showing an implementation example of the clothing suggestion system according to the fifth modification of the present embodiment.
図32(a)は、携帯端末500単体でアイテム推定処理を実現する実装例を示す。図32(a)に示すように、サーバ装置400からアプリケーション510を携帯端末500にインストールする。アプリケーション510は、提案アイテム推定機能512と、表示制御機能514と、クーポン発行制御機能516とを有している。提案アイテム推定機能512、表示制御機能514およびクーポン発行制御機能516は、表示端末100の提案アイテム推定機能140、表示制御機能150およびクーポン発行制御機能160(いずれも図10参照)と実質的に同一の処理を実行する。
FIG. 32(a) shows an implementation example in which the item estimation process is implemented by the
図32(a)に示す実装例においては、学習済モデル518(表示端末100に配置される学習済モデル116と実質的に同一)が携帯端末500に配置されるので、サーバ装置400との通信が行えない場合であっても、アイテム推定処理を実行できる。
In the implementation example shown in FIG. 32A, a trained model 518 (substantially the same as the trained
図32(b)は、サーバ装置400と携帯端末500とが連携してアイテム推定処理を実現する実装例を示す。図32(b)に示すように、サーバ装置400からアプリケーション520を携帯端末500にインストールする。アプリケーション520は、特徴量生成機能522および表示機能524を有している。特徴量生成機能522は、ネットユーザを撮像することで得られる撮像画像から顔領域特徴量1410および体領域特徴量1420を抽出するとともに、ネットユーザが発した収集音声138から音声特徴量1430を生成して、サーバ装置400へ送信する。
FIG. 32(b) shows an implementation example in which the
表示機能524は、サーバ装置400からの表示内容を携帯端末500のディスプレイに出力する。
The
一方、サーバ装置400は、提案アイテム推定機能412と、表示制御機能414と、クーポン発行制御機能416とを有している。提案アイテム推定機能412は、表示端末100の提案アイテム推定機能140(図11参照)において特徴量を抽出する機能を除いた部分に対応する。表示制御機能414およびクーポン発行制御機能416は、表示端末100の表示制御機能150およびクーポン発行制御機能160(いずれも図10参照)と実質的に同一の処理を実行する。
On the other hand, the
図32(b)に示す実装例においては、学習済モデル518(表示端末100に配置される学習済モデル116と実質的に同一)がサーバ装置400に配置されるので、サーバ装置400において学習済モデル518の適宜更新などが可能になる。また、携帯端末500では、特徴量のみを抽出すればよいので、携帯端末500側のリソースの消費を低減できる。
In the example of implementation shown in FIG. It becomes possible to update the
図32(c)は、サーバ装置400と携帯端末500とが連携してアイテム推定処理を実現する実装例を示す。図32(c)に示すように、サーバ装置400からアプリケーション530を携帯端末500にインストールする。アプリケーション530は、画像音声送信機能532および表示機能524を有している。画像音声送信機能532は、ネットユーザを撮像することで得られる撮像画像およびネットユーザが発した収集音声138をサーバ装置400へ送信する。
FIG. 32(c) shows an implementation example in which the
表示機能534は、サーバ装置400からの表示内容を携帯端末500のディスプレイに出力する。
The
一方、サーバ装置400は、提案アイテム推定機能412と、表示制御機能414と、クーポン発行制御機能416とを有している。提案アイテム推定機能412、表示制御機能414およびクーポン発行制御機能416は、表示端末100の表示制御機能150およびクーポン発行制御機能160(いずれも図10参照)と実質的に同一の処理を実行する。
On the other hand, the
図32(c)に示す実装例においては、学習済モデル518(表示端末100に配置される学習済モデル116と実質的に同一)がサーバ装置400に配置されるので、サーバ装置400において学習済モデル518の適宜更新などが可能になる。また、携帯端末500では、撮像画像136および収集音声138をそのままサーバ装置400へ送信すればよいので、携帯端末500側のリソースの消費を低減できる。
In the implementation example shown in FIG. It becomes possible to update the
(g6:その他)
上述したような変形例に限らず、本発明の趣旨に沿った各種変形が可能であることは自明である。また、上述したそれぞれの変形例については、1または複数を任意に組み合わせることもできる。
(g6:Other)
It is obvious that various modifications can be made in accordance with the spirit of the present invention, without being limited to the above-mentioned modifications. Furthermore, one or more of the above-mentioned modifications can be arbitrarily combined.
<H.まとめ>
本実施の形態に従う服飾提案システム1によれば、来店者の顔領域部分画像147から生成される顔領域特徴量1410と、来店者の体領域部分画像148から生成される体領域特徴量1420と、来店者の特定区間音声149から生成される音声特徴量1430とを入力情報として用いることで、来店者の嗜好に応じた服飾をより高い精度で提案できる。
<H. Summary>
According to the
また、本実施の形態に従う服飾提案システム1によれば、来店者から取得された入力情報(撮像画像136および収集音声138)と、当該来店者が実際に購入したアイテムとを、クーポン10に付与されたクーポンID166を用いて互いに対応付けることで学習用データセット324を生成できる。このような学習用データセット324を用いて、推定モデルを学習することで、推定精度を継続的に高めることができるとともに、新たなアイテムが追加された場合であっても、推定モデルを適合させることができる。
Further, according to the
さらに、本実施の形態に従う服飾提案システム1は、支払金額が割り引かれるクーポン10を発行するので、来店者はクーポン10を積極的に利用しようとするインセンティブが存在する。その結果、学習用データセット324を生成するための情報を収集する可能性を高めることができる。
Furthermore, since the
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims rather than the description of the embodiments described above, and it is intended that all changes within the meaning and range equivalent to the claims are included.
1,1A,1B 服飾提案システム、2 ローカルネットワーク、4 広域ネットワーク、10 クーポン、12 割引額表示、14,54,55 一覧表示、16 地図、18 識別画像、20 アイテムタグ、30,30A,30B 店舗、40 来店者、50 カテゴリ選択受付画面、52,52A アイテム提案画面、56 クーポン発行ボタン、100 表示端末、102,202,302 ディスプレイ、104,204,304 プロセッサ、106,206,306 メモリ、108,208,308 ネットワークコントローラ、110,210,310 ストレージ、112,212,312 OS、114,214,314 アプリケーションプログラム、116,326,518 学習済モデル、118 アイテム画像、120,220 プリンタ、122,222 光学ドライブ、124,224 光学ディスク、126,226 タッチ検出部、128 人感センサ、130 カメラ、132 マイクロフォン、136 撮像画像、138 収集音声、140,412,512 提案アイテム推定機能、141 領域特定モジュール、142,143 サイズ調整モジュール、144 区間特定モジュール、145 リサンプリングモジュール、147 顔領域部分画像、148 体領域部分画像、149 特定区間音声、150,150A,414,514 表示制御機能、152,152A 表示制御モジュール、154 音声解析モジュール、156 カテゴリ・アイテム対応情報、160,416,516 クーポン発行制御機能、162 クーポン発行制御モジュール、164 クーポンID生成モジュール、166 クーポンID、170 画像音声保存機能、172,252 対応付けモジュール、174 画像音声格納部、200 POS端末、216 アイテム情報、218,322 売上情報、228 光学読取機、230,330 入力部、232 決済処理部、240 会計機能、250 売上情報保存機能、254 売上情報格納部、300 管理装置、316 前処理プログラム、318 学習用プログラム、320 音声情報、324 学習用データセット、340 売上情報取得機能、350 学習用データセット生成機能、360 学習機能、362 パラメータ最適化モジュール、364 モデルパラメータ、400 サーバ装置、500 携帯端末、510,520,530 アプリケーション、522 特徴量生成機能、524,534 表示機能、532 画像音声送信機能、1400,1400A 推定モデル、1410 顔領域特徴量、1420 体領域特徴量、1430 音声特徴量、1440,1442 入力特徴量、1450 推定結果、1460,1470,1480 前処理ネットワーク、1490 中間層、1492 活性化関数、1494 Softmax関数。 1, 1A, 1B Clothing proposal system, 2 Local network, 4 Wide area network, 10 Coupon, 12 Discount amount display, 14, 54, 55 List display, 16 Map, 18 Identification image, 20 Item tag, 30, 30A, 30B Store , 40 visitor, 50 category selection reception screen, 52, 52A item suggestion screen, 56 coupon issue button, 100 display terminal, 102, 202, 302 display, 104, 204, 304 processor, 106, 206, 306 memory, 108, 208,308 Network controller, 110,210,310 Storage, 112,212,312 OS, 114,214,314 Application program, 116,326,518 Trained model, 118 Item image, 120,220 Printer, 122,222 Optics Drive, 124,224 Optical disk, 126,226 Touch detection unit, 128 Human sensor, 130 Camera, 132 Microphone, 136 Captured image, 138 Collected audio, 140,412,512 Suggested item estimation function, 141 Area identification module, 142 , 143 size adjustment module, 144 section identification module, 145 resampling module, 147 face area partial image, 148 body area partial image, 149 specific section audio, 150, 150A, 414, 514 display control function, 152, 152A display control module , 154 Voice analysis module, 156 Category/item correspondence information, 160,416,516 Coupon issue control function, 162 Coupon issue control module, 164 Coupon ID generation module, 166 Coupon ID, 170 Image and audio storage function, 172,252 Correspondence module, 174 image and audio storage unit, 200 POS terminal, 216 item information, 218, 322 sales information, 228 optical reader, 230, 330 input unit, 232 payment processing unit, 240 accounting function, 250 sales information storage function, 254 sales information storage unit, 300 management device, 316 preprocessing program, 318 learning program, 320 audio information, 324 learning dataset, 340 sales information acquisition function, 350 learning dataset generation function, 360 learning function, 362 parameter optimization module, 364 model parameter, 400 server device, 500 mobile terminal, 510, 520, 530 application, 522 feature generation function, 524, 534 display function, 532 image and audio transmission function, 1400, 1400A estimation model, 1410 face area feature , 1420 Body region feature amount, 1430 Audio feature amount, 1440, 1442 Input feature amount, 1450 Estimation result, 1460, 1470, 1480 Preprocessing network, 1490 Middle layer, 1492 Activation function, 1494 Softmax function.
Claims (7)
前記客を撮像するためのカメラと、
前記カメラで前記客を撮像して得られた画像内において前記客の顔を表わす顔領域からの第1特徴量ベクトルおよび前記画像内において前記客の体を表わす体領域からの第2特徴量ベクトルを抽出するための画像特徴抽出部とを備え、
前記推定モデルに対する機械学習においては、前記複数の服飾アイテムのうち購入された服飾アイテムが前記推定モデルの出力の正解として使用され、
前記推定モデルは、前記第1特徴量ベクトルおよび前記第2特徴量ベクトルを受けて、前記複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性を、前記推定結果として出力する、情報処理装置。 An information processing device that proposes a clothing item suitable for a customer from among a plurality of clothing items based on a feature amount representing the customer's characteristics based on an estimation result of a learned estimation model, the information processing device comprising:
a camera for capturing an image of the customer;
A first feature vector from a face region representing the customer's face in an image obtained by imaging the customer with the camera, and a second feature vector from a body region representing the customer's body in the image. and an image feature extraction unit for extracting the
In machine learning for the estimation model, a purchased clothing item among the plurality of clothing items is used as the correct answer for the output of the estimation model,
The estimation model receives the first feature vector and the second feature vector and outputs the probability that each of the plurality of clothing items is a clothing item to be proposed as the estimation result. , information processing equipment.
前記推定結果に基づいて、前記客に応じた服飾アイテムを表示するための表示部とをさらに備える、請求項1に記載の情報処理装置。 an area specifying unit for specifying the face area and the body area in the image;
The information processing device according to claim 1, further comprising a display unit for displaying clothing items appropriate for the customer based on the estimation result.
前記客を撮像するためのカメラと、
前記カメラで前記客を撮像して得られた画像内において前記客の顔を表わす顔領域からの第1特徴量および前記画像内において前記客の体を表わす体領域からの第2特徴量を抽出するための画像特徴抽出部と、
前記画像内において、前記顔領域と、前記体領域とを特定するための領域特定部と、
前記推定結果に基づいて、前記客に応じた服飾アイテムを表示するための表示部と、
音声を収集するためのマイクロフォンとを備え、
前記推定モデルは、前記第1特徴量および前記第2特徴量を受けて、前記複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性を、前記推定結果として出力し、
前記領域特定部は、前記客が身につけている服飾を表わす部分を前記体領域として特定し、
前記表示部は、服飾アイテムの分類を示すカテゴリのリストを表示するとともに、当該リストに表示されているカテゴリのいずれかを音声で選択することを前記客に促すメッセージを表示する、情報処理装置。 An information processing device that proposes a clothing item suitable for a customer from among a plurality of clothing items based on a feature amount representing the customer's characteristics based on an estimation result of a learned estimation model, the information processing device comprising:
a camera for capturing an image of the customer;
Extracting a first feature amount from a face region representing the customer's face in an image obtained by imaging the customer with the camera and a second feature amount from a body region representing the customer's body in the image. an image feature extraction unit for
an area specifying unit for specifying the face area and the body area in the image;
a display unit for displaying clothing items according to the customer based on the estimation result;
Equipped with a microphone for collecting audio,
The estimation model receives the first feature amount and the second feature amount, and outputs each possibility that each of the plurality of clothing items is a clothing item to be proposed as the estimation result;
The area specifying unit specifies a part representing clothing worn by the customer as the body area,
The display unit displays a list of categories indicating classifications of clothing items, and displays a message prompting the customer to select one of the categories displayed in the list by voice.
前記情報処理装置は、前記客が発話した音声に基づいて、前記複数のカテゴリの中から、前記客によって選択されたカテゴリを特定するための音声解析部をさらに備え、
前記表示部は、前記推定結果に基づいて表示される服飾アイテムのうち、前記音声解析部により特定されたカテゴリに属する服飾アイテムと、当該特定されたカテゴリに属さない服飾アイテムとを異なる表示態様で表示する、請求項4に記載の情報処理装置。 Each of the plurality of clothing items belongs to one of a plurality of predetermined categories,
The information processing device further includes a voice analysis unit for identifying a category selected by the customer from among the plurality of categories based on the voice uttered by the customer,
The display section displays, among the clothing items displayed based on the estimation results, clothing items that belong to the category specified by the voice analysis section and clothing items that do not belong to the specified category in different display modes. The information processing device according to claim 4, which displays the information.
客の特徴を表わす特徴量を学習済の推定モデルに入力して、複数の服飾アイテムの中から当該客に応じた服飾アイテムを前記推定モデルの推定結果に基づいて提案する情報処理装置と、
前記推定モデルを生成するための学習装置とを備え、
前記情報処理装置は、
前記客を撮像するためのカメラと、
前記カメラで前記客を撮像して得られた入力画像内において前記客の顔を表わす顔領域からの第1特徴量ベクトルおよび前記入力画像内において前記客の体を表わす体領域からの第2特徴量ベクトルを抽出するための画像特徴抽出部とを含み、
前記推定モデルは、前記第1特徴量ベクトルおよび前記第2特徴量ベクトルを受けて、前記複数の服飾アイテムの各々が提案されるべき服飾アイテムであるそれぞれの可能性を、前記推定結果として出力するように学習されており、
前記学習装置は、
学習用データセットを取得するための取得部を含み、前記学習用データセットは、他の客を撮像して得られた学習用画像に対して、前記複数の服飾アイテムのうち当該他の客が購入した服飾アイテムを前記推定モデルの出力の正解として関連付けた学習用データを複数含み、さらに
前記学習用画像内において前記他の客の顔を表わす顔領域からの第1学習用特徴量ベクトルおよび前記学習用画像内において前記他の客の体を表わす体領域からの第2学習用特徴量ベクトルを抽出するための画像特徴抽出部と、
前記学習用データから抽出された、前記第1学習用特徴量ベクトルおよび前記第2学習用特徴量ベクトルを前記推定モデルに入力して出力される推定結果が、当該学習用データにラベル付けされている服飾アイテムの購入実績に近付くように、前記推定モデルを最適化するための学習部とを含む、情報処理システム。 An information processing system,
an information processing device that inputs feature quantities representing characteristics of a customer into a learned estimation model and proposes a clothing item suitable for the customer from among a plurality of clothing items based on the estimation result of the estimation model;
and a learning device for generating the estimated model,
The information processing device includes:
a camera for capturing an image of the customer;
A first feature vector from a face region representing the customer's face in an input image obtained by imaging the customer with the camera, and a second feature vector from a body region representing the customer's body in the input image. an image feature extraction unit for extracting the quantity vector;
The estimation model receives the first feature vector and the second feature vector and outputs the probability that each of the plurality of clothing items is a clothing item to be proposed as the estimation result. It is learned that
The learning device includes:
The learning data set includes an acquisition unit for acquiring a learning data set, and the learning data set includes a learning image obtained by capturing images of other customers. A first learning feature vector from a face region representing the other customer's face in the learning image, and a first learning feature vector from a face region representing the other customer's face in the learning image; an image feature extraction unit for extracting a second learning feature vector from a body region representing the body of the other customer in the learning image;
The first learning feature vector and the second learning feature vector extracted from the learning data are input to the estimation model and an estimation result is outputted by labeling the learning data. and a learning unit for optimizing the estimation model so as to approximate the purchase history of clothing items.
学習用データセットを取得するための取得部を備え、前記学習用データセットは、客を撮像して得られた画像に対して、前記複数の服飾アイテムのうち当該客が購入した服飾アイテムを前記推定モデルの出力の正解として関連付けた学習用データを複数含み、さらに
前記画像内において客の顔を現す顔領域からの第1特徴量ベクトルおよび前記画像内において前記客の体を表わす体領域からの第2特徴量ベクトルを抽出するための画像特徴抽出部と、
前記学習用データから抽出された、前記第1特徴量ベクトルおよび前記第2特徴量ベクトルを前記推定モデルに入力して出力される推定結果が、当該学習用データにラベル付けされている服飾アイテムの購入実績に近付くように、前記推定モデルを最適化するための学習部とを備える、学習装置。 A learning device for generating an estimation model used to propose a clothing item suitable for the customer from among a plurality of clothing items upon receiving an input of feature values representing the customer's characteristics, the learning device comprising:
The learning data set includes an acquisition unit for acquiring a learning data set, and the learning data set selects the clothing items purchased by the customer from among the plurality of clothing items with respect to the image obtained by capturing the customer. It includes a plurality of learning data associated as correct answers of the output of the estimation model , and further includes a first feature vector from a face region representing the customer's face in the image and a first feature vector from a body region representing the customer's body in the image. an image feature extraction unit for extracting a second feature vector;
The first feature vector and the second feature vector extracted from the learning data are input to the estimation model, and the estimation result output is the estimation result of the clothing item labeled in the learning data. A learning device, comprising: a learning unit for optimizing the estimation model so as to approximate the purchase record.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018237069A JP7450241B2 (en) | 2018-11-02 | 2018-12-19 | Information processing devices, information processing systems, and learning devices |
JP2023187443A JP2024008995A (en) | 2018-12-19 | 2023-11-01 | Information processing device, information processing system, learning device, learned estimation model, and method for collecting data for learning |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018207329A JP6472925B1 (en) | 2018-11-02 | 2018-11-02 | Information processing apparatus, information processing system, learning apparatus, learned estimation model, and learning data collection method |
JP2018237069A JP7450241B2 (en) | 2018-11-02 | 2018-12-19 | Information processing devices, information processing systems, and learning devices |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018207329A Division JP6472925B1 (en) | 2018-11-02 | 2018-11-02 | Information processing apparatus, information processing system, learning apparatus, learned estimation model, and learning data collection method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023187443A Division JP2024008995A (en) | 2018-12-19 | 2023-11-01 | Information processing device, information processing system, learning device, learned estimation model, and method for collecting data for learning |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020071852A JP2020071852A (en) | 2020-05-07 |
JP2020071852A5 JP2020071852A5 (en) | 2022-05-06 |
JP7450241B2 true JP7450241B2 (en) | 2024-03-15 |
Family
ID=90194676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018237069A Active JP7450241B2 (en) | 2018-11-02 | 2018-12-19 | Information processing devices, information processing systems, and learning devices |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7450241B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022162331A (en) * | 2021-04-12 | 2022-10-24 | 株式会社Nttドコモ | Information processing apparatus |
JP7378743B2 (en) * | 2021-05-07 | 2023-11-14 | 株式会社Next Mホールディングス | Information processing system, information processing method and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6069565B1 (en) | 2016-05-30 | 2017-02-01 | サイジニア株式会社 | RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM |
WO2017086108A1 (en) | 2015-11-16 | 2017-05-26 | 大日本印刷株式会社 | Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system |
US20170308909A1 (en) | 2016-04-20 | 2017-10-26 | OA Labs LLC | Systems and methods for sensor data analysis through machine learning |
JP2018063484A (en) | 2016-10-11 | 2018-04-19 | 凸版印刷株式会社 | User's evaluation prediction system, user's evaluation prediction method and program |
JP2018120527A (en) | 2017-01-27 | 2018-08-02 | 株式会社リコー | Image processing apparatus, image processing method, and image processing system |
-
2018
- 2018-12-19 JP JP2018237069A patent/JP7450241B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017086108A1 (en) | 2015-11-16 | 2017-05-26 | 大日本印刷株式会社 | Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system |
US20170308909A1 (en) | 2016-04-20 | 2017-10-26 | OA Labs LLC | Systems and methods for sensor data analysis through machine learning |
JP6069565B1 (en) | 2016-05-30 | 2017-02-01 | サイジニア株式会社 | RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM |
JP2018063484A (en) | 2016-10-11 | 2018-04-19 | 凸版印刷株式会社 | User's evaluation prediction system, user's evaluation prediction method and program |
JP2018120527A (en) | 2017-01-27 | 2018-08-02 | 株式会社リコー | Image processing apparatus, image processing method, and image processing system |
Also Published As
Publication number | Publication date |
---|---|
JP2020071852A (en) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6472925B1 (en) | Information processing apparatus, information processing system, learning apparatus, learned estimation model, and learning data collection method | |
US11341515B2 (en) | Systems and methods for sensor data analysis through machine learning | |
US20110016001A1 (en) | Method and apparatus for recommending beauty-related products | |
CN110023982A (en) | Select product title | |
JP7130991B2 (en) | ADVERTISING DISPLAY SYSTEM, DISPLAY DEVICE, ADVERTISING OUTPUT DEVICE, PROGRAM AND ADVERTISING DISPLAY METHOD | |
US11810176B2 (en) | Methods and systems for anonymizing and providing access to transaction data | |
WO2020098829A2 (en) | Method and system for personalizing offers | |
US11741493B2 (en) | Wearable device that is automatically configurable between wearer facing and redemption interfaces | |
KR102409717B1 (en) | Method and apparatus for recommending selling item to seller of on-line shopping mall | |
KR102409718B1 (en) | Method and system for managing personal review shop on commerce platform connected with social network service | |
US20150332311A1 (en) | Optimized placement of digital offers | |
US12100034B2 (en) | Methods and systems for providing a vehicle recommendation | |
JP7450241B2 (en) | Information processing devices, information processing systems, and learning devices | |
JP7513161B2 (en) | Information processing system, customer identification device, information processing method and program | |
KR102422408B1 (en) | Method and apparatus for recommending item based on collaborative filtering neural network | |
US20240256793A1 (en) | Methods and systems for generating text with tone or diction corresponding to stylistic attributes of images | |
JP2024008995A (en) | Information processing device, information processing system, learning device, learned estimation model, and method for collecting data for learning | |
JP6907701B2 (en) | Information processing equipment, information processing systems, information processing methods and programs | |
JP6180344B2 (en) | Shopping support device and program | |
CN113971581A (en) | Robot control method and device, terminal equipment and storage medium | |
KR102653483B1 (en) | Method of predicting price of artwork based on artificial intelligence | |
Rayavel et al. | Optimizing User Satisfaction and Streamlining Operations in Online Retail Using CNN Algorithm | |
CA3108195A1 (en) | Methods and systems for anonymizing and providing access to transaction data | |
CN110674389A (en) | Commodity recommending and displaying system and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211101 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230426 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231101 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7450241 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |