JP7378743B2 - 情報処理システム、情報処理方法およびプログラム - Google Patents

情報処理システム、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7378743B2
JP7378743B2 JP2022076233A JP2022076233A JP7378743B2 JP 7378743 B2 JP7378743 B2 JP 7378743B2 JP 2022076233 A JP2022076233 A JP 2022076233A JP 2022076233 A JP2022076233 A JP 2022076233A JP 7378743 B2 JP7378743 B2 JP 7378743B2
Authority
JP
Japan
Prior art keywords
information
user
type
product
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022076233A
Other languages
English (en)
Other versions
JP2022173137A (ja
Inventor
純司 林
Original Assignee
株式会社Next Mホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Next Mホールディングス filed Critical 株式会社Next Mホールディングス
Publication of JP2022173137A publication Critical patent/JP2022173137A/ja
Application granted granted Critical
Publication of JP7378743B2 publication Critical patent/JP7378743B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

特許法第30条第2項適用 2021年9月5日 株式会社PR TIMESが、ウェブサイト<https://prtimes.jp/main/html/rd/p/000000007.000046380.html>にて、林純司が発明した顔診断サービス「Who AI」について公開した。
本発明は、情報処理システム、情報処理方法およびプログラムに関する。
利用者に提示するための各種の情報を特定する技術が従来から提案されている。特許文献1には、利用者の顔画像に応じて事前に分類された複数の顔印象タイプのうちの何れかを利用者に応じた顔印象タイプとして特定する技術が開示されている。そして、特定した顔印象タイプに応じて各種の情報が利用者に提示される。具体的には、利用者の正面から撮像された顔画像が顔印象タイプの特定に利用される。
特許第6604644号
すなわち、特許文献1の技術では、顔印象タイプの特定に利用者の顔画像から確認できる外見の特徴しか加味されない。しかし、実際には、顔画像からでは確認できない外見の特徴も存在し得る。したがって、利用者に応じた顔印象タイプを高精度に特定できないという問題がある。以上の事情を考慮して、本発明では、利用者の外見に関する特徴を表すタイプを高精度に特定することを目的とする。
上記の課題を解決するため、本発明に係る情報処理システムは、利用者の画像を含む第1情報から、外見の特徴を表す複数の第1タイプのうち前記利用者に応じた第1タイプを特定する第1処理部と、前記利用者の外見の特徴を表す第2情報に応じた関連情報を取得する第2処理部と、前記第1処理部が特定した第1タイプと前記第2処理部が取得した関連情報との組み合わせに応じて、外見の特徴を表す複数の第3タイプのうち前記利用者に応じた第3タイプを特定する第3処理部とを具備する。
第1実施形態に係る情報処理システムの構成を例示するブロック図である。 利用者の端末装置の構成を例示するブロック図である。 第2情報を模式的に示す模式図である。 情報処理システムの制御装置の機能的な構成を例示するブロック図である。 第1タイプおよび第2タイプと顔タイプとの関係を登録するテーブルの模式図である。 端末装置の表示装置が表示する画像の一例である。 情報処理システムおよび端末装置の動作の手順を例示するフローチャートである。 第1解析部の処理を例示するフローチャートである。 第2実施形態に係る情報処理システムの制御装置の機能的な構成を例示するブロック図である。 第2実施形態に係る利用者の身体を含む画像の一例である。 情報処理システムの記憶装置に記憶されるテーブルの模式図である。 第2実施形態の変形例に係る身体の各部分の輪郭を示す模式図である。 第3実施形態に係る情報処理システムの記憶装置に記憶されるテーブルの模式図である。 第4実施形態に係る情報処理システムの記憶装置に記憶されるテーブルの模式図である。 第4実施形態の変形例に係る情報処理システムの記憶装置に記憶されるテーブルの模式図である。 複数の商品の各々について顔タイプ毎に特定された販売数を模式的に示す図である。 第5実施形態に係る端末装置の表示装置が表示する画像の一例である。 第6実施系形態に係る第1タイプと外見問診との関係を模式的に示す図である。 第6実施系形態に係る第1タイプと外見問診の回答との組み合わせを示す図である。 第6実施形態に係る情報処理システムおよび端末装置の動作の手順を例示するフローチャートである。 第7実施系形態に係る願望問診と回答となる選択肢とを模式的に示す図である。 第7実施系形態に係る顔タイプと願望問診と回答との組み合わせを示す図である。
<第1実施形態>
図1は、本発明の第1実施形態に係る情報処理システム100の構成を例示するブロック図である。情報処理システム100は、利用者Uの外見の特徴を表すタイプ(第1実施形態では後述する顔タイプ)を特定するためのコンピュータシステムである。第1実施形態の情報処理システム100は、さらに、利用者Uに提示する商品に関する情報(以下「商品情報」という)Pを当該タイプから特定する。第1実施形態では、衣類を商品として例示する。例えば、各種の商品(衣類)を販売するEC(electronic commerce)サイトを閲覧している利用者Uに対して商品情報Pが提示される。
情報処理システム100で特定された商品情報Pは、利用者Uの端末装置200に送信される。端末装置200は、例えば携帯電話機、スマートフォン、タブレット端末、またはパーソナルコンピュータ等の可搬型の情報端末である。情報処理システム100と端末装置200とは、例えば移動体通信網またはインターネット等の通信網300を介して相互に通信可能である。
ここで、顔の外見(すなわち顔の造形)の特徴は、利用者Uの印象に影響する。顔の外見の特徴は、利用者Uの顔の外見から確認できる特徴であり、例えば、顔の輪郭(形状)、各パーツ(例えば目、鼻、口、眉毛など)の配置・形状・比率、および、顔の立体感・肉感などである。例えば、顔の外見の特徴に応じて、「かわいい」、「活発」、「クール」または「女性らしい」というような相異なる印象が与えられる。例えば、輪郭が丸型であり、目の位置が低く、立体感があまりない場合には、「かわいい」という印象が与えられる。一方で、輪郭が面長であり、目の位置が高く、立体感がある場合には、「クール」という印象が与えられる。
そして、顔の外見の特徴が与える印象は、利用者Uに似合う商品(衣類)に影響する。そこで、第1実施形態では、顔の外見の特徴を表すタイプ(以下「顔タイプ」という)Haに応じて商品情報Pを特定する構成を例示する。顔タイプHaは、顔の外見の特徴を総合的に加味して分類されたタイプであり、利用者Uの顔の外見が与える印象(例えばかわいい、クールなど)を示す情報であるとも換言できる。
具体的には、利用者Uの画像を含む情報(以下「第1情報」という)D1と、第1情報D1とは異なる情報であり、利用者Uの外見の特徴を表す情報(以下「第2情報」という)D2とを利用して、顔タイプHaが特定される。
第1実施形態の第1情報D1は、利用者Uの顔の正面を含む画像(以下「正面画像」)である。第1実施形態の第2情報D2は、利用者Uの外見の特徴に関する問診(以下「外見問診」)に対する回答である。第1実施形態の外見問診は、顔の側面(すなわち横顔)に関する外見の特徴についての問診である。
第1情報D1と第2情報D2とは、利用者Uの端末装置200から情報処理システム100に送信される。そして、情報処理システム100は、第1情報D1および第2情報D2から利用者Uの顔タイプHaを特定し、当該顔タイプHaに応じた商品情報Pを特定する。
<端末装置200>
図2は、利用者Uの端末装置200の構成を例示するブロック図である。図2に例示される通り、端末装置200は、制御装置21と記憶装置22と通信装置23と表示装置24と撮像装置25とを具備する。
制御装置21(コンピュータの例示)は、例えばCPU(Central Processing Unit)等の単数または複数の処理回路で構成され、端末装置200の各要素を統括的に制御する。
記憶装置22は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体で構成された単数または複数のメモリであり、制御装置21が実行するプログラムと制御装置21が使用する各種のデータとを記憶する。なお、端末装置200に対して着脱可能な可搬型の記録媒体、または情報処理システム100が通信網を介して通信可能な外部記録媒体(例えばオンラインストレージ)を、記憶装置22として利用してもよい。記憶装置22には、後述する顔タイプテーブルT1と商品テーブルT2とが記憶される。
通信装置23は、制御装置21による制御のもとで、通信網300を介して端末装置200と通信する通信機器である。各種の情報が情報処理システム100との間で送受信される。第1実施形態の通信装置23は、第1情報D1(正面画像)および第2情報D2(外見問診に対する回答)を情報処理システム100に送信し、情報処理システム100から商品情報Pを受信する。
撮像装置25(例えばカメラ)は、各種の画像を撮像するための機器である。具体的には、情報処理システム100が利用者Uの顔タイプHaを特定するために使用される正面画像を撮像する。例えば、ECサイトを閲覧する利用者Uが自身の顔タイプHaを特定することを指示した場合、端末装置200においてウェブブラウザ上で撮像装置25が起動される。利用者Uによる撮像の指示を端末装置200が受け付けると、撮像装置25により正面画像が撮像される。そして、撮像装置25により撮像された正面画像が第1情報D1として情報処理システム100に送信される。なお、事前に利用者Uにより撮像され、記憶装置22に記憶された正面画像を第1情報D1として情報処理システム100に送信してもよい。
表示装置24(例えば液晶表示パネル)は、制御装置21から指示された各種の画像を表示する。第1実施形態の表示装置24は、例えば、ECサイトを閲覧する利用者Uが自身の顔タイプHaを特定することを指示した場合、外見問診を表す画像と、当該外見問診に対する回答の候補となる複数の選択肢を表す画像とを含む画像(以下「特徴画像」という)表示する。なお、特徴画像は、例えば、情報処理システム100から送信される。なお、顔タイプHaの特定に利用する外見問診の個数は任意である。
図3は、顔タイプHaの特定に利用される複数の外見問診と回答の候補とを模式的に示す模式図である。第1実施形態の外見問診は、例えば、「鼻の高さ」を問う内容の外見問診1、「額の丸み」問う内容の外見問診2、および、「頬の高さ」を問う内容の外見問診3といった顔の側面(横顔)から確認できると特徴に関する内容である。各外見問診について回答の候補となる複数の選択肢は、例えば、「はい」「いいえ」などである。ただし、外見問診の内容と回答の候補とは図3の例示には限定されない。
利用者Uは、表示装置24に表示された特徴画像を確認して、外見問診に対する複数の選択肢の何れかを選択することで回答を入力する。なお、回答の入力には、端末装置200の操作装置(例えばタッチパネル)が利用される。そして、端末装置200は、外見問診に対する回答を第2情報D2として、第1情報D1(正面画像)とともに、情報処理システム100に送信する。
<情報処理システム100>
図1に例示される通り、情報処理システム100は、制御装置11と記憶装置13と通信装置15とを具備する。なお、情報処理システム100は、単体の装置で実現されるほか、相互に別体で構成された複数の装置でも実現される。
通信装置15は、制御装置11による制御のもとで、通信網300を介して端末装置200と通信する通信機器である。各種の情報が端末装置200との間で送受信される。第1実施形態の通信装置15は、利用者Uの端末装置200から送信された第1情報D1および第2情報D2を受信し、情報処理システム100が特定した商品情報Pを端末装置200に送信する。
制御装置11(コンピュータの例示)は、例えばCPU(Central Processing Unit)等の単数または複数の処理回路で構成され、情報処理システム100の各要素を統括的に制御する。
記憶装置13は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体で構成された単数または複数のメモリであり、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。なお、情報処理システム100に対して着脱可能な可搬型の記録媒体、または情報処理システム100が通信網300を介して通信可能な外部記録媒体(例えばオンラインストレージ)を、記憶装置13として利用してもよい。
図4は、制御装置11の機能的な構成を例示するブロック図である。図4に例示される通り、第1実施形態の制御装置11は、商品情報Pを特定するための複数の機能(受信制御部111,送信制御部113,第1解析部115,商品特定部117)として機能する。なお、複数の装置の集合で制御装置11の機能を実現してもよいし、制御装置11の機能の一部または全部を専用の電子回路(例えば信号処理回路)で実現してもよい。
受信制御部111は、端末装置200から送信された各種の情報を通信装置15により受信する。具体的には、受信制御部111は、端末装置200から送信された第1情報D1および第2情報D2を通信装置15により受信する。受信制御部111が取得した第1情報D1および第2情報D2は、記憶装置13に記憶される。ただし、以下に説明する商品情報Pの特定が終了した後も第1情報D1および第2情報D2を記憶装置13において記憶することは必須ではない。
送信制御部113は、各種の情報を通信装置15により端末装置200に送信する。具体的には、送信制御部113は、情報処理システム100が特定した商品情報Pを通信装置15により端末装置200に送信する。
第1解析部115は、受信制御部111が受信した第1情報D1および第2情報D2から利用者Uの顔タイプHaを特定する。具体的には、相異なる複数の顔タイプHa(Ha1,Ha2,Ha3,…)の何れかが利用者Uの顔タイプHaとして特定される。複数の顔タイプHaは、利用者Uの顔タイプHaの候補であるとも換言できる。上述した通り、各顔タイプHaは、顔の外見の特徴が与える印象を分類した区分である。すなわち、複数の顔タイプHa(Ha1,Ha2,Ha3,…)の各々は、相異なる印象(例えば「かわいい」,「クール」,「活発」…)に対応する。
具体的には、第1解析部115は、第1処理部51と第2処理部52と第3処理部53とを含む。
第1処理部51は、第1情報D1(正面画像)から、顔の正面に関する外見の特徴を表した複数の第1タイプV1のうち利用者に応じた第1タイプV1を特定する。各第1タイプV1は、顔の正面から把握できる外見の特徴(例えば、輪郭の正面形状、各パーツの配置・正面形状・比率など)を総合的に踏まえて分類したタイプである。
ここで、顔の正面から把握できる外見の特徴に応じて、例えば、大人っぽい印象を受ける場合や子供っぽいという印象を受ける場合がある。例えば、輪郭が丸型であり目の位置が低めである場合には、子供っぽいという印象を受け、輪郭が面長であり目の位置が高めである場合には、大人っぽいという印象を受ける。複数の第1タイプV1は、顔の正面から把握できる外見の特徴から受ける印象を区分した分類であるとも換言できる。
図5には、利用者Uの第1タイプV1の候補となる複数の第1タイプV1が模式的に図示されている。第1実施形態では、4個の第1タイプV1(V11-V14)のうちの何れかが利用者Uの第1タイプV1として特定される場合を例示する。ただし、利用者Uの第1タイプV1の候補となる第1タイプV1の個数は任意である。
第1実施形態の第1処理部51は、学習済モデルに第1情報D1(正面画像)を入力した結果に応じて利用者Uの第1タイプV1を特定する。
学習済モデルは、統計的推定モデル(例えばニューラルネットワーク)であり、入力Aに応じた出力Bを特定する。具体的には、学習済モデルは、入力Aから出力Bを特定する演算を制御装置11に実行させるプログラム(例えば人工知能ソフトウェアを構成するプログラムモジュール)と、当該演算に適用される複数の係数との組合せで実現される。学習済モデルの複数の係数は、入力Aと出力Bとを対応させた複数の教師データを利用した事前の機械学習(深層学習)により最適化されている。すなわち、学習済モデルは、入力Aと出力Bとの間の関係を学習した統計的推定モデルである。学習済モデルは、機械学習に使用した複数の教師データに潜在する傾向(入力Aと出力Bとの間の関係)のもとで入力Aに対して統計的に妥当な出力Bを特定する。
第1実施形態では、入力Aは第1情報D1(正面画像)であり、出力Bは複数の第1タイプV1のうちの何れかである。なお、実際には、複数の第1タイプV1の各々について、当該第1タイプV1に該当する尤度が特定され、最も尤度が高い第1タイプV1が利用者Uの第1タイプV1として特定され得る。尤度は、0以上かつ1以下の範囲内の数値に設定され、複数の第1タイプV1わたる尤度の合計値は所定値(典型的には1)となる。例えば、利用者の第1情報D1と当該利用者に対応する第1タイプV1(正解ラベル)とを対応させた教師データを利用した機械学習により学習済モデルが生成される。
具体的には、第1解析部115は、学習済モデルに第1情報D1を入力した結果(第1実施形態では複数の第1タイプV1の何れか)を利用者Uの第1タイプV1として特定する。
第2処理部52は、第2情報D2に応じた関連情報を取得する。関連情報は、第2情報D2そのもの、および、第2情報D2から特定した情報の少なくとも一方を含む。第1実施形態では、第2情報D2から特定した情報(後述する第2タイプV2)を関連情報として例示する。
第1実施形態の第2処理部52は、第2情報D2(外見問診に対する回答)から、顔の側面に関する外見の特徴を表した複数の第2タイプV2のうち利用者Uに応じた第2タイプV2を特定する。すなわち、第1実施形態の第2処理部52は、第2タイプV2を関連情報として特定(取得)する。各第2タイプV2は、顔の側面から把握できる外見の特徴(例えば、鼻の高さ、額の丸み、頬の高さなど)を総合的に加味して区分けした分類である。
ここで、顔の側面から把握できる外見の特徴に応じて、例えば、立体的であるという印象を受ける場合や平面的であるという印象を受ける場合がある。例えば、鼻が高く、額にも丸みがある場合には、立体的であるという印象を受け、鼻が低く、額にも丸みがない場合には、平面的であるという印象を受ける。複数の第2タイプV2は、顔の側面から把握できる外見の特徴から受ける印象を区分した分類であるとも換言できる。
図5には、利用者Uの第2タイプV2の候補となる複数の第2タイプV2が模式的に図示されている。第1実施形態では、4個の第2タイプV2(V21-V24)のうちの何れかが利用者Uの第2タイプV2として特定される場合を例示する。ただし、利用者Uの第2タイプV2の候補となる第2タイプV2の個数は任意である。
第1実施形態の第2処理部52は、複数の外見問診に対する回答に応じて第2タイプV2を特定する。例えば、第2処理部52は、複数の外見問診において、回答が「はい」(または「いいえ」)である個数に応じて第2タイプV2を特定する。以上の構成では、各第2タイプV2について回答「はい」の個数の数値範囲が事前に設定される。例えば、第2タイプV21:0個~3個,第2タイプV22:4個~7個,第2タイプV23:8個~12個,第2タイプV23:9個以上、というように回答「はい」の個数の数値範囲が設定される。
また、第2処理部52は、各外見問診の回答を点数化(例えば「はい」は3点、「いいえ」は0点など)して複数の外見問診にわたる合計値に応じて第2タイプV2を特定してもよい。以上の構成では、各第2タイプV2について合計値の数値範囲が事前に設定される。例えば、第2タイプV21:0点~5点,第2タイプV22:6点~10点,…というように合計値の数値範囲が設定される。なお、各外見問診の回答について設定される点数は、外見問診毎に相違させてもよい。例えば、図3の外見問診1の回答「はい」には3点を設定し、外見問診2の回答「はい」には5点を設定する。
ただし、第2処理部52が第2情報D2から第2タイプV2を特定する構成は、以上の例示には限定されない。例えば、第2情報D2(入力)と第2タイプV2(出力)との関係を学習した学習済モデルに利用者Uの第2情報D2を入力した結果に応じて、利用者Uの第2タイプV2を特定してもよい。
第3処理部53は、第1処理部51が特定した第1タイプV1と第2処理部52が取得した関連情報との組み合わせに応じて、利用者Uの顔タイプHa(「第3タイプ」の例示)を特定する。第1実施形態の関連情報は、上述した通り、第2タイプV2である。
図5には、第1タイプV1(V11-V14)と第2タイプV2(V21-V24)との組み合わせ毎に、複数の顔タイプHa(Ha1-Ha8)のうちの何れかを登録する顔タイプテーブルT1(データテーブル)の模式図が示されている。図5では、8個の顔タイプHa(Ha1-Ha8)の何れかが利用者Uの顔タイプHaとして特定される場合を例示する。ただし、利用者Uの顔タイプHaの候補となる顔タイプHaの個数は任意である。
なお、相異なる2以上の組み合わせについて同一の顔タイプHaを対応付けてもよい。例えば、図5では、第1タイプV1「V14」と第2タイプV2「V21」との組み合わせと、第1タイプV1「V12」と第2タイプV2「V22」との組み合わせとには、同一の顔タイプ「Ha1」が対応付けられる。
具体的には、第3処理部53は、第1処理部51が特定した第1タイプV1と第2処理部52が特定した第2タイプV2との組み合わせに応じて、複数の顔タイプHa(Ha1-Ha8)のうち利用者Uに応じた顔タイプHaを特定する。顔タイプテーブルT1において登録される複数(図5では16通り)の組合せのうち、第1処理部51が特定した第1タイプV1と第2処理部52が特定した第2タイプV2との組み合わせについて登録される顔タイプHaが利用者の顔タイプHaとして特定される。
例えば、図5の例示では、利用者Uの第1タイプV1として「V12」が特定され、利用者Uの第2タイプV2として「V23」が特定された場合には、顔タイプHaとして「Ha3」が特定される。
以上の通り、利用者Uの顔の正面に関する外見の特徴と、利用者Uの顔の側面に関する特徴との双方を加味した顔タイプHaが特定される。
第1タイプV1および第2タイプV2の組合せにより特定される顔タイプHaは、顔の正面および顔の側面を含む外見の特徴を表すタイプであるとも換言できる。複数の顔タイプHaは、顔の正面から把握できる外見の特徴(顔の正面から受ける印象)と、顔の側面から把握できる外見の特徴(顔の側面から受ける印象)とを総合的に加味して区分けした分類である。
以上の処理により、利用者Uの顔タイプHaが特定される。なお、第1解析部115が特定した顔タイプHaは、利用者U(例えば利用者Uを示す識別番号)と対応づけて記憶装置13に記憶してもよい。
商品特定部117は、第1解析部115が特定した顔タイプHaに応じて、利用者Uに提示する商品情報Pを特定する。第1実施形態の商品情報Pは、当該商品情報Pに対応する商品を購入可能なWebページの所在(例えばURL)を表す情報である。なお、商品情報Pは、以上の例示に限定されない。例えば、単に商品を紹介するWebページの所在、または、商品情報Pに対応する商品を使用したコーディネートを紹介するWebページの所在等の各種の商品に関する情報が商品情報Pとして例示される。また、商品特定部117が特定する商品情報Pの種類は複数であってもよい。
第1実施形態では、利用者Uにレコメンド(お勧め)する商品(以下「第1商品」という)に関する商品情報Pを特定する。第1商品は、典型的には、利用者Uの顔タイプHaから似合うと推定される商品である。
第1実施形態では、記憶装置13に記憶された商品テーブルT2を利用して第1商品を特定する。図1に例示される通り、商品テーブルT2は、複数の商品の各々について、当該商品に対応する顔タイプHaが登録されたデータテーブルである。
具体的には、商品の特徴(例えばシルエットや柄の有無)から、当該商品に似合うとされる顔タイプHaが対応づけられる。例えば、フリルやレースがあり花柄などが付してある衣類が似合う顔タイプHa(例えば「かわいい」)や、シンプルで無地の衣類が似合う顔タイプHa(例えば「クール」)がある。なお、実際には、商品テーブルT2には、顔タイプHa以外にも商品に関する各種の情報(例えば種別、値段、在庫の有無など)が対応づけられる。また、1つの商品について登録される顔タイプHaは複数であってもよい。
商品テーブルT2において、各商品について登録する顔タイプHaを特定する方法は任意である。例えば、ECサイトの担当者が商品を確認して顔タイプHaを特定してもよいし、商品に関する情報(例えば商品の画像や商品の特徴量等)と顔タイプHaとの関係を学習した学習済モデルに商品に関する情報を入力した結果に応じて顔タイプHa特定してもよい。
第1実施形態の商品特定部117は、複数の商品から第1商品を特定し、当該第1商品に関する商品情報Pを特定する。具体的には、商品特定部117は、商品テーブルT2に登録された複数の商品のうち第1解析部115が特定した顔タイプHaが対応付けられた商品を第1商品として商品情報Pを特定する。すなわち、利用者Uの顔タイプHaに似合うと推測される商品に関する商品情報Pが特定される。
なお、商品特定部117が顔タイプHaから商品情報Pを特定する方法は、任意である。例えば、商品テーブルT2において事前に各商品について商品情報Pを登録する。そして、商品特定部117は、商品テーブルT2から第1解析部115が特定した顔タイプHaに対応する商品の商品情報Pを特定(取得)してもよい。
例えば、図1の例示では、利用者Uの顔タイプHaとして顔タイプHa1が特定された場合には、商品2の商品情報Pが特定される。なお、利用者Uの顔タイプHaとして顔タイプHa3が特定された場合には、商品1の商品情報Pと商品3の商品情報Pとが特定される。すなわち、商品特定部117が複数の商品情報Pを特定することも想定される。
送信制御部113は、商品特定部117が特定した商品情報Pを通信装置15により端末装置200に送信する。なお、送信制御部113が送信する情報は、商品情報Pに限定されない。送信制御部113は、商品情報Pに加えて、他の各種の情報を送信してもよい。例えば、送信制御部113は、商品情報Pとともに、第1解析部115が特定した顔タイプHaと当該顔タイプHaの特徴とを示す情報、または、第1タイプV1や第2タイプV2を示す情報を端末装置200に送信してもよい。
図6は、商品情報Pが送信された端末装置200の表示装置24が表示する画像の一例である。第1実施形態の表示装置24は、端末装置200に送信された商品情報Pを表す画像(以下「商品画像」という)Kを表示する。商品画像Kは、例えば、商品情報P(URL)のリンクがつけられた画像(例えば商品を含む画像)である。なお、図6に例示される通り、商品画像Kとともに、商品画像K以外の画像(例えば利用者Uの顔タイプHaやその特徴など)を表示してもよい。なお、商品画像Kは以上の例示に限定されない。
図7は、情報処理システム100および端末装置200の動作の手順を例示するフローチャートである。例えば、端末装置200の利用者Uからの顔タイプHaの特定の開始の指示を契機として図7の処理が開始される。
端末装置200の制御装置21は、利用者Uの第1情報D1(正面画像)および第2情報D2(外見問診に対する回答)を通信装置23により情報処理システム100に送信する(SA1)。情報処理システム100の受信制御部111は、端末装置200から送信された第1情報D1および第2情報D2を通信装置15により受信する(SA2)。
第1解析部115は、受信制御部111が受信した第1情報D1および第2情報D2から利用者Uの顔タイプHaを特定する(SA3)。
図8は、第1解析部115が利用者Uの顔タイプHaを特定する処理SA3をフローチャートである。第1処理部51は、第1情報D1から、複数の第1タイプV1のうち利用者Uに応じた第1タイプV1を特定する(SA31)。第2処理部52は、第2情報D2から、複数の第2タイプV2のうち利用者Uに応じた第2タイプV2を特定する(SA32)。なお、ステップSA31とステップSA32との処理の順番は逆でもよい。
第3処理部53は、第1処理部51が特定した第1タイプV1と第2処理部52が特定した第2タイプV2との組み合わせに応じて、複数の顔タイプHaのうち利用者Uに応じた顔タイプHaを特定する(SA33)。
商品特定部117は、第1解析部115が特定した顔タイプHaから商品情報Pを特定する(SA4)。第1実施形態では、利用者Uにレコメンドする第1商品に関する商品情報Pが特定される。具体的には、第1解析部115は、商品テーブルT2に登録された複数の商品のうち第1解析部115が特定した顔タイプHa(すなわち利用者Uの顔タイプHa)に対応付けられた商品を第1商品として商品情報Pを特定する。
送信制御部113は、商品特定部117が特定した商品情報Pを通信装置15により端末装置200に送信する(SA5)。端末装置200の制御装置21は、情報処理システム100から送信された商品情報Pを通信装置23により受信する(SA6)。制御装置21は、商品情報Pを表す商品画像Kを表示装置24に表示させる(SA7)。したがって、利用者Uの顔タイプHaから似合うと推定される第1商品が利用者Uに提示(レコメンド)される。ひいては、利用者Uの購買意欲を向上させることが可能である。
ここで、例えば、利用者Uの顔タイプHaの特定に顔の正面を含む画像のみが利用される構成では、顔の正面に関する外見の特徴しか加味されず、高精度に利用者Uの顔タイプHaを特定できないという問題がある。
それに対して、第1実施形態の構成によれば、第1情報D1から特定した第1タイプV1と、第2情報D2から特定した第2タイプV2との組み合わせに応じて利用者Uの顔タイプHaが特定される。したがって、利用者Uの顔の正面に関する外見の特徴と、利用者の顔の側面の外見に関する特徴との双方とを加味して、高精度に顔タイプHaを特定することが可能である。ひいては、利用者Uに適切な商品情報P(顔タイプHaから似合うと推定される第1商品の商品情報P)を提示することができる。
特に、第1タイプV1と第2タイプV2との組み合わせに応じて顔タイプHaが特定されるから、利用者Uの顔の正面に関する外見の特徴と、利用者Uの顔の側面の外見に関する特徴とが適切に反映された顔タイプHaが特定される。
第1実施形態では、学習済モデルに第1情報D1(正面画像)を入力した結果に応じて第1タイプV1が特定されるから、所定の規則に従って利用者Uの第1タイプV1を特定する構成を比較して、機械学習に利用された複数の教師データから特定される傾向のもとで、未知の第1情報D1に対して統計的に妥当な第1タイプV1を特定できるという利点がある。なお、本発明には、所定の規則に従って顔タイプHaを特定する構成も包含される。所定の規則に従って第1タイプV1を特定する構成とは、例えば第1情報D1から特定された特徴量と事前に用意された各顔タイプHaの特徴量とを比較した結果により利用者Uの第1タイプV1を特定する構成である。
<第1実施形態の変形例>
以上に例示した第1実施形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を適宜に併合することも可能である。
(1)第1実施形態では、第1情報D1が正面画像である構成を例示したが、第1情報D1は以上の例示に限定されない。例えば、第1情報D1は正面画像以外の情報(例えば利用者Uの正面に関する外見の特徴についての問診に対する回答)を含んでもよい。すなわち、第1情報D1には複数の種類の情報が含まれ得る。
(2)第1実施形態では、第2情報D2が外見問診である構成を例示したが、第2情報D2は以上の例示に限定されない。例えば、第2情報D2は外見問診以外の情報であってもよい。例えば、利用者Uの横顔を含む画像(以下「横画像」という)を第2情報D2としてもよい。以上の構成では、第2処理部52は、例えば、学習済モデルに第2情報D2(横画像)を入力した結果に応じて利用者Uの第2タイプV2を特定する。ただし、第2処理部52が横画像から第2タイプV2を特定する方法は以上の例示には限定されない。なお、第2情報D2が複数の種類の情報を含んでもよい。
ただし、横画像は利用者U自身では撮像しにくく、適切に横顔が撮像されない横画像を第2情報D2として使用すると、利用者Uの横顔に関する外見の特徴を適切に反映した第2タイプV2が特定できない場合もある。したがって、利用者Uの横顔に関する外見の特徴を適切に反映した第2タイプV2を特定するという観点からは、第2情報D2が外見問診である構成がより好適である。
(3)第1実施形態では、顔タイプHaを特定する構成を例示したが、利用者Uの顔以外の外見の特徴を表すタイプを特定してもよい。例えば、利用者Uの顔および身体(顔から下の部分)を含む全身のタイプを特定する構成や、身体のタイプを特定する構成も採用される。以上の構成においても、第1情報D1から利用者Uの第1タイプV1を特定し、第2情報D2から利用者Uの第2タイプV2を特定する。第1情報D1は、利用者Uの全身(または身体)の正面に関する外見の特徴を表す情報であり、第2情報D2は、利用者Uの全身(または身体)の側面に関する外見の特徴を表す情報である。さらには、利用者Uの上半身や下半身の外見の特徴を表すタイプを特定してもよい。
以上の説明から理解される通り、第1情報D1は、正面に関する外見の特徴を表す情報として包括的に表現され、第2情報D2は、側面に関する外見の特徴を表す情報として包括的に表現される。また、第1タイプV1と第2タイプV2との組み合わせに応じて特定されるタイプは、正面および側面を含む外見の特徴を表す「第3タイプ」として包括的に表現される。
(4)第1情報D1から第1タイプV1を特定する構成は、第1実施形態の例示には限定されない。例えば、第1タイプV1を特定する場合には、第1情報D1(正面画像)から特徴量(例えばパーツや部位の正面形状・サイズ・位置・比率など)を抽出し、当該特徴量から第1タイプV1を特定してもよい。複数の第1タイプV1の各々について特徴量が事前に登録される。そして、各第1タイプV1の特徴量と、正面画像から抽出された特徴量とを比較した結果(例えば類似度)に応じて、利用者Uの第1タイプV1が特定される。正面画像からの特徴量の抽出には、公知の任意の画像解析技術や学習済モデルが利用される。
(5)第1商品は第1実施形態の以上には限定されない。例えば、第1解析部115が特定した顔タイプHaと同様の顔タイプHaの利用者が過去に購入した商品のうち高評価をした商品を第1商品として利用者Uに提示する構成や、第1解析部115が特定した顔タイプHaと同様の顔タイプHaの利用者が過去に閲覧した商品を第1商品として利用者Uに提示する構成も採用される。
(6)第1実施形態において、第1情報D1と第2情報D2とを学習済モデル(例えばニューラルネットワーク)に入力した結果に応じて、複数の顔タイプHaのうちの利用者Uに応じた顔タイプHaを第1解析部115
が特定する構成(以下「構成A」という)も採用される。学習済モデルは、第1情報D1および第2情報D2を入力として、複数の顔タイプHaのうちの何れかを出力する。利用者の第1情報D1および第2情報D2と当該利用者に対応する顔タイプHa(正解ラベル)とを対応させた教師データを利用した機械学習により学習済モデルが生成される。
構成Aにおいては、複数の顔タイプHaの各々について利用者Uが該当する可能性を表す指標(例えば顔タイプHa1:95%,顔タイプHa2:30%,顔タイプHa3:45%など)を算出してもよい。そして、各タイプについて算出した指標を利用者Uに提示してもよい。以上の構成では、商品特定部117は、最も該当する可能性が高い顔タイプHaの商品情報Pのみを特定してもよいし、降順で上位数番目までの各顔タイプHaについて商品情報Pを特定してもよい。以上の構成においては、学習済モデルは、複数の顔タイプHaの各々について利用者Uが該当する可能性を表す指標を出力する。
構成Aによれば、第1実施形態と同様に、利用者Uの正面および側面に関する外見の特徴を加味して、統計的に妥当な顔タイプHaを高精度に特定できるという利点がある。
(7)第1実施形態において商品情報Pを特定する構成は必須ではない。例えば、商品情報Pを利用者Uに提示せずに、第1情報D1と第2情報D2とから特定した顔タイプHaを利用者に提示してもよい。
<第2実施形態>
本発明の第2実施形態を説明する。なお、以下に例示する各形態において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
利用者Uの身体の外見(すなわち体型)の特徴は、顔の外見の特徴と同様に、利用者Uに似合う衣類に影響する。身体の外見の特徴は、利用者Uの身体における外見から確認できる特徴であり、例えば、身体のライン・立体感、身体の各部分(首部,胸部,腹部,腰部,腕部,脚部など)の位置・大きさ・比率などである。なお、身体とは、利用者Uの全身のうち首から下の部分をいう。
以上の事情を考慮して、第2実施形態では、身体に関する外見の特徴を表すタイプ(以下「身体タイプ」という)Hbに応じて商品情報Pを特定する構成を例示する。事前に用意された複数の身体タイプHb(Hb1,Hb2,Hb3,…)の何れかが利用者Uの身体タイプHbとして特定される。
複数の身体タイプHb(Hb1,Hb2,Hb3,…)の各々は、例えば、全体的にメリハリがあり、腰部および胸部の位置が高い身体タイプHb1、身体が薄く、上半身に対して下半身に大きめである身体タイプHb2、手足が長く、肉感を感じさせない身体タイプHb3などである。以上の通り、各身体タイプHbは、身体の外見の特徴を総合的に加味して区分された分類である。ただし、身体タイプHbの具体的な分類は以上の例示に限定されない。
図9は、第2実施形態に係る情報処理システム100の制御装置11の機能的な構成を例示するブロック図である。図9に例示される通り、第1解析部115に代えて、第2解析部116を具備する。
第2解析部116は、利用者Uの身体に関する外見の特徴を表す情報(以下「第3情報D3」という)から、複数の身体タイプHbのうちの何れかを利用者Uの身体タイプHbとして特定する。第2実施形態の第3情報D3は、利用者Uの身体を含む画像である。
具体的には、第3情報D3は、図10に例示される通り、利用者Uの身体の正面を含む身体画像G1(すなわち利用者Uを正面から撮像した身体画像)と、利用者Uの身体の側面を含む身体画像G2(すなわち利用者Uを側面から撮像した身体画像)とを含む。第3情報D3(身体画像G1,身体画像G2)は、端末装置200から情報処理装置に送信される。
第2実施形態の情報処理システム100は、第1実施形態と同様に、制御装置11と記憶装置13と通信装置15とを具備する。なお、記憶装置13に記憶される商品テーブルT2には、各商品の各々について、当該商品に対応する身体タイプHb(当該商品が似合うと推定される身体タイプHb)が登録される。また、第2実施形態の記憶装置13は、商品テーブルT2と、輪郭テーブルT3(データテーブル)とを記憶する。輪郭テーブルT3については後述する。
受信制御部111は、端末装置200から通信装置15により身体画像G(Gb1,Gb2)を受信する。第1解析部115は、端末装置200から送信された身体画像G(Gb1,Gb2)から利用者Uの身体タイプHbを特定する。
第1に、第1解析部115は、身体画像Gから利用者Uの身体における輪郭(すなわちシルエット)を抽出する図10に例示される通り、身体画像G1および身体画像G2の各々について輪郭Xが抽出される。すなわち、身体の正面における輪郭X1と身体の側面における輪郭X2とが抽出される。なお、輪郭X(X1,X2)の抽出には、公知の任意の画像解析技術が適宜に利用される。
図11は、複数の身体タイプHb(Hb1,Hb2,Hb3)の各々に、当該身体タイプHbに対応する輪郭Y(Y1,Y2)が登録された輪郭テーブルT3の模式図である。図11に例示される通り、各身体タイプHbには、身体の正面における輪郭Y1と身体の側面における輪郭Y2とが対応付けられる。輪郭Y(Y1,Y2)には、当該輪郭Yに対応する身体タイプHbの特徴が反映されている。
第2に、第1解析部115は、複数の輪郭Y(Y1,Y2)のうち抽出した輪郭X(X1,X2)に対応するタイプを、利用者Uの身体タイプHbとして特定する。第2実施形態では、複数の身体タイプHbのうち輪郭Xに最も類似する輪郭Yに対応する身体タイプHbが利用者Uの身体タイプHbとして特定される。
具体的には、第1解析部115は、複数の身体タイプHbの各々について、輪郭テーブルT3に登録された輪郭Y(Y1,Y2)と身体画像Gから抽出した輪郭X(X1,X2)との類似度を特定する。例えば、身体タイプHb毎に、輪郭X1と輪郭Y1との間の類似度と、輪郭X1と輪郭Y2との間の類似度とが算定される。そして、輪郭X1と輪郭Y1との間の類似度と、輪郭X1と輪郭Y2との間の類似度との双方を加味した値(例えば平均値や合計値)を、輪郭Xと輪郭Yとの類似度として特定する。なお、類似度の算定には、公知の任意の画像解析技術(例えばパターン認識)が任意に採用され得る。
各身体タイプHbについて特定された類似度が最も高い身体タイプHb(図11の例示では身体タイプHb2)が利用者Uの身体タイプHbとして特定される。以上の通り、利用者Uの身体の正面および側面の双方における身体的な特徴(シルエット)を加味して、高精度に身体タイプHbを特定することが可能である。なお、図10および図11では、身体(首部から下の部分)の輪郭Xと輪郭Yと比較する構成を例示したが、頭部も含む全身の輪郭Xと輪郭Yとを比較してもよい。
商品特定部117は、第1実施形態と同様に、利用者Uの身体タイプHbから、利用者Uにレコメンドする第1商品(利用者Uの身体タイプHbから似合うと推定される商品)に関する商品情報Pを特定する。送信制御部113は、第1実施形態と同様に、商品情報Pを通信装置15により端末装置200に送信する。
端末装置200(制御装置21)は、第1実施形態と同様に、情報処理システム100から送信された商品情報Pを表す商品画像Kを表示装置24に表示させる。したがって、利用者Uの身体タイプHbから似合うと推定される第1商品に関する商品情報Pが利用者Uに提示される。
第2実施形態では、利用者Uの身体の外見に関する特徴を、利用者Uの身体の正面および側面に関する外見の特徴を加味して、利用者Uの身体タイプHbを高精度に特定できるという利点がある。
なお、第2実施形態では、身体画像G1と身体画像G2との双方を利用して身体タイプHbを特定したが、身体画像G1および身体画像G2の何れか一方のみを身体タイプHbの特定に利用してもよい。また、正面および側面以外(例えば背面)を含む身体画像Gを身体タイプHbの特定に利用してもよい。
<第2実施形態の変形例>
以上に例示した第2実施形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を適宜に併合することも可能である。
(1)身体タイプHbを特定する場合には、図12に例示される通り、利用者Uの身体における複数の部分(例えば首部、胸部、腹部、脚部など)の各々について、輪郭Zn(nは2以上の整数)を抽出してもよい。以上の構成では、複数の身体タイプHbの各々について、事前に用意された身体の複数の部分毎の輪郭と抽出した輪郭Znとの間における類似度が算出される。すなわち、身体タイプHb毎に複数の部分にそれぞれ対応する複数の輪郭が事前に登録される。そして、利用者Uの身体の各輪郭Znにおける類似度を総合的に加味して、身体タイプHbを特定してもよい。
また、利用者Uの身体の部分毎に当該部分の特徴を表すタイプ(例えば利用者Uの上半身はタイプAで下半身はタイプBなど)を特定してもよい。以上の構成では、身体の部分毎に商品情報Pを特定してもよいし、部分毎のタイプを全て加味して商品情報Pを特定してもよい。
(2)身体タイプHbを特定する方法は、第2実施形態の例示には限定されない。例えば、学習済モデルに身体画像Gを入力した結果に応じて利用者Uの身体タイプHbを特定してもよい。第2実施形態の学習済モデルは、身体画像G(Gb1,Gb2)と身体タイプHbとの間の関係を学習した学習済モデルである。利用者Uと当該利用者Uに対応する身体タイプHb(正解ラベル)とを対応させた教師データを利用した機械学習により学習済モデルが特定される。
また、利用者Uの身体画像Gから抽出した輪郭以外の情報を加味して、身体タイプHbを特定してもよい。例えば、身体の各部位(例えば胸部,ウエスト,臀部)の位置や、部位を横からみたときの厚さ、または、部位間における比率等の各種の情報が身体タイプHbの特定に利用される。
(3)第3情報D3は、身体画像Gに限定されない。例えば、身体画像G以外の情報を加味してもよい。例えば、利用者Uの身体に関する外見の特徴を問う問診に対する回答を第3情報D3として含んでもよい。
<第3実施形態>
第3実施形態では、顔タイプHaと身体タイプHbとの双方に応じて、利用者Uにレコメンドする第1商品に関する商品情報Pを特定する。
端末装置200は、情報処理システム100に第1情報D1(正面画像)と第2情報D2(外見問診に対する回答)と第3情報D3(身体画像G)とを送信する。情報処理システム100の制御装置11は、第1実施形態で例示した第1解析部115と、第2実施形態で例示した第2解析部116との双方を具備する。
第1解析部115が顔タイプHaを特定する処理は、第1実施形態と同様であり、第2解析部116(「第4処理部」の例示)が身体タイプHb(「第4タイプ」の例示)を特定する処理は、第2実施形態と同様である。
様である。
第3実施形態の商品特定部117は、顔タイプHaおよび身体タイプHbに応じて第1商品に関する商品情報Pを特定する。図13は、第3実施形態に係る商品テーブルT2の模式図である。第3実施形態の商品テーブルT2には、複数の商品の各々について、当該商品に似合うと推定される顔タイプHaと身体タイプHbとの双方が登録される。
商品特定部117は、商品テーブルT2に登録された複数の商品のうち、第1解析部115が特定した顔タイプHaと身体タイプHbとの双方が対応付けられた商品を第1商品として商品情報Pを特定する。例えば、図13の例示では、顔タイプHaが「顔タイプHa3」と特定され、身体タイプHbが「身体タイプHb1」と特定された場合には、「商品3」を第1商品として商品情報Pが特定される。
商品特定部117が特定した商品情報Pは、利用者Uの端末装置200に送信される。端末装置200の表示装置24は、情報処理システム100から送信された商品情報Pを表す商品画像Kを表示する。すなわち、顔タイプHaと身体タイプHbの双方を加味して利用者Uに似合うと推測される第1商品の商品情報Pが利用者Uに提示される。第3実施形態においても第1実施形態および第2実施形態と同様の効果が実現される。
<第4実施形態>
第1実施形態では、商品テーブルT2に登録された複数の商品のうち利用者Uの顔タイプHaが対応付けられた商品を第1商品として例示したが、第4実施形態では、利用者Uの顔タイプHaと同様の顔タイプHaが特定された他の利用者が過去に購入した商品(以下「購入商品」という)を第1商品として例示する。
情報処理システム100の記憶装置13は、利用者テーブルT4(データテーブル)を記憶する。図14は、利用者テーブルT4の模式図である。利用者テーブルT4は、ECサイトの利用者毎に顔タイプHaおよび購入商品が登録される。なお、実際には、利用者について複数の購入商品が登録され得る。
情報処理システム100の第1解析部115は、第1実施形態と同様に、第1情報D1および第2情報D2から顔タイプHaを特定する。商品特定部117は、第1解析部115が特定した顔タイプHaに応じて第1商品に関する商品情報Pを特定する。
具体的には、商品特定部117は、利用者テーブルT4に登録された複数の利用者のうち第1解析部115が特定した顔タイプHaが対応付けられた利用者の購入商品を第1商品として商品情報Pを特定する。すなわち、第1解析部115が特定した顔タイプHaと同様の顔タイプHaが特定された他の利用者の購入商品の商品情報Pが特定される。図14の例示では、利用者Uの顔タイプHaが「顔タイプHa2」と特定された場合には、利用者4の購入商品である「商品1」の商品情報Pが特定される。
第1実施形態と同様に、情報処理システム100が特定した商品情報Pは端末装置200に送信され、端末装置200は商品情報Pを表す商品画像Kを表示する。したがって、同じ顔タイプHaである他の利用者の購入商品を利用者Uにレコメンドすることができる。
なお、第4実施形態の構成は、第1実施形態-第3実施形態の何れにも適用される。例えば、第3実施形態に第4実施形態の構成を適用する場合には、利用者テーブルT4には、利用者毎に、当該利用者の顔タイプHaおよび身体タイプHbと購入商品とが登録される。
<第4実施形態の変形例>
以上に例示した第4実施形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を適宜に併合することも可能である。
(1)第4実施形態において、商品特定部117は、購入商品毎に当該購入商品を購入した利用者Uの顔タイプHaが登録された販売テーブルT5(データテーブル)を利用して商品情報Pを特定してもよい。図15は、販売テーブルT5の模式図である。販売テーブルT5では、ECサイトで商品が購入される度(すなわち販売された度)に当該商品が登録されるから、例えば同一の商品を相異なる利用者Uが購入した場合には、同じ商品が重複して登録される。
販売テーブルT5を集計することで、複数の商品(ECサイトで取り扱う複数の商品)の各々について、顔タイプHa毎に当該商品を販売した個数(販売数)が特定できる。図16は、複数の商品の各々について、顔タイプHa毎に特定された販売数を模式的に示す図である。
商品特定部117は、複数の商品の各々について顔タイプHa毎に特定された販売数に応じて商品情報Pを特定する。例えば、商品特定部117は、複数の商品のうち、第1解析部115が特定した顔タイプHaについて特定された販売数が所定の閾値を上回る商品を第1商品として商品情報Pを特定する。また、商品特定部117は、複数の商品のうち、第1解析部115が特定した顔タイプHaについて特定された販売数が多い順番で所定の順番目(例えば上位3番目)までの商品を第1商品として商品情報Pを特定してもよい。
以上の説明から理解される通り、商品特定部117は、複数の商品の各々について顔タイプHa毎に特定された販売数と、第1解析部115が特定した顔タイプHaとに応じて、商品情報Pを特定する。以上の構成によれば、利用者Uと同様の顔タイプHaが特定された他の利用者が購入した商品の販売数に応じて、利用者Uに適切な商品情報Pを特定できるという利点がある。なお、以上の構成では、第1解析部115が顔タイプHaを特定する方法は、前述の各形態の例示には限定されない。
<第5実施形態>
ここで、利用者Uの顔タイプHaによっては似合う商品が存在する一方で、当然に似合わない商品も存在する。そして、利用者Uは自身に似合わない商品の購入は避けたいと考え得る。以上の事情を考慮して、第5実施形態では、利用者Uの顔タイプHaから似合わないと推定される商品(以下「第2商品」という)を敢えて提示する。第2商品は、利用者Uにレコメンドしない商品であるとも換言できる。
第5実施形態の商品テーブルT2において、各商品に、似合うと推定される顔タイプHaとともに、似合わないと推定される顔タイプHaも登録される。似合わない推定される顔タイプHaを特定する方法は任意である。例えば、ECサイトの担当者が商品を確認して似合わないと推定される顔タイプHaを特定してもよいし、商品の特徴と顔タイプHaとの関係を学習した学習済モデルに商品(例えば商品の画像や特徴量等)を入力した結果に応じて似合わないと推定される顔タイプHa特定してもよい。
第5実施形態の第1解析部115は、第1実施形態と同様に、第1情報D1および第2情報D2から顔タイプHaを特定する。第1に、商品特定部117は、第1実施形態と同様に、第1解析部115が特定した顔タイプHaに応じて、利用者Uにレコメンドする第1商品に関する商品情報P(以下「第1商品情報」という)を特定する。
具体的には、商品特定部117は、商品テーブルT2を利用して第1商品情報を特定する。商品テーブルT2に登録された複数の商品のうち、第1解析部115が特定した顔タイプHaが似合うと推定される顔タイプHaとして登録された商品を第1商品として第1商品情報を特定する。
第2に、商品特定部117は、第1解析部115が特定した顔タイプHaに応じて、利用者Uにレコメンドしない第2商品に関する商品情報P(以下「第2商品情報」という)を特定する。
具体的には、商品特定部117は、商品テーブルT2を利用して第2商品情報を特定する。商品テーブルT2に登録された複数の商品のうち、第1解析部115が特定した顔タイプHaが似合わないと推定される顔タイプHaとして登録された商品を第2商品として第2商品情報を特定する。
送信制御部113は、商品特定部117が特定した第1商品情報および第2商品情報を通信装置15により端末装置200に送信する。
第5実施形態の端末装置200の通信装置23は、情報処理システム100から送信された第1商品情報および第2商品情報を受信する。そして、図9に例示される通り、端末装置200の表示装置24は、第1商品情報を表す商品画像K1とともに(すなわち商品画像K1と同一のWebページ内に)、第2商品情報を表す商品画像K2を表示する。
なお、商品画像K1とともに商品画像K2を表示することは本発明において必須ではない。例えば、商品画像K1と商品画像K2とを相異なるWebページに表示させてもよい。
第5実施形態では、利用者Uにレコメンドする第1商品(利用者Uの顔タイプHaから似合うと推定される商品)に加えて、利用者Uにレコメンドしない第2商品(利用者Uの顔タイプHaから似合わないと推定される商品)が提示される。したがって、利用者Uは、自身の外見から似合うと推測される商品だけでなく、似合わないと推測される商品を把握することが可能になる。ひいては、自身に似合わないと推測される商品の購入を避けることができるという利点がある。
なお、第5実施形態の構成は、第1実施形態-第4実施形態の何れにも適用される。
<第5実施形態の変形例>
以上に例示した第5実施形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を適宜に併合することも可能である。
(1)第5実施形態において、第2商品情報と特定する方法は以上の例示に限定されない。例えば、商品テーブルT2において、第1解析部115が特定した顔タイプHa以外の顔タイプHaが対応付けられた商品を第2商品として第2商品情報として特定してもよい。
また、商品テーブルT2において、第1解析部115が特定した顔タイプHaと特徴が相違する顔タイプHaが対応付けられた商品を第2商品として第2商品情報として特定してもよい。以上の構成では、例えば、複数の顔タイプHaの各々について、当該顔タイプHaと特徴が最も相違する顔タイプHaについて事前に記憶装置13に記憶する。
さらには、図15の販売テーブルT5を利用して第2商品情報を特定してもよい。商品特定部117は、複数の商品の各々について顔タイプHa毎に特定された販売数に応じて第2商品情報を特定する。例えば、商品特定部117は、複数の商品のうち、第1解析部115が特定した顔タイプHaについて特定された販売数が所定の閾値を下回る商品を第2商品として第2商品情報を特定する。また、商品特定部117は、複数の商品のうち、第1解析部115が特定した顔タイプHaについて特定された販売数が昇順で所定の順番目までの商品(例えば下位2番目までの商品)を第2商品として第2商品情報を特定してもよい。
第2商品は以上の例示には限定されない。例えば、第1解析部115が特定した顔タイプHaと同様の顔タイプHaの利用者Uが過去の購入した商品のうち低評価をした商品を第2商品としてもよい。
<第6実施形態>
第1解析部115は、第1実施形態と同様に、第1処理部51と第2処理部52と第3処理部53とを具備する。
第1処理部51は、第1実施形態と同様に、顔の正面画像を含む第1情報D1から利用者Uに応じた第1タイプV1を特定する。第6実施形態の第1タイプV1は、利用者Uに提示する候補となる複数の顔タイプHaを大きく分類したタイプである。言い換えれば、顔タイプHaは、第1タイプを細分化した小分類である。
以下の説明では、利用者Uの顔タイプHaの候補となる16個の顔タイプHa(Ha1~Ha16)が存在し、当該16個の顔タイプHaを4個毎に大きく分類した4つの第1タイプV1(V11~V14)が存在する場合を例示する。
第1タイプV1は、顔の正面から把握できる外見の特徴(例えば、輪郭の正面形状、各パーツの配置・正面形状・比率など)を総合的に踏まえて、当該特徴から受ける印象を分類したタイプである。第1タイプV1は、例えば、V11「ガーリー系」、V12「フェミニン系」、V13「カジュアル系」、および、V14「ハンサム系」などである。
例えば、顔が曲線的(例えば、輪郭が丸みを帯びている、鼻筋がない、目が円い)であり、かつ、幼い印象がある(例えば、おでこが広い、目が離れている)場合には、V11「ガーリー系」が特定される。一方で、顔が曲線的であるが、大人っぽい印象を受ける(例えば、おでこが狭い、両目の間隔が狭い)場合には、V12「フェミニン系」が特定される。また、顔が直線的(例えば、輪郭が骨ばっている、鼻筋が通っている、目が切れ長)であるが、幼い印象を受ける場合には、V13「カジュアル系」と特定される。一方で、顔が直線的であり、かつ、大人っぽい印象を受ける場合には、V14「ハンサム系」と特定される。ただし、利用者Uについて候補となる第1タイプV1の個数は任意である。
上述した通り、第1タイプV1毎に対応する複数(4個)の相異なる顔タイプHaが存在する。各第1タイプV1に対応する4個の顔タイプHaは、当該第1タイプV1が示す利用者Uの印象をさらに詳細に分類したタイプである。例えば、V11「ガーリー系」については、「ガーリー系」の中でも明るい印象が強い顔タイプHa1、柔らかい印象が強い顔タイプHa2、かわいらしい印象が強い顔タイプHa3、および、凛とした印象が強い顔タイプHa4といった4個の相異なる顔タイプHaが対応する。各第1タイプV1に対応する4個の顔タイプHaは、例えば、顔の各パーツの大きさ・形状・位置や輪郭といった顔の特徴を相対的に比較して分類したタイプとも換言できる。
第2処理部52は、第1実施形態と同様に、第2情報D2に応じた関連情報を取得する。ただし、第1実施形態では、関連情報として第2タイプV2を例示したが、第6実施形態では、第2情報D2そのものを関連情報として例示する。
第2情報D2は、第1実施形態と同様に、外見問診に対する回答である。第6実施形態の第2情報D2は、複数(N個)の外見問診についてそれぞれ対応する複数(N個)の回答を含む。
第2実施形態の外見問診では、外見の特徴についての各種の問診が含まれる。例えば、顔に関する外見の特徴を自身が具体的に判断する問診(例えば、目の形状・大きさ、鼻の高さ、輪郭のタイプなど、顔のバランス)、顔に関する外見の特徴から自身が感じる印象についての問診(例えば、きれい系orかわいい系、子供顔or大人顔、男顔or女顔)、顔に関する外見から他人に言われる印象についての問診(例えば、きれいorかわいい)などが外見問診として例示される。
図18は、第6実施形態において、利用者Uに提示される複数の外見問診Qの模式図である。第6実施形態では、第1処理部51が特定した第1タイプV1毎にN(図18ではN=3の場合を例示)個の外見問診Qが提示される場合を例示する。そして、第1タイプV1毎に提示されるN個の外見問診Qの組み合わせは異なる。第1処理部51が特定した第1タイプV1に応じて、N個の外見問診Qの組み合わせが特定される。
具体的には、第1処理部51が特定した第1タイプV1に応じて、事前に準備された複数(K個:KはNより大きい整数)の外見問診QからN個の外見問診Qが特定される。図18に例示される通り、各第1タイプV1について事前にN個の外見問診Qの組み合わせが設定される。各第1タイプV1には、当該第1タイプV1が表す利用者の印象をさらに細分化させるための(すなわち顔タイプHaを特定するための)N個の外見問診Qが設定される。そして、第1処理部51が特定した第1タイプV1に対応するN個の外見問診Qの組み合わせが特定される。
なお、所定の第1タイプV1と他の第1タイプV1との間において、N個の外見問診Qの一部または全部が重複してもよい。また、各第1タイプV1において特定される外見問診Qの個数が相違してもよい。
図18に例示される通り、各外見問診Qには、当該外見問診Qに対する回答の候補となる複数の選択肢Aが用意される。選択肢Aの個数は任意である。例えば、外見問診Q1が「目の大きさは?」である場合には、選択肢A11「大きい」、選択肢A12「小さい」、および、選択肢A13「普通」が用意される。
第3処理部53は、第1処理部51が利用者Uについて特定した第1タイプV1と、第2処理部52が取得した関連情報(複数の外見問診Qにそれぞれ対応する複数の回答)との組み合わせに応じて、複数の第3タイプのうち利用者Uに応じた顔タイプHaを特定する。
顔タイプHaの特定には、図19に例示されるテーブルT6が利用される。テーブルT6は、複数の第1タイプV1の各々について、当該第1タイプV1と複数の外見問診Qのそれぞれについての回答との組み合わせ(以下「特定組合せ」という)を登録したデータテーブルである。4つの第1タイプV1の各々について、3個の外見問診Qのそれぞれについて回答Aの候補である3個の選択肢が準備されている場合には、108(=4×27)個の特定組合せがある。各特定組合せについて、複数の顔タイプHaのうちの何れかが対応付けられる。なお、各第1タイプV1における特定組合せ(27個)については、共通する顔タイプHaが対応付けられる場合もある。
図20は、第6実施形態に係る情報処理システム100および端末装置200の動作の手順を例示するフローチャートである。図7と同様に、例えば、端末装置200の利用者Uからの顔タイプHaの特定の開始の指示を契機として図20の処理が開始される。
端末装置200の制御装置21は、利用者Uの第1情報D1(正面画像)を通信装置23により情報処理システム100に送信する(SB1)。情報処理システム100の受信制御部111は、端末装置200から送信された第1情報D1を通信装置15により受信する(SB2)。
第1処理部51は、第1情報D1から利用者Uの第1タイプV1を特定する(SB3)。制御装置11は、第1処理部51が特定した第1タイプV1に応じて外見問診Qを特定する(SB4)。第6実施形態では、第1処理部51が特定した第1タイプV1に応じて、事前に用意されたK個の外見問診QからN個の外見問診Qの組み合わせが特定される。送信制御部113は、特定したN個の外見問診Qと、当該各外見問診Qに対する回答Aとなる複数の選択肢とを端末装置200に送信する(SB5)。具体的には、N個の外見問診Qの各々について、外見問診Qを表す画像と、当該外見問診Qの回答Aの候補となる複数の選択肢とを表す画像とを含む特徴画像が端末装置200に送信される。
端末装置200は、特定したN個の外見問診Qと、当該各外見問診Qに対する回答Aとなる複数の選択肢とを受信する(SB6)。端末装置200の表示装置24は、特徴画像を表示する。利用者Uは、各外見問診Qについて回答Aを選択する。端末装置200の制御装置21は、各外見問診Qの回答Aを第2情報D2として通信装置23により情報処理システム100に送信する(SB7)。すなわち、第2情報D2は、N個の外見問診Qのそれぞれに対するN個の回答Aを含む。
情報処理システム100の第2処理部52は、端末装置200から送信された第2情報D2を通信装置15により受信する(SB8)。すなわち、第2処理部52は、第2情報D2を取得する。
第3処理部53は、第1処理部51が特定した第1タイプV1と、第2特定部52が特定した第2情報D2(複数の回答A)との組み合わせに応じて、利用者Uの顔タイプHaを特定する(SB9)。具体的には、図19のテーブルT6において、第1処理部51が特定した第1タイプV1と、第2特定部52が取得した第2情報D2とに対応付けられた顔タイプHaが利用者Uの顔タイプHaとして特定される。利用者の顔タイプHaを特定した後におけるステップSA4~SA7の処理は、図7と同様である。なお、ステップSB9の処理は、第2情報D2に含まれる複数の回答Aの組み合わせに応じて、第1処理部51が特定した第1タイプV1に分類される2以上(第6実施形態では4個)の顔タイプHaのうち利用者Uの顔タイプHaを特定する処理であるとも換言できる。
ここで、正面画像から特定した第1タイプのみで顔タイプHaを特定する構成(以下「比較例」という)では、正面画像から正確には把握できない外見の特徴が顔タイプHaの特定に加味されないという問題がある。
それに対して、第6実施形態では、正面画像から正確には把握できない外見の特徴に関する問診を外見問診Qとして設定することが可能である。そして、第1タイプV1と外見問診Qに対する回答Aとの組み合わせに応じて顔タイプHaが特定される。すなわち、外見問診Qの回答Aも加味して顔タイプHaを特定することが可能である。したがって、第6実施形態では、比較例と比較して、利用者の顔タイプHaを高精度に特定することができる。なお、正面画像から正確には把握できない外見の特徴に関する問診には、例えば、例えば自身が他者との比較で感じる主観的な印象や他者が利用者に感じる客観的な印象に関する問診や、横顔の特徴(例えば鼻の高さなど)に関する問診などがある。
また、第6実施形態では、第1処理部51が特定した第1タイプV1に応じて、K個の外見問診QからN個の外見問診Qが特定される。例えば、第1処理部51が特定した第1タイプV1に関わらず、共通のN個の外見問診Qが特定される構成では、相異なる特徴を表す第1タイプV1毎に適切なN個の外見問診Qが設定できない可能性がある。
それに対して、第6実施形態では、相異なる特徴を表す第1タイプV1毎に適切なN個の外見問診Qが設定できる。例えば、V11「ガーリー系」を細分化するにあたって目の大きさを重要視する場合には、目の大きさに関する外見問診Qを利用者に提示することができる。ひいては、利用者Uに適切な顔タイプHaが特定できるという利点がある。ただし、第1処理部51が特定した第1タイプV1に関わらず、共通の複数の外見問診Qが特定される構成も本発明には包含される。
第6実施形態の構成において、第3処理部53が特定した顔タイプHaとともに、第1処理部51が特定した第1タイプV1を利用者Uに提示(端末装置200に送信)してもよい。また、複数の第1タイプV1のうち利用者Uが該当する可能性が高い2個以上の第1タイプV1を利用者Uに提示してもよい。表示装置24は、例えば、該当する可能性が最も高い第1タイプV11「ガーリー系(78%)」と、次に該当する可能性が高い第1タイプV14「ハンサム系(14%)」とを表示する。なお、可能性(%)については、学習済モデルにおいて各第1タイプV1について特定される尤度に応じて設定される。
なお、第6実施形態の構成は、身体タイプを特定する場合にも適用し得る。また、第6実施形態では、複数(3個)の外見問診Qを提示する構成を例示したが、提示する外見問診の個数は1個でもよい。
<第7実施形態>
第7実施系形態では、利用者Uについて第3処理部53が特定した顔タイプHa(以下「第1顔タイプHa」と表記する)に加えて、利用者Uが所望する顔タイプHa(以下「第2顔タイプHa」と表記する)を特定する。第1顔タイプHaと第2顔タイプHaとは異なる顔タイプHaである。すなわち、第2顔タイプHaは、複数の顔タイプHaのうち第3処理部53が特定した顔タイプHaとは異なる顔タイプHaである。第1顔タイプHaが現状の利用者Uの外見の特徴を反映した顔タイプHaであるのに対して、第2顔タイプHaは利用者Uが憧れる外見の特徴を表す顔タイプHaである。
第7実施系形態の制御装置11は、図4に例示する要素(111,113,115,117)に加えて、特定部を具備する。
特定部は、第2顔タイプHaを特定する。具体的には、特定部は、利用者Uが所望(願望)する外見の特徴に関する問診(以下「願望問診」という)に対する回答と、第1顔タイプHaとに応じて、複数の顔タイプHaから第2顔タイプHaを特定する。
願望問診は、例えば他者からみられて嬉しい印象に関する問診(若々しいor大人っぽい)、言われて嬉しい印象に関する問診(かっこいいor可愛い)、憧れる芸能人に関する問診(芸能人名○○or芸能人名××)などが該当する。図21には、2つの願望問診J(J1,J2)のそれぞれについて、当該願望問診Jに対する回答Bの候補となる複数(3つ)の選択肢が用意された場合を例示する。
特徴画像と同様に、複数の願望問診Jの各々について、当該願望問診Jを表す画像と当該願望問診Jに対する回答Bの候補となる複数の選択肢を表す画像とを含む画像(以下「願望画像」という)が
端末装置200に送信される。
端末装置200の表示装置24は、願望画像を表示する。利用者Uが各願望問診Jについて回答Bを選択すると、当該回答Bが情報処理システム100に送信される。
情報処理システム100の特定部は、端末装置200から送信された複数の願望問診Jにそれぞれ対する複数の回答Bと、第1顔タイプHaとの組み合わせに応じて、複数の顔タイプHaから第2顔タイプHaを特定する。
第2顔タイプHaの特定には、図22のテーブルT7が利用される。テーブルT7は、各顔タイプHa(第1顔タイプHaの候補となる顔タイプHa)について、複数の願望問診Jのそれぞれについて選択される回答Bの組み合わせを登録したデータテーブルである。そして、各回答Bの組み合わせ毎に、第2顔タイプHaとして特定される顔タイプHaが対応付けられる。
特定部は、テーブルT7において、第1顔タイプHaとして特定された顔タイプHaと願望問診Jに対する回答Bの組み合わせとに対応付けられた顔タイプHaを、利用者Uの第2顔タイプHaとして特定する。したがって、第1顔タイプHaに自身が所望する外見の特徴を加味した第2顔タイプHaが特定される。
さらに、第2顔タイプHaが利用者Uの顔タイプHaとして合致しているかの度合い(以下「マッチ度」という)を特定して、利用者Uに提示してもよい。マッチ度は、例えば、第1顔タイプHaが表す特徴と第2顔タイプHaが表す特徴との類似度を加味して特定される。顔タイプHaの特徴とは、例えば、顔が曲線的であるか直線的であるか、幼い印象であるか大人っぽい印象であるか、顔のパーツの大きさ・形状・位置などの各種の特徴である。第1顔タイプHaが表す特徴と第2顔タイプHaが表す特徴との類似度が高い場合(すなわち共通する特徴が多い場合)には、マッチ度が高く特定され、当該類似度が低い場合(すなわち共通する特徴が少ない場合)にはマッチ度は低く特定される。
端末装置200の表示装置24は、第1顔タイプHaに加えて第2顔タイプHaも表示する。なお、情報処理システム100が願望画像を端末装置200に送信するタイミングは、任意である。例えば、第6実施形態の構成では、特徴画像とともに願望画像が端末装置200に送信され、端末装置100から第2情報D2とともに願望情報が情報処理システム100に送信される。
第7実施形態において、利用者Uの顔タイプHaを特定する方法は、第1タイプV1と関連情報との組み合わせに応じて特定される方法には限定されない。例えば、第3処理部53は、複数の顔タイプHaのうち利用者の外見に関する特徴を表す情報(例えば第1情報D1または第2情報D2の何れか一方)に応じて利用者の顔タイプHaを特定してもよい。
なお、第7実施形態の構成は、身体タイプを特定する場合にも適用し得る。
<変形例>
以上に例示した各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を適宜に併合することも可能である。
(1)前述の各形態において、商品情報Pの特定には、顔タイプHaおよび身体タイプHb以外に各種の情報を加味してもよい。例えば、利用者Uの年齢、衣類に関する好み、または、衣類のサイズなどの情報が加味される。また、例えば、利用者Uに似合うと推測される色彩のタイプ(いわゆるパーソナルカラー)を特定し、当該タイプを加味して商品情報Pを特定してもよい。利用者Uに似合うと推測される色彩のタイプは、例えば、利用者の正面画像(第1情報D1)から特定される。身体タイプHbの特定についても同様に身体タイプHb以外の各種の情報が加味される。
(2)前述の各形態では、衣類を商品として商品情報Pを特定したが、商品の例示は衣類に限定されない。例えば、眼鏡、アクセサリーまたは靴等の各種の商品に関する商品情報Pを特定してもよい。なお、商品は、利用者Uが着用する商品には限定されない。
(3)前述の各形態において、情報処理システム100は、商品情報Pを送信せずに、第1解析部115が特定した結果(顔タイプHaや身体タイプHb)を表す情報を端末装置200に送信してもよい。すなわち、商品情報Pを送信しない構成も採用され得る。
(4)前述の各形態において、商品特定部117は、利用者Uが指定した条件(例えば商品の種類、サイズ、色、または価格帯等)のもとで商品情報Pを特定してもよい。例えば、商品特定部117は、利用者Uが事前に指定した条件に合致する(または近似する)商品であり、第1解析部115が特定した顔タイプHaに応じた商品に関する商品情報Pを特定する。
(5)ECサイト上で販売する複数の商品から利用者が所望する商品の絞り込みに顔タイプHa(または身体タイプHb)を利用してもよい。具体的には、利用者Uは、複数の顔タイプHaのうちの何れか(典型的には自身について特定された顔タイプHa)を選択すると、当該選択した顔タイプHaに対応する商品の商品情報Pが表示装置24に表示される。
(6)前述の各形態において、特定の利用者(以下「特定利用者」という)については、商品特定部117が特定した顔タイプHa(身体タイプHb)を記憶装置13に記憶する構成が好適である。特定利用者は、例えばECサイトを運営する会社の実店舗のスタッフや当該会社と提携して宣伝を行うインフルエンサーなどである。以上の構成では、例えば、利用者Uについて特定された顔タイプHaと同じ顔タイプHaが登録された特定利用者に関する各種の情報(例えば特定利用者のコーディネート)を利用者Uに提示してもよい。また、特定利用者と当該特定利用者の顔タイプHaと当該特定利用者に関する各種の情報とを対応付けて端末装置200において表示してもよい。
(7)前述の各形態において、情報処理システム100が特定した顔タイプHa(身体タイプHb)を利用者Uの端末装置100で表示をしたが、情報処理システム100において顔タイプHa(身体タイプHb)を表示してもよい。例えば、実店舗において設置される電子看板(例えばデジタルサイネージ)や情報端末(例えばタブレット)等において、顔タイプHa(身体タイプHb)を特定するための各種情報(D1~D3)の入力を受け付け、顔タイプHa(身体タイプHb)の特定および表示を行ってもよい。以上の構成においては、電子看板や情報端末が情報処理システム100として機能する。
(8)前述の各形態において、店舗における利用者Uの行動を示す情報(以下「行動情報」という)を、利用者Uにおいて特定された顔タイプHa(身体タイプHb)に対応付けて登録する登録部を情報処理システム100が具備してもよい。情報処理システム100の記憶装置13は、行動情報と顔タイプHa(身体タイプHb)とを対応付けたデータテーブル(行動テーブル)を記憶する。登録部は、行動テーブルに行動情報と顔タイプHa(身体タイプHb)とを登録する。
店舗には、実店舗とWebサイトにおけるネットショップとの双方が包含される。以下、所定のブランドMにおける実店舗とWebサイトとを想定する。当該Webサイトのサービスの一部として、前述の各形態における顔タイプHa(身体タイプHb)の特定が可能である。
実店舗においては、例えば、実店舗内に設置された情報処理システム100において利用者Uが顔タイプHa(身体タイプHb)を特定する。例えば、利用者Uの行動について実店舗内のカメラで追跡する。実店舗の場合には、例えば、実際に購入した商品、実店舗内に所在した時間、実店舗内での位置(移動の軌跡)、および、試着をした商品、手に取った商品など利用者Uの行動に関する各種の情報が行動情報として例示される。例えば、情報処理システム100は、カメラで記録された内容から行動情報を生成する。
また、利用者UがブランドMについての会員登録をしている場合には、会員登録の情報(会員情報)を利用して行動情報と顔タイプHaとを対応付けて登録してもよい。例えば、利用者Uが実店舗に訪問する以前にブランドMのWebサイトから会員登録および顔タイプHa(会員情報と紐づけて登録済)の特定を既に行っている場合には、実店舗における行動情報を、会員情報を利用して行動テーブルに登録してもよい。例えば、商品購入時における会員情報(例えばブランドMのアプリケーションにおける会員証)の提示により、購入した商品(行動情報)と顔タイプHaとを行動テーブルに記録することも可能である。
一方で、Webサイトにおいては、実際に購入した商品、Webサイト内で閲覧したページ(商品)、および、Webサイトに所在した時間などの各種の情報が行動情報として例示される。既に利用者UがブランドMについての会員登録および顔タイプHaの特定をしている場合には、当該会員情報を利用して顔タイプHaと行動情報とが対応付けられる。会員情報をせずに顔タイプHaの特定のみを行っている場合には、当該顔タイプHaに行動情報が対応付けられる。
なお、行動情報を生成する装置は、情報処理システム100であってもよいし、別個の装置であってもよい。また、行動テーブルを記憶する装置は、情報処理システム100(顔タイプHaを特定する装置)とは別個の装置であってもよい。
以上の構成においては、顔タイプHa(身体タイプHb)を特定する方法は、前述の各形態の例示には限定されない。すなわち、外見の特徴を表す複数の第3タイプのうち利用者について特定された第3タイプと、店舗における当該利用者の行動を示す情報とを対応付けて登録する情報収集システムの発明としても観念できる。
(8)第6実施形態の構成は、外見の特徴を表す複数の第3タイプのうち利用者に応じた第3タイプ(顔タイプHaまたは身体タイプHb)を特定する方法であって、利用者の画像を含む第1情報から、複数の第3タイプを分類した2以上の第1タイプのうち前記利用者に応じた第1タイプを特定する第1処理部と、前記利用者の外見の特徴を表す第2情報に応じた関連情報を取得する第2処理部と、前記第1処理部が特定した前記第1タイプに分類される2以上の第3タイプのうち、前記関連情報に応じて前記利用者に応じた第3タイプを特定する第3処理部とを具備する情報処理システムの発明としても包含される。そして、関連情報は、複数(N個)の外見問診にそれぞれ対する複数(N個)の回答を含む第2情報であり、第3処理部は、当該複数の回答の組み合わせに応じて第3タイプを特定する構成が好ましい。
(9)前述の各形態において、情報処理システム100はサーバー装置である構成を例示したが、利用者Uの端末装置200に情報処理システム100の機能を搭載してもよい。また、情報処理システム100の機能の一部を端末装置200に搭載してもよい。例えば、第1解析部115を端末装置200に搭載する構成なども想定される。以上の構成では、端末装置200は、第1情報D1および第2情報D2を情報処理システム100に送信する代わりに、特定した顔タイプHaを情報処理システム100に送信する。以上の説明から理解される通り、情報処理システム100は、単独の装置であっても複数の装置から構成されるコンピュータシステムであってもよい。
(10)前述の形態に係る情報処理システム100は、コンピュータ(具体的には制御装置11)とプログラムとの協働により実現される。前述の形態に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を含み得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに提供することも可能である。
また、本発明は、利用者を含む画像から、外見の特徴を表す複数のタイプのうち利用者Uに応じたタイプを特定し、特定したタイプに応じて利用者Uに提示する商品に関する商品情報Pを特定するコンピュータにより実現される情報処理方法としても特定される。
11 :制御装置
13 :記憶装置
15 :通信装置
21 :制御装置
22 :記憶装置
23 :通信装置
24 :表示装置
25 :撮像装置
100 :情報処理システム
111 :受信制御部
113 :送信制御部
115 :第1解析部
116 :第2解析部
117 :商品特定部
51 :第1処理部
52 :第2処理部
53 :第3処理部
200 :端末装置
300 :通信網
100 :情報処理システム
D1 :第1情報
D2 :第2情報
D3 :第3情報
Ha :顔タイプ
Hb :身体タイプ
K :商品画像
M :学習済モデル
P :商品情報
U :利用者

Claims (25)

  1. 利用者の画像を含む第1情報から、外見の特徴を表す複数の第1タイプのうち前記利用者に応じた第1タイプを特定する第1処理部と、
    前記利用者の外見の特徴を表す第2情報に応じた関連情報を取得する第2処理部と、
    前記第1処理部が特定した第1タイプと前記第2処理部が取得した関連情報との組み合わせに応じて、外見の特徴を表す複数の第3タイプのうち前記利用者に応じた第3タイプを特定する第3処理部と
    を具備する情報処理システム。
  2. 前記第2情報は、前記利用者の外見の特徴に関する問診に対する回答を含み、
    前記関連情報は、前記第2情報そのものである
    請求項1の情報処理システム。
  3. 前記問診は、前記第1処理部が特定した第1タイプに応じて複数の問診から特定される
    請求項2の情報処理システム。
  4. 前記複数の第3タイプの各々は、前記複数の第1タイプの各々を細分化した小分類である
    請求項1の情報処理システム。
  5. 前記利用者が所望する外見の特徴に関する問診に対する回答と、前記第3処理部が特定した第3タイプとに応じて、前記複数の第3タイプのうち前記第3処理部が特定した第3
    タイプとは異なる第3タイプを特定する特定部を具備する
    請求項1の情報処理システム。
  6. 前記関連情報は、利用者の外見の特徴を表す複数の第2タイプのうち前記利用者に応じた第2タイプである
    請求項1の情報処理システム。
  7. 前記画像は、前記利用者の正面を含む画像であり、
    前記第2情報は、前記利用者の側面に関する外見の特徴を表す情報である
    請求項6の情報処理システム。
  8. 前記正面は、顔の正面であり、
    前記側面は、顔の側面である
    請求項7の情報処理システム。
  9. 前記第2情報は、前記利用者の側面を含む画像を含む
    請求項7の情報処理システム。
  10. 前記第2情報は、前記利用者の側面に関する外見の特徴についての問診に対する回答を含む
    請求項7の情報処理システム。
  11. 前記第1処理部は、前記第1情報を学習済モデルに入力した結果に応じて、前記利用者に応じた第1タイプを特定する
    請求項1の情報処理システム。
  12. 前記第3処理部が特定した第3タイプに応じて、前記利用者に提示する商品に関する商品情報を特定する商品特定部を具備する
    請求項1の情報処理システム。
  13. 前記商品特定部は、前記第3処理部が特定した第3タイプに応じて、前記利用者にレコメンドする第1商品に関する商品情報を特定する
    請求項12の情報処理システム。
  14. 前記第1商品は、前記第3処理部が特定した第3タイプと同様の第3タイプが特定された他の利用者が過去に購入した商品である
    請求項13の情報処理システム。
  15. 前記第1商品は、前記複数の第3タイプの何れかがそれぞれ対応付けられた複数の商品のうち、前記第3処理部が特定した第3タイプが対応付けられた商品である
    請求項13の情報処理システム。
  16. 前記利用者の身体を含む画像を含む情報から、身体に関する外見の特徴を表す複数の第4タイプのうち前記利用者に応じた第4タイプを特定する第4処理部を具備し、
    前記第3処理部が特定した第3タイプと、前記第4処理部が特定した第4タイプとに応じて、前記利用者に提示する商品に関する商品情報を特定する商品特定部を具備する
    請求項7の情報処理システム。
  17. 前記商品は、衣類である
    請求項12の情報処理システム。
  18. 前記第3処理部が前記利用者について特定した第3タイプと、店舗における前記利用者の行動を示す行動情報とを対応付けて登録する登録部を具備する
    請求項1の情報処理システム。
  19. 利用者の画像を含む第1情報から、外見の特徴を表す複数の第1タイプのうち前記利用者に応じた第1タイプを特定する第1処理部と、
    前記利用者の外見の特徴を表す第2情報に応じた関連情報を取得する第2処理部と、
    前記第1処理部が特定した第1タイプと前記第2処理部が取得した関連情報との組み合わせに応じて、外見の特徴を表す複数の第3タイプのうち前記利用者に応じた第3タイプを特定する第3処理部と、
    前記第3処理部が特定した第3タイプに応じて、前記利用者にレコメンドしない第2商品に関する商品情報を特定する商品特定部とを具備する
    情報処理システム。
  20. 前記商品特定部は、前記第3処理部が特定した第3タイプに応じて、前記利用者に提示する商品に関する商品情報を特定し、
    前記利用者にレコメンドしない第2商品に関する商品情報は、前記利用者の端末装置の表示装置において、前記利用者にレコメンドする第1商品に関する商品情報とともに表示される
    請求項19の情報処理システム。
  21. 利用者の画像を含む第1情報と、前記利用者の外見の特徴を表す第2情報とを学習済モデルに入力することで、外見の特徴を表す複数のタイプのうち前記利用者に応じたタイプを特定する第1解析部を具備し、
    前記学習済モデルは、人物の画像を含む第1情報および前記人物の外見の特徴を表す第2情報と、前記人物の外見の特徴を表すタイプとの関係を学習したモデルである
    情報処理システム。
  22. コンピュータが実行する方法であって、
    利用者の画像を含む第1情報から、外見の特徴を表す複数の第1タイプのうち前記利用者に応じた第1タイプを特定し、
    前記利用者の外見の特徴を表す第2情報に応じた関連情報を取得し、
    前記特定された第1タイプと前記取得された関連情報との組み合わせに応じて、外見の特徴を表す複数の第3タイプのうち前記利用者に応じた第3タイプを特定する
    情報処理方法。
  23. 利用者の画像を含む第1情報から、外見の特徴を表す複数の第1タイプのうち前記利用者に応じた第1タイプを特定する第1処理部、
    前記利用者の外見の特徴を表す第2情報に応じた関連情報を取得する第2処理部、および、
    前記第1処理部が特定した第1タイプと前記第2処理部が取得した関連情報との組み合わせに応じて、外見の特徴を表す複数の第3タイプのうち前記利用者に応じた第3タイプを特定する第3処理部
    としてコンピュータを機能させるプログラム。
  24. コンピュータが実行する方法であって、
    利用者の画像を含む第1情報と、前記利用者の外見の特徴を表す第2情報とを学習済モデルに入力することで、外見の特徴を表す複数のタイプのうち前記利用者に応じたタイプを特定し、
    前記学習済モデルは、人物の画像を含む第1情報および前記人物の外見の特徴を表す第2情報と、前記人物の外見の特徴を表すタイプとの関係を学習したモデルである
    情報処理方法。
  25. 利用者の画像を含む第1情報と、前記利用者の外見の特徴を表す第2情報とを学習済モデルに入力することで、外見の特徴を表す複数のタイプのうち前記利用者に応じたタイプを特定する第1解析部としてコンピュータを機能させ、
    前記学習済モデルは、人物の画像を含む第1情報および前記人物の外見の特徴を表す第2情報と、前記人物の外見の特徴を表すタイプとの関係を学習したモデルである
    プログラム。
JP2022076233A 2021-05-07 2022-05-02 情報処理システム、情報処理方法およびプログラム Active JP7378743B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021079195 2021-05-07
JP2021079195 2021-05-07

Publications (2)

Publication Number Publication Date
JP2022173137A JP2022173137A (ja) 2022-11-17
JP7378743B2 true JP7378743B2 (ja) 2023-11-14

Family

ID=84045733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022076233A Active JP7378743B2 (ja) 2021-05-07 2022-05-02 情報処理システム、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7378743B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108287A (ja) 2008-01-21 2008-05-08 Rei Take ファッションアドバイジングシステム
US20180181797A1 (en) 2016-12-23 2018-06-28 Samsung Electronics Co., Ltd. Electronic apparatus and operation method thereof
JP2020071852A (ja) 2018-11-02 2020-05-07 深和パテントサービス株式会社 情報処理装置、情報処理システム、学習装置、学習済の推定モデル、および学習用データの収集方法
JP2020166454A (ja) 2019-03-29 2020-10-08 千恵 高木 ファッションタイプ診断システム、ファッションタイプ診断方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112703286A (zh) * 2018-09-12 2021-04-23 Lg电子株式会社 衣物登记装置和衣物推荐装置及包括这些装置的线上系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108287A (ja) 2008-01-21 2008-05-08 Rei Take ファッションアドバイジングシステム
US20180181797A1 (en) 2016-12-23 2018-06-28 Samsung Electronics Co., Ltd. Electronic apparatus and operation method thereof
JP2020071852A (ja) 2018-11-02 2020-05-07 深和パテントサービス株式会社 情報処理装置、情報処理システム、学習装置、学習済の推定モデル、および学習用データの収集方法
JP2020166454A (ja) 2019-03-29 2020-10-08 千恵 高木 ファッションタイプ診断システム、ファッションタイプ診断方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Wan-Yu Chen, Jia-Lin Chen, Liang-Gee Chen,On-the-fly Fashion Photograph Recommendation System with Robust Face Shape Features,2014 IEEE intenational Conference on Consumer Electronics,IEEE,2014年03月20日,502~503ページ,DOI: 10.1109/ICCE.2014.6776105

Also Published As

Publication number Publication date
JP2022173137A (ja) 2022-11-17

Similar Documents

Publication Publication Date Title
US11501363B2 (en) 3D platform for aesthetic simulation
CN107704834B (zh) 微表情面审辅助方法、装置及存储介质
JP2022008583A (ja) 反射を利用する拡張現実システムおよび方法
US11538068B2 (en) Sentiments based transaction systems and methods
KR20190049555A (ko) 인공지능 기술을 이용해 광고 및 상품 구매에 관한 서비스를 제공하는 장치, 시스템, 및 방법
US20120164613A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090118593A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
JP7036149B2 (ja) 情報処理システム、および制御方法
US20090119154A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090132275A1 (en) Determining a demographic characteristic of a user based on computational user-health testing
US20150186912A1 (en) Analysis in response to mental state expression requests
WO2015122195A1 (ja) 印象分析装置、ゲーム装置、健康管理装置、広告支援装置、印象分析システム、印象分析方法、プログラム、及びプログラム記録媒体
JP7263825B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP2017120595A (ja) 化粧料の塗布状態の評価方法
JP7378743B2 (ja) 情報処理システム、情報処理方法およびプログラム
CN113095839A (zh) 认证方式的推荐方法、装置、设备及存储介质
JP6724090B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP7259370B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
Bradtmiller 3D scanning and head-mounted products
WO2019220751A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JPWO2020116069A1 (ja) 情報処理装置、及び、プログラム
JP7365384B2 (ja) 情報処理装置、方法およびプログラム
CN110458647A (zh) 产品推送方法、装置、计算机设备及存储介质
NL1037996C2 (en) Computer programme as well as a computer and a computer system comprising such a computer programme, as a result of which computer programme the computer and the computer system are suitable for receiving and processing visual material in a stuctured way and for generating and sending a report desired by the user in the field of partner selection and/or model selection.
JP6360218B2 (ja) 情報処理装置及び方法

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20220607

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221124

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231024

R150 Certificate of patent or registration of utility model

Ref document number: 7378743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150