JP2019102068A - ユーザの身体的特徴に基づいた推薦システム - Google Patents

ユーザの身体的特徴に基づいた推薦システム Download PDF

Info

Publication number
JP2019102068A
JP2019102068A JP2018202393A JP2018202393A JP2019102068A JP 2019102068 A JP2019102068 A JP 2019102068A JP 2018202393 A JP2018202393 A JP 2018202393A JP 2018202393 A JP2018202393 A JP 2018202393A JP 2019102068 A JP2019102068 A JP 2019102068A
Authority
JP
Japan
Prior art keywords
user
face
model
product
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018202393A
Other languages
English (en)
Other versions
JP6857638B2 (ja
Inventor
ドミトリー・コーニロフ
KORNILOV Dmitry
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ditto Technologies Inc
Original Assignee
Ditto Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ditto Technologies Inc filed Critical Ditto Technologies Inc
Publication of JP2019102068A publication Critical patent/JP2019102068A/ja
Application granted granted Critical
Publication of JP6857638B2 publication Critical patent/JP6857638B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザの身体的/バイオメトリック特徴に基づいた推薦システムを提供する。【解決手段】推薦システムにおいて、ユーザの画像に少なくとも部分的に基づいて、ユーザの身体的特徴を決定するよう構成されたプロセッサを備える。プロセッサは、ユーザ間の類似度(類似する顔の3D表面など)またはユーザへの商品のフィットに基づいて身体的特徴と商品との間の相関を決定し、決定された相関に少なくとも部分的に基づいて商品推薦を生成する。【選択図】図1

Description

衣料品およびアクセサリ(眼鏡など)の購入に関心のある人は、通常、本人が直接店舗を訪れて、商品が良好にフィットするかどうかを確かめるために試着する必要がある。衣類およびアクセサリは、通例、機能的および審美的な目的の両方を持っており、それらは選択プロセスに影響しうる。商品を見て回り試着するのには時間がかかる場合があり、その時ほとんどは、商品の適合性について事前の知識がない。個人向けのスタイリストは、商品を提案することによって決定プロセスを支援しうる。しかしながら、個人向けのスタイリストは、自身のバイアスと、利用可能な在庫品について比較的狭い範囲に精通していることによって、制限を受ける。従来の商品推薦アルゴリズムは、通例、単純であり、ユーザの閲覧履歴の原始的な評価に基づいて提案を与えるものである。
以下の詳細な説明と添付の図面において、本発明の様々な実施形態を開示する。
ユーザの画像に基づいて商品を推薦するための処理の一実施形態を示すフローチャート。
ユーザの身体的特徴に基づいて推薦を行うためのシステムの一実施形態を示すブロック図。
ユーザの身体的特徴に基づいて推薦を行うためのシステムの一例を示すブロック図。
推薦エンジンの一実施形態を示すブロック図。
ユーザの顔の3Dモデリングのための処理の一実施形態を示すフローチャート。
ユーザの顔の3Dモデリングのための処理の一実施形態を示すフローチャート。
ユーザの顔の3Dモーフィングモデルを生成するための主成分分析への入力および主成分分析からの出力の一例を示す図。
ユーザの顔の1セットの画像から得られた参照点の一例を示す図。
ユーザの顔の1セットの画像から得られた参照点の一例を示す図。
3D空間における所定の3D顔の視覚化の一例を示す図。
推薦の説明を決定するための処理の一実施形態を示すフローチャート。
顔データ採点システムの一実施形態を示すブロック図。
分類器を用いて顔の特徴の特性を決定するための処理の一実施形態を示すフローチャート。
在庫品を閲覧するための商品カタログのグラフィカルユーザインターフェース(GUI)の一例を示す図。
図13AのGUIとのユーザ相互作用に応じて表示された商品を示すGUIの一例を示す図。
図13AのGUIとのユーザ相互作用に応じて表示された商品を示すGUIの一例を示す図。
在庫品を閲覧するための商品カタログのGUIの一例を示す図。
図14AのGUIとのユーザ相互作用に応じて表示されたGUIの一例を示す図。
在庫品を閲覧するための商品カタログのGUIの一例を示す図。
図15AのGUIとのユーザ相互作用に応じて表示されたGUIの一例を示す図。
ユーザの身体的特徴に基づいた推薦の出力を示すGUIの一例を示す図。
本発明は、処理、装置、システム、物質の組成、コンピュータ読み取り可能な格納媒体上に具現化されたコンピュータプログラム製品、および/または、プロセッサ(プロセッサに接続されたメモリに格納および/またはそのメモリによって提供される命令を実行するよう構成されたプロセッサ)を含め、様々な形態で実装されうる。本明細書では、これらの実装または本発明が取りうる任意の他の形態を、技術と呼ぶ。一般に、開示された処理の工程の順序は、本発明の範囲内で変更されてもよい。特に言及しない限り、タスクを実行するよう構成されるものとして記載されたプロセッサまたはメモリなどの構成要素は、ある時間にタスクを実行するよう一時的に構成された一般的な構成要素として、または、タスクを実行するよう製造された特定の構成要素として実装されてよい。本明細書では、「プロセッサ」という用語は、1または複数のデバイス、回路、および/または、コンピュータプログラム命令などのデータを処理するよう構成された処理コアを指すものとする。
以下では、本発明の原理を示す図面を参照しつつ、本発明の1または複数の実施形態の詳細な説明を行う。本発明は、かかる実施形態に関連して説明されているが、どの実施形態にも限定されない。本発明の範囲は、特許請求の範囲によってのみ限定されるものであり、本発明は、多くの代替物、変形物、および、等価物を含む。以下の説明では、本発明の完全な理解を提供するために、多くの具体的な詳細事項が記載されている。これらの詳細事項は、例示を目的としたものであり、本発明は、これらの具体的な詳細事項の一部または全てがなくとも特許請求の範囲に従って実施可能である。簡単のために、本発明に関連する技術分野で周知の技術事項については、本発明が必要以上にわかりにくくならないように、詳細には説明していない。
ユーザの身体的特徴に基づいた推薦システムの実施形態が開示されている。様々な実施形態において、身体的特徴(「バイオメトリック特徴」とも呼ばれる)が決定され、ユーザに適切な商品の推薦を行うために用いられる。身体的特徴は、顔の構造または比率、顔の形、目の色および形、髪の色、皮膚の色、皮膚のパターンなど、ユーザの顔の3D表面を表現しうる。様々な実施形態において、ユーザの身体的特徴は、ユーザの画像に少なくとも部分的に基づいて決定される。身体的特徴と商品との間の相関が決定され、その決定された相関に少なくとも部分的に基づいて、商品推薦が生成される。ユーザの画像は、後に詳述するように、ユーザの正面像、側面像、または、その間の像の静止画またはビデオのフレームであってよい。
身体的特徴と商品との間の相関は、ユーザ間の類似度(類似する顔の3D表面など)またはユーザへの商品のフィットに基づいて決定されてよい。ユーザが報告した2D画像の属性または特性に基づいて推薦を提供する従来のスタイリストまたはフィットアドバイザと異なり、様々な実施形態において、ユーザの顔の3D表面の特徴など体系的に決定された3D身体的特徴に基づいて推薦がなされる。
図1は、ユーザの画像に基づいて商品を推薦するための処理の一実施形態を示すフローチャートである。処理100は、図2のシステム200の1または複数の構成要素上で少なくとも部分的に実施されてよい。いくつかの実施形態において、処理200は、図3の推薦エンジン314によって実行される。
処理は、画像に基づいて身体的特徴を決定する(工程102)。身体的特徴とは、画像の対象物の属性のことである。例えば、ユーザの画像について、身体的特徴は、顔の3D表面、顔の構造または比率、顔の形、目の色、目の形、髪の色、肌の色、肌のパターンなど、顔の特徴を含む。図8Aおよび図8Bに関して詳述するように、目の間の距離、鼻梁から鼻先までの距離などの身体的特徴が、1セットの画像から得られた参照点を抽出することによって測定されうる。様々な実施形態において、画像は、身体的特徴の決定を容易にしうるその他のセンサデータ(深度センサなど)を含む。
画像が、カメラ(図2のクライアントデバイス204に関連するカメラなど)によってキャプチャされてよい。その他のセンサデータが、様々なセンサ(深度センサなど)によってキャプチャされてもよい。いくつかの実施形態では、ユーザの単一の実質的に正面の画像があれば、商品推薦を行うのに十分である。いくつかの実施形態において、異なる角度から撮られたユーザの頭部の画像、ビデオを形成するフレームなど、ユーザの複数の画像が、本明細書で詳述するように、身体的特徴を決定するために用いられる。ユーザが、画像の撮り方の指示を提供されてもよい。例えば、ユーザは、カメラの前に位置して、カメラがビデオフレームをキャプチャする時に頭部を回転させるよう指示されうる。いくつかの実施形態において、ユーザは、左を見た後に右を見るよう指示されてもよい。いくつかの実施形態において、指示は、デモビデオクリップまたはアニメーションの形で提供されてよい。キャプチャされるビデオフレームの数は様々であってよい。カメラは、連続的なビデオまたはスナップショット(例えば、キャプチャ間の遅延を伴う一連の画像)でユーザの頭部をキャプチャするよう、プロセッサによって命令されうる。いくつかの実施形態において、カメラは、連続キャプチャモードでユーザの頭部の画像をキャプチャし、ここで、フレームレートは、ビデオのキャプチャよりも低くてよい。プロセッサは、ローカルであってもよいし、リモート(例えば、サーバ上にある)であってもよい。キャプチャされた画像は、後に詳述するように、対象物の身体的特徴を決定するため、および/または、選択された眼鏡フレームの3Dモデルが配置/試着されるユーザの顔の3Dモデルを決定するために利用できる。
いくつかの実施形態において、身体的特徴は、画像から構築されたユーザの頭部の中間モデルに基づいて決定される。中間モデルは、本明細書で詳述するように、顔の3D表面の顔特徴および頭部比率についての情報をエンコードするベクトルおよびポリゴンによって記述された頭部の3Dモデルであってよい。身体的特徴は、3Dモデルから抽出されてよい。いくつかの実施形態において、3Dモデルは、図3に示す3Dモデルエンジン306によって生成される。
処理は、身体的特徴と商品との間の相関を決定する(工程104)。相関は、顔の特徴の類似度または顔の3D表面における類似度など、ユーザ間の関連性であってよい。相関は、ユーザへの商品のフィットの程度など、ユーザと商品との間の関係性であってもよい。本明細書で用いられるフィットとは、ユーザの顔に眼鏡がどれだけフィットするかなど、機能的なフィットを指しており、それは、快適さ、眼鏡がユーザに提供する視界の質などの要素によって示されうる。本明細書で用いられるフィットとは、ユーザの顔に掛けた眼鏡がどれだけすてきに見えるかなど、審美的なフィットも指しており、目に対するフレームの比率およびその他の顔の比率を点数化することによって示されうる。
処理は、商品を推薦する(工程106)。推薦は、決定された相関に少なくとも部分的に基づいて生成されてよい。様々な実施形態において、推薦は、ディープニューラルネットワーク、コンテンツベースフィルタリング、協調フィルタリング、または、それらの組みあわせを用いて決定される。
コンテンツベースフィルタリングは、他の商品と類似する商品を検索することである。眼鏡の例を用いると、形、色、材料(プラスチックまたはワイヤフレーム)、価格、レンズ処方への適合性などの属性に基づいて、類似度が評価されてよい。互いに対する商品の類似度で検索することにより、共有する属性または類似する属性を持つために他の眼鏡と類似する眼鏡を見つけることができる。或る商品に興味を持っているユーザが、類似の商品に興味を持つ場合もある。
協調フィルタリングは、購入履歴に基づいて商品を見つけることである。第1ユーザが眼鏡A、B、および、Cを購入し、第2ユーザが眼鏡B、C、および、Dを購入したと仮定する。両者とも眼鏡BおよびCを購入しているので、第1ユーザおよび第2ユーザの購入履歴は、互いに類似する。いくつかの実施形態において、このデータの協調フィルタリングは、第1および第2ユーザの好みが似ているので、眼鏡Aを第2ユーザに推薦することができ、眼鏡Dを第1ユーザに推薦することができることを示唆する。
様々な実施形態において、コンテンツベースフィルタリングまたは協調フィルタリングの結果は、他の要素(ユーザの示した嗜好など)に基づいて調整されてもよい。ユーザの肌のトーンと対照的な色のフレームがデフォルトで推薦されるが、そのユーザは、ユーザの肌のトーンと調和する色のフレームを好むと仮定する。推薦は、肌のトーンと調和するフレームへの嗜好をユーザが示唆したことに従って微調整されてよい。ユーザ嗜好情報があれば、ユーザの嗜好とさらに合った商品を推薦するように、推薦システムを更新できる。
一態様において、嗜好は、時と共に変化しうる。例えば、ユーザの嗜好は、スタイルの変化または好みの変化と共に変化しうる。推薦エンジンは、変化を学習して変化に適応することによって、それらの変化に適応できる。
いくつかの実施形態において、商品推薦は、推薦がなされた理由の説明を含む。商品が選択された理由を説明せずに推薦システムがユーザに推薦を提示する従来の技術と対照的に、ここでなされる推薦は、システムが何故どのように選択をしたのかについての事実および説明を含んでもよい。推薦の説明は、図10に示す処理に従ってなされてよい。相関および推薦の処理については、図4に示すシステムに関して本明細書でさらに説明する。
図2は、ユーザの身体的特徴に基づいて推薦を行うためのシステムの一実施形態を示すブロック図である。この例において、システム200は、クライアントデバイス204、ネットワーク206、および、サーバ208を含む。クライアントデバイス204は、ネットワーク206を介してサーバ208と接続される。ネットワーク206は、高速データネットワークおよび/または遠隔通信ネットワークを含みうる。ユーザ202は、本明細書で詳述する方法に従って、推薦を行うのに有用な情報を提供するため、および、推薦を受信するために、クライアントデバイスと相互作用してよい。
クライアントデバイス204は、ユーザ202にユーザインターフェースを提供するよう構成されている。例えば、クライアントデバイス204は、入力を受信してもよいし、クライアントデバイスを持つユーザ202によるユーザ相互作用を観察してもよい。クライアントデバイスによって収集された情報の少なくとも一部に基づいて、推薦がユーザに対して出力される。いくつかの実施形態において、推薦は、本明細書で詳述するようにサーバ208と協働してなされる。
様々な実施形態において、クライアントデバイスは、カメラ、深度センサ、その他のセンサ、または、複数のセンサの組み合わせなどの入力構成要素を備える。カメラは、身体的特徴を決定する元になりうるユーザの画像を観察および/またはキャプチャするよう構成されてよい。ユーザは、本明細書で詳述するように、カメラを作動させるかまたはカメラに向かってポーズを取るよう指示されうる。入力構成要素によって収集された情報は、推薦を行うために利用および/または格納されてよい。
サーバ108は、入力画像から身体的特徴を決定し、身体的特徴と商品との間の相関を決定し、商品を推薦するよう構成されている。サーバは、本明細書で詳述するように、ユーザの画像、商品の画像、ユーザの閲覧の傾向、ユーザプロフィールなど、様々な収集データに基づいて、相関および推薦を行ってよい。ユーザの身体的特徴に基づいて推薦を行うことには、多くの用途がある。ユーザの身体的特徴に基づいて推薦を行う用途の例は、眼鏡、化粧品、宝飾品など、顔に用いるアクセサリの仮想的な試着を含む。
図3は、ユーザの身体的特徴に基づいて推薦を行うためのシステムの一例を示すブロック図である。システム300は、図2のサーバ208に含まれてよい。この例において、システム300は、センサデータストレージ316、商品情報ストレージ312、ユーザ情報ストレージ318、推薦エンジン314、および、出力エンジン312を備える。
センサデータストレージ316は、画像/深度データ、静止画、ビデオのフレーム、および、様々なセンサからの関連データなど、センサデータを格納するよう構成される。センサデータは、様々なユーザに関連してよい。いくつかの実施形態において、画像ストレージは、カメラによって記録されたかまたは他の方法でキャプチャされた画像を格納する。画像の対象物は、(人間の)ユーザなどの対象物であってよい。画像は、例えばユーザプロフィールに関連する特定のユーザまたはユーザグループと関連付けて格納されてよい。センサデータストレージ316に格納された画像は、画像の対象物の身体的特徴を決定するために、本明細書に記載された方法に従ってリトリーブおよび処理されてよい。
商品情報ストレージ312は、在庫品に関する情報を格納するよう構成される。発明者は、購入できる眼鏡フレームなど、ユーザにとって入手可能な1セットの商品を含んでよい。例えば、色、形、サイズなど、商品の特徴が格納されてよい。商品の3Dモデルを表すデジタル表現(頂点の3D座標など)が格納されてもよい。各商品は、1または複数の所定のラベルと共に格納されてよい。本明細書で詳述するように、ラベルは、商品のタイプまたは特徴の記述であり、商品を他の商品とグループ化することを可能にしてよい。眼鏡フレームのラベルの例は、「プラスチック」または「金属」などの物理的属性の特性、もしくは、「学者風」、「まじめ風」、および、「スポーティー」などのスタイル/人間の知覚に基づく分類を含む。
様々な実施形態において、商品売上げ情報が格納されてもよい。売上げは、特定のユーザまたはユーザグループからの商品または商品グループの人気に関連しうる。
ユーザ情報ストレージ318は、特定のユーザに関連する情報を格納するよう構成される。例えば、対象物の物理的特性、過去の購入、嗜好、および、ユーザインターフェースとの相互作用(例えば、ウェブ閲覧)の履歴など、ユーザを記述するユーザプロフィールが格納されてよい。
推薦エンジン314は、センサデータストレージ316、商品情報ストレージ312、および/または、ユーザ情報ストレージ314によって格納された情報の少なくとも一部に基づいて、推薦を行うよう構成される。様々な実施形態において、推薦エンジンは、ユーザの顔または頭部の画像などユーザの画像に少なくとも部分的に基づいて、ユーザの身体的特徴を決定するよう構成される。画像は、クライアントデバイスからリアルタイムで抽出されてよい、および/または、センサデータストレージ316から抽出されてよい。いくつかの実施形態において、身体的特徴は、画像から直接決定される。いくつかの実施形態において、身体的特徴は、3Dモデルまたはユーザの頭部から決定され、ここで、3Dモデルは、本明細書で詳述するように1セットの画像から引き出される。決定された身体的特徴に少なくとも部分的に基づいて、商品推薦が生成される。推薦エンジンは、異なるユーザの物理的特性の類似度および顧客の嗜好の類似度など、いくつかの要素に基づいて、推薦を行うよう構成されてよい。
様々な実施形態において、推薦エンジンは、異なるユーザの身体的特徴の間の類似度に基づいて推薦を行う。例えば、或るユーザが特定の商品を購入するかまたはそれに興味を持った場合に、類似した身体的特徴を持つ別のユーザに同じ商品を推薦することができる。
様々な実施形態において、推薦エンジンは、顧客の嗜好に適応することによって推薦を行う。適応は、リアルタムになされてよい。例えば、ユーザがウェブページをスクロールダウンするかまたは或るウェブページから別のウェブページへ進んだ時に、ユーザに対して表示された推薦が更新されてよい。ユーザがウェブページを閲覧する時に、ユーザに関する情報(商品への反応など)が収集されてよい。いくつかの実施形態において、この情報は、ユーザが後にアクセスすると予測されるコンテンツ(ユーザにはまだ見えていないウェブページの部分など)を更新するために即時に用いられてよい。いくつかの実施形態において、ユーザに関して収集された情報は、ユーザプロフィールと関連付けるなどして後の利用のために格納される。顧客の嗜好に応じたグラフィカルユーザインターフェース(GUI)の更新の例が、図13A〜図13C、図14A、図14B、図15A、および、図15Bに示されている。
いくつかの実施形態において、スタイルのグループ(「スタイルクラスタ」とも呼ぶ)が、ユーザに推薦される。スタイルのグループについてのユーザフィードバックに応じて、スタイルのグループ内の商品が表示されてよい。例えば、学者風スタイルおよびスポーティースタイルの推薦がユーザに対してなされうる。様々な実施形態において、(例えば、電子商取引サイトごとに)個々の商品グループに対してカテゴリが決定される。カテゴリは、商品特性(例えば、材料:金属/プラスチック、スタイル:長方形/楕円形、色、サイズ)を用いて事前に作成されうる。商品特性は、多次元空間を形成し、その中で、クラスタリング技術(例えば、K平均クラスタリング)を適用して商品のクラスタを見出す。次いで、スタイルの専門家が、各クラスタにラベル(様々な実施形態において、人間にわかりやすいもの)を割り当てる:「学者風」、「スポーティー」、「まじめ風」など。クラスタが顧客に提示される時、推薦エンジン(例えば、図3の推薦エンジン314)は、Nサンプルの最もお勧めの眼鏡(例えば、N=30)を選び、どのクラスタがこれらのN個のサンプルを含むかを検索し、スコアに基づいてクラスタを順序付ける。スコアは、例えば、各クラスタ内のNサンプル由来の眼鏡の個数を計算することによって算出され、加重和などに基づいて計算されうる。
ユーザがスポーティーなスタイルを選択した場合、(例えば、本明細書で詳述する方法によって決定されたように)ユーザに合う「スポーティースタイル」グループ内の商品が表示される。スタイルクラスタのラベル(例えば、「学者風」)は、人間またはコンピュータによって作られてよい。一態様において、個々の商品ではなく集約された一部の商品を提示することで、あまりに多くの個々の商品でユーザを圧倒することなしにユーザが1グループの商品に集中して選択することを可能にすることにより、ユーザ体験を向上できる。
推薦エンジンは、経時的に推薦の決定を改善するためにトレーニングされてよい。例えば、良好な推薦は、ユーザが従う傾向のある推薦である。経時的に、推薦エンジンは、ユーザが従う可能性が高い推薦を行うようにトレーニングされてよい。推薦エンジンをトレーニングするための処理の一例を、図12に示す。
出力エンジン312は、出力(推薦など)を提供するよう構成される。出力エンジンは、本明細書で詳述するように、特定の推薦がなされる原因となった要素など、個別の推薦がなされた理由の説明を含んでもよい。出力エンジン312は、クライアントデバイス(例えば、図2のクライアントデバイス204)のユーザインターフェースなど、様々な媒体で出力を提供してよい。
いくつかの実施形態において、システム300は、3Dモデルエンジン306を備える。モーフィングモデルエンジン306は、入力画像から三次元(3D)モデルを生成するよう構成される。様々な実施形態において、3Dモデルエンジンは、1セットの画像からユーザの頭部の3Dモデルを生成するよう構成される。様々な実施形態において、3Dモデルエンジンは、商品の説明または画像から商品の3Dモデルを生成するよう構成される。モーフィングモデルは、本明細書で詳述するように、ユーザの身体的特徴を抽出するために用いられてよい。
3Dモデル(「モーフィングモデル」とも呼ぶ)は、様々な技術に従って生成されてよい。例えば、モデル化されるユーザの顔の入力画像が受信され、入力画像に対応するように統計モデルに入力すべき1セットのパラメータが、オプティカルフローに少なくとも部分的に基づいて決定されたコスト関数を用いて候補パラメータ値を評価することによって生成される。3Dモデル生成のさらなる例について、図5〜図7に関して説明する。
様々な実施形態において、PCA成分のサブセットが、様々な身体的特徴を規定する。例えば、PCA成分の1サブセットが、顔の形状を規定し、(第1サブセットと重複してもしなくてもよい)別のサブセットが、顔の比率を規定する。
図4は、推薦エンジンの一実施形態を示すブロック図である。この例において、推薦エンジン400は、顔データ採点システム402、閲覧データ採点システム404、ユーザプロフィール採点システム406、および、相関器410を備える。
顔データ採点システム402は、ユーザの身体的特徴(顔の特徴など)に基づいてスコアを提供するよう構成される。スコアは、ユーザに対する推薦を決定するために用いられてよい。本明細書で詳述するように、顔の特徴は、顔の構造または比率、顔の形、虹彩の色、髪の色、肌の色、および、肌のパターンを含む。推薦は、スコアS1であってよい。
閲覧データ採点システム404は、ウェブサイトとの相互作用、購入履歴、閲覧行動など、ユーザの行動に基づいて、推薦を提供するよう構成される。例えば、ユーザが特定の商品に長くとどまっていた時、その行動は、その商品に関心を持っていることを示唆しうる。この関心はユーザに関連付けられてよく、その商品に類似する商品がユーザに推薦されてよい。
ユーザプロフィール採点システム406は、身体的特徴ではない顧客の属性に基づいて推薦を提供するよう構成される。属性の例は、位置、収入、教育、年齢、性別などの人口統計学データを含む。非バイオメトリック属性が、推薦に影響してもよい。例えば、晴れの多い州に住むユーザは、サングラスを求める可能性が高く、適切な商品がユーザに推薦されうる。
相関器410は、ユーザの特徴(顔の特徴、ユーザ履歴など)と商品との間の相関を決定するよう構成される。相関器は、価格、色などの商品特性に基づいて、相関を決定してよい。相関器は、以下の要素の内の1または複数に基づいて相関を決定してよい:顔の類似度(コンテンツベースフィルタリング)、サイトとの相互作用、および/または、実店舗での購入履歴(協調フィルタリング)など。相関器は、採点システム402〜406の各々によって出力されたスコアを組み合わせてよい。いくつかの実施形態において、スコアは、組み合わせられる時に重み付けされる。システムの重み付けは、動的に調整されてもよいし予め規定されてもよい。例えば、ユーザは、スタイル、顔を引き立てること、フィットなどを強調したいと望みうる。スコアS1、S2、および、S3に割り当てられた重みが、それに従って調整されてよい。
いくつかの実施形態において、顔データは、推薦を行うためにより重要だと考えることができるので、顔データ(スコアS1)には、他のスコアよりも重い重み付けがされる。例えば、50%が顔データに割り当てられ、残りの50%がユーザデータおよびユーザプロフィールデータの間に分配される。
顔データの重み付けは、調整されてもよい。例えば、ユーザが推薦に納得しない場合、顔データに与えられた重みが低くされる。いくつかの実施形態において、重みは、ユーザが商品をクリックした後(これは、その商品に関心があることを示唆しうる)など、Webページとのユーザ相互作用に応じて、動的に調整される。いくつかの実施形態において、重みは、ユーザセッションに応じて動的に調整される。例えば、ユーザの閲覧セッション中(ユーザがウェブサイトを15分間訪問している間など)に収集された情報が、ウェブサイトとのユーザの相互作用に基づいて重みを調整するために処理される。ユーザが特定の商品を表示するウェブページの部分にとどまることは、それらの商品に興味があることを示唆しうる。
いくつかの実施形態において、ユーザの顔の3Dモデルおよび商品の3Dモデルを用いて、相関が実行される。顔および商品の各々に対して、本明細書に記載の3Dモーフィング技術が、顔および商品の各々のPCA成分を含む3Dモデルを抽出するために適用される。顔および商品および購入履歴の各々の頂点およびPCA成分が、商品に対する推薦を得るために相関器に提供される。
様々な実施形態において、推薦エンジンは、推薦された商品のリストを出力するよう構成される。いくつかの実施形態において、リストは、商品の順位付けリストであり、リスト内で、商品は、順位付けされた順に表示されてよい。推薦エンジンは、1または複数のルールを適用して推薦をさらにフィルタリングするよう構成されてもよい。例えば、推薦エンジンは、特定のブランド、或る価格帯の範囲の商品などを表示するよう構成されてもよい。
いくつかの実施形態において、ディープニューラルネットワークが、ユーザの顔と購入との間の相関を見出すために用いられてよい。ユーザの顔、購入履歴、および、商品情報(商品特徴など)に関するデータが格納される。ディープニューラルネットワークは、顔および商品情報および購入履歴の組みあわせ(関係性、相関)を決定するためにトレーニングされてよい。換言すると、どの顔がどの商品を購入するのかを記述するように、データモデル(ディープニューラルネットワーク)が構築されてよい。データモデルを用いて、購入履歴がないかまたは購入履歴の短いユーザに対して、推薦がなされてよい。例えば、新規ユーザの顔に似た既知の顔が特定され、既知の顔の購入履歴に基づいて、新規ユーザの顔に対して商品が推薦される。商品は、ウェブサイトとのユーザ相互作用の履歴に基づいて推薦されてよい。
図5は、ユーザの顔の3Dモデリングのための処理の一実施形態を示すフローチャートである。処理500は、図2のシステム200の1または複数の構成要素上で少なくとも部分的に実施されてよい。いくつかの実施形態において、 処理500は、図3の3Dモデルエンジン306によって実行される。いくつかの実施形態において、図5の処理の少なくとも一部は、図1の工程102に含まれる。
工程502で、モデル化されるユーザの顔の入力画像が受信される。ユーザの顔の入力画像は、ユーザの顔のキャプチャまたは記録された画像を含む。様々な実施形態において、ユーザの顔の入力画像は、ユーザの顔の正面像、ユーザの顔の側面像、または、正面像から側面像の間の角度のユーザの顔の像を含んでよい。
工程504で、入力画像に対応する統計モデルへの1セットのパラメータ値が、オプティカルフローに少なくとも部分的に基づいて決定されたコスト関数を用いて候補パラメータ値を評価することによって生成される。様々な実施形態において、入力画像内のユーザの顔と(例えば、最適にまたは所与の許容範囲内で)一致する顔の3Dモデルを生成するために、1または複数の形状成分ならびに1または複数のテクスチャ成分を含むPCAモデルに入力されるパラメータ値が決定される。いくつかの実施形態において、PCAモデルに入力されるパラメータ値に加えて、カメラの焦点距離、(例えば、3D空間内での)カメラの回転、および、(例えば、3D空間内での)カメラの平行移動に関連するさらなるパラメータも決定される。様々な実施形態において、PCAモデルに入力されるパラメータ値およびカメラパラメータ値は、パラメータ値の様々な候補セットを通して反復し、パラメータ値の候補セットを用いて顔の3Dモデルを生成し、候補合成画像を生成するために2D表面上に生成された顔の3Dモデルを投影し、各候補合成画像と入力画像との間のコストを計算することによって決定される。様々な実施形態において、各候補合成画像と入力画像との間のコストは、候補合成画像から入力画像までのオプティカルフローに基づいて決定される。
図6は、ユーザの顔の3Dモデリングのための処理の一実施形態を示すフローチャートである。処理600は、図2のシステム200の1または複数の構成要素上で少なくとも部分的に実施されてよい。いくつかの実施形態において、処理600は、図3の3Dモデルエンジン306によって実行される。いくつかの実施形態において、図6の処理の少なくとも一部は、図1の工程102に含まれる。
工程602で、ユーザの顔の複数の3Dスキャンが、主成分分析(PCA)に入力される。PCAは、多数(例えば、200)の様々なユーザの顔の3Dスキャンに適用される。
工程604で、複数の成分および複数の成分のそれぞれに対応するパラメータ値範囲を含むPCAモデルが、PCAから受信される。PCAは、入力データの中で1セットの線系的に相関しない変数(「主成分」と呼ばれる)を特定する統計的手法である。各主成分は、入力データの中の分散を表し、同じ入力データから決定された他の主成分の各々に直交する。様々な実施形態において、得られたPCAモデルは、ユーザの顔の入力3Dスキャンの中の形状およびテクスチャの分散をそれぞれ記述する1セットの形状成分および1セットのテクスチャ成分を含む。形状成分およびテクスチャ成分の組みあわせが、顔の3Dモーフィングモデルを形成する。いくつかの実施形態において、各形状成分は、ユーザの顔の3Dモデルの40,000の頂点を記述する40,000の(x,y,z)座標のベクトルである。いくつかの実施形態において、各テクスチャ成分は、ユーザの顔の3Dモデルの40,000の対応する頂点の色を記述する40,000の(r,g,b)値のベクトルである。形状成分のセットおよびテクスチャ成分のセットに加えて、PCAは、各形状成分またはテクスチャ成分に関連する各係数に対応する値域も出力する。1セットの形状係数およびテクスチャ係数が、3Dモーフィングモデルを用いて特定の顔を生成し、第2セットの形状係数およびテクスチャ係数が、別の特定の顔を生成し、これは、そのモデルが「モーフィング可能」と呼ばれる理由である。
様々な実施形態において、各形状成分またはテクスチャ成分に関連する係数に異なる値を割り当て、スケーリングされた形状成分を組みあわせて組み合わせ顔形状を生成し、スケーリングされたテクスチャ成分を組みあわせて組み合わせ顔テクスチャを生成し、組み合わせ顔形状と組み合わせ顔テクスチャを組み合わせることによって、1つの顔の異なる3Dモデルが生成されてよい。PCAの形状成分およびテクスチャ成分に対応する形状係数およびテクスチャ係数は、本明細書に記載する様々な実施形態で決定されるパラメータ値のセットに含まれる。いくつかの実施形態において、PCAモデルは、20の形状成分および20のテクスチャ成分を含むよう構成される。したがって、20の形状係数および20のテクスチャ係数が、本明細書に記載するいくつかの実施形態で決定されるパラメータ値のセットに含まれる。
図7は、ユーザの顔の3Dモーフィングモデルを生成するための主成分分析への入力および主成分分析からの出力の一例を示す図である。図6の処理600で記載したように、異なるユーザの顔704の様々な3Dスキャンが主成分分析706に入力され、主成分分析706は、1または複数のソフトウェアおよびハードウェアを用いて実施されてよい。次いで、主成分分析706は、出力708を生成する。出力708は、1セットの形状成分S,・・・,Sを含んでおり、ここで、S=(x,y,z,・・・,x,y,z)であり、x、y、および、zは、頂点の3D位置である。出力708は、さらに、1セットのテクスチャ成分T,・・・,Tを含んでおり、ここで、T=(r,g, b,・・・,r,g,b)であり、集合的にr、g、および、bは、頂点の色である。いくつかの実施形態において、Nおよびnはいずれも、設定可能な値である。いくつかの実施形態において、N=20およびn=40,000である。出力708は、さらに、それぞれの形状成分に対応する各形状係数α,・・・,αの値域と、それぞれのテクスチャ成分に対応する各テクスチャ係数β,・・・,βの値域とを含む。
いくつかの実施形態において、平均形状Savg(例えば、40,000の頂点の3D位置を記述する3D座標を持つベクトル)が、主成分分析706とは別個に、異なるユーザの顔704の様々な3Dスキャンから生成される。いくつかの実施形態において、平均テクスチャTavg(例えば、40,000の頂点の色を記述するr、g、および、b値を持つベクトル)が、主成分分析706とは別個に、異なるユーザの顔の様々な3Dスキャンから生成される。
様々な実施形態において、出力208の形状成分およびテクスチャ成分と平均形状成分および平均テクスチャ成分とを組みあわせ、新たな3D顔形状および新たな3D顔テクスチャが、以下の式に基づいて生成されてよい:
new=Savg+Σα (1)
new=Tavg+Σβ (2)
ここで、Snewは、新たな3D顔形状を表し、Savgは、平均形状を表し、αは、Sに対応する形状係数を表し、Sは、PCA形状成分を表し、Tnewは、新たな3D顔テクスチャを表し、Tavgは、平均テクスチャを表し、βは、Tに対応するテクスチャ係数を表し、Tは、PCAテクスチャ成分を表す。
次いで、SnewおよびTnewは、顔の新たな3Dモデルを生成するために、1メッシュに組み合わせられてよい。例えば、SnewおよびTnewは、Snewの各頂点を、同じ頂点に対応するTnewの色に割り当てることによって組み合わせられてよい。
いくつかの実施形態において、PCAモデルの形状係数α,・・・,αN=20およびテクスチャ係数β,・・・,βN=20は、決定されるパラメータ値のセットに含まれる。
図8Aは、ユーザの顔の1セットの画像から得られた参照点の一例を示す。参照点は、様々な顔の特徴の位置を規定し、ユーザの顔の3Dモデルを生成するために用いられる。図8Aは、画像800を示し、ここで、ユーザは正面を向いており、参照点802は、ユーザの右目の目頭にあり、座標(x0,y0)が割り当てられている。目の参照点は、さらに、座標(x1,y1)の左目頭の点804および座標(x2,y2)の左目尻の点806を含みうる。右目頭802および左目頭804の2つの参照点から、ブリッジ距離808を決定できる。いくつかの実施形態において、左目頭の点804および左目尻の点806を用いて、レンズ距離を決定できる(結果として距離810になる)。
図8Bは、ユーザの顔の1セットの画像から得られた参照点の一例を示す。図8Bは、別の向きのユーザの顔を含む別の画像(すなわち、右側面像820)を示しており、座標(y4,z4)の右目尻の参照点822および座標(y3,z3)で耳輪が頭部とつながる上部の点824が含まれる。横顔の写真から、z座標をユーザの顔の3Dモデルに追加できる。ユーザの顔の2Dビデオフレームから、ユーザの顔の3Dモデルを決定できる。
いくつかの実施形態において、2D画像(例えば、図8Aおよび図8Bに示したものなど)からの参照点が、ユーザの顔の3Dモデルを作成するために組み合わせられる。対応する参照点が、ユーザの顔/頭部における参照点(例えば、顔の特徴の位置)の各々の位置を表す1セットの(x,y,z)座標を作成するために組み合わせられる。例えば、図8Aの前向きビデオフレーム800からの右目尻812の(x,y)座標を、用図8Bの右向き画像/ビデオフレーム820における右目尻の参照点822のz座標と組み合わせて、座標を備えた参照点を得ることができる。ユーザの顔の3Dモデルは、まつげ内側の点、目尻、目頭、耳の接合点、頬骨、鼻先などの3D点(対応する(x,y,z)座標)を含む。
図9は、3D空間における所定の3D顔の視覚化の一例を示す図である。いくつかの実施形態において、所定の3D顔は、.objファイルを含む。図9の例において、所定の3D顔900は、所定の3D顔の顔の特徴の形状を規定する三角形ポリゴンを含む。いくつかの実施形態において、各ポリゴンは、顔のその領域の色を表す関連の色を含む。図9の例では、所定の3D顔900は、三角形ポリゴンを含むが、実際の実施例では、所定の3D顔が、その他の形状のポリゴンおよび/またはその他の数の頂点を含んでもよい。
図10は、推薦の説明を決定するための処理の一実施形態を示すフローチャートである。処理1000は、図2のシステム200の1または複数の構成要素上で少なくとも部分的に実施されてよい。いくつかの実施形態において、処理200は、図3の推薦エンジン314および/または出力エンジン312によって実行される。いくつかの実施形態において、図10の処理の少なくとも一部は、図1の工程104および/または工程106に含まれる。出力の一例が、図16に示されている。
処理は、1または複数の画像に基づいて、顔の3D再構築を実行する(工程1002)。3D再構築は、本明細書に記載の方法に従って実行されてよい。例えば、頭部の3Dモデルが、画像から生成されてよい。顔のポーズが、回転行列および並進ベクトルから決定されてよい。ポーズの評価が、3Dモデルおよびカメラの固有パラメータに基づいて顔に対して実行されてよい。
処理は、3D再構築に基づいて身体的特徴の説明を決定する(工程1004)。例えば、顔の形、顔の構造または比率、目の色、髪の色、肌の色、および/または、テクスチャなど、顔の特徴が決定されてよい。特定の鼻パッド構造を備えた眼鏡フレームを選んだ説明が、比較的狭くて短い鼻梁の顔特徴によって説明されてよい。眼鏡の特定の鼻パッド構造は、そのタイプの鼻梁に適切で(例えば、良好にフィットし)、快適さと、フレーム内で目が中心にくる審美的なフィットを両立しうる。
処理は、説明を出力する(工程1006)。説明は、推薦がなされた理由について、より多くの内容および情報をユーザに提供するために、推薦と共に出力されてよい。比較的狭くて短い鼻梁に適した鼻パッドの例に戻ると、ユーザの鼻梁の構造を理由にフレームがユーザに適していることをユーザに知らせるために、この身体的属性がGUIで出力されてよい。
図11は、顔データ採点システムの一実施形態を示すブロック図である。この例において、顔データ採点システム1100は、分類器1102〜1106を備える。分類器の各々は、受信した特徴に基づいてスコアを出力するよう構成されてよい。例えば、分類器1102は、特徴1を受信してその特徴のスコアを出力し、分類器1104は、特徴2を受信してその特徴のスコアを出力し、分類器1106は、特徴3を受信してその特徴のスコアを出力する。様々な実施形態において、分類器は、より多くのトレーニングデータが分類器に入力されると共に経時的に採点が改善するように、機械学習モデルによって実装される。
図に示すように、様々な数の分類器がシステムに提供されてよく、各々が、それぞれの特徴タイプを取り扱うよう適合される。各特徴タイプは、顔の形、肌の色、目の色、髪の色、顔の比率などを含む。いくつかの実施形態において、1または複数の特徴タイプが、顔の3D表面に基づいて決定されてよい。
顔の形は、以下のように検出されてよい。分類器が、受信した特徴に基づいて顔の形を決定するよう構成される。分類器は顔の輪郭を決定し、ここで輪郭は1セットの点である。輪郭は、ライブラリまたは従来の方法を用いて決定されてよい。分類器が、各顔形状にスコアを割り当てるよう構成される。スコアのベクトルが、顔の輪郭を記述する。いくつかの実施形態において、顔の形は、顔が、円形、楕円形、ハート型、三角形、および、四角形など、所定のカテゴリまたはラベルに該当する程度によって記述される。例えば、顔が、40%四角形で60%楕円形であってもよく、100%楕円形として分類される必要はない。分類器は、顔の輪郭の点のセットと既知の点のセットとの間の一致度または類似度を決定することによってスコアを割り当てるよう構成される。閾値内の一致度または類似度であった場合、これは、形状が、所定の割合で楕円形、所定の割合で四角形などであることを意味する。
様々な実施形態において、肌の領域が、顔の輪郭を規定する。例えば、肌の領域は、髪の毛が終わり肌が始まるところ、背景が終わり肌が始まるところなどの決定である。
いくつかの実施形態において、顔の特徴は、画像から直接抽出される。いくつかの実施形態において、顔の特徴は、本明細書で詳述するようにモーフィングモデルから抽出される。検出されたの顔の輪郭は、顔の形の検出に関連する機械学習モデルに入力されてよい。
肌のパターンは、肌のテクスチャ、あざ、きめの粗さなどの測定値である。商品推薦は、ユーザの肌のパターンに適合されてもよい。例えば、独自の肌のパターンが、推薦する商品の選択に影響してよい。様々な実施形態において、肌のパターンは、肌を表す領域からピクセルをサンプリングすることによって決定される。いくつかの実施形態において、3Dモーフィング頭部が、肌の領域に関する情報を提供し、肌のパターンの決定のためにピクセルがサンプリングされる領域を狭める。例えば、画像が、肌領域および非肌領域(例えば、髪、衣服、背景など)に分割される次いで、肌領域が、肌のパターンを決定するためにサンプリングされてよい。
様々な実施形態において、分類器が、肌の色を決定するよう構成される。肌の色は、ユーザの顔の少なくとも一部の色を記述する。肌の色は、RGB、CIELABなどの様々な色空間で記述されてよい。肌の色は、ユーザの顔の画像のセットに少なくとも部分的に基づいて、ユーザの顔の様々な領域から色をサンプリングすることによって決定されてよい。
肌の色は、画像が記録された照明環境を考慮に入れて決定されてよい。様々な実施形態において、ユーザの顔に関連する画像セットの各画像について、その特定の画像に関連する付帯情報のセットで変換されたモーフィング済みの3D一般モデルに、その特定の画像に関連する付帯部情報のセットで同じく変換された3D眼鏡モデルが装着され、変換された3D眼鏡モデルが変換された3D一般モデルへ落とす影が、所与の照明モデルでシミュレートされる。いくつかの実施形態において、照明モデルは、画像のセットにおけるユーザの特定の照明環境に基づいて決定される。例えば、3D眼鏡モデルは、ユーザの顔に仮想的に試着するよう選択された眼鏡に関連する。様々な実施形態において、変換された3D一般モデルに眼鏡モデルが落とす影を含む影有りの2D顔画像が生成される。様々な実施形態において、各画像の対応する2D顔画像と、対応する影有りの2D顔画像との間の差異に少なくとも部分的に基づいて、ユーザの顔に関連する画像セットの各画像に対して、対応する影変換が生成される。様々な実施形態において、ユーザの顔に関連する画像セット内の画像に対応する影変換をその画像に適用して、選択された眼鏡がユーザの顔に落とす影をその画像内でレンダリング/シミュレートすることができる。対応する影変換が適用されたユーザの顔の画像は、ユーザの顔への選択された眼鏡の仮想試着をシミュレートするために、選択された眼鏡の2D画像のオーバーレイと共に、ユーザの特定の照明環境に基づいて決定された照明モデルを用いてシミュレートされたように、選択された眼鏡がユーザの顔に落とす現実の影を伴って提示されうる。
いくつかの実施形態において、顔の特徴は、画像から直接抽出される。いくつかの実施形態において、顔の特徴は、本明細書で詳述するようにモーフィングモデルから抽出される。例えば、肌の色は、ポリゴンの色に基づいてモーフィングモデルから決定されてよい。サンプリングされた色は、肌の色の決定に関連する機械学習モデルに入力されてよい。
様々な実施形態において、分類器が、目の色を決定するよう構成される。目の色は、ユーザの顔の画像のセットに少なくとも部分的に基づいて、ユーザの目の様々な領域(虹彩など)から色をサンプリングすることによって決定されてよい。いくつかの実施形態において、顔の特徴は、画像から直接抽出される。いくつかの実施形態において、顔の特徴は、本明細書で詳述するようにモーフィングモデルから抽出される。例えば、3Dモーフィング頭部は、目の位置を特定することで、目の色を決定するためにピクセルがサンプリングされる領域を狭めるために用いられてよい。サンプリングされた色は、目の色の決定に関連する機械学習モデルに入力されてよい。
様々な実施形態において、分類器が、髪の色を決定するよう構成される。髪の色は、ユーザの顔の画像のセットに少なくとも部分的に基づいて、ユーザの髪の様々な領域から色をサンプリングすることによって決定されてよい。いくつかの実施形態において、顔の特徴は、画像から直接抽出される。いくつかの実施形態において、顔の特徴は、本明細書で詳述するようにモーフィングモデルから抽出される。サンプリングされた色は、髪の色の決定に関連する機械学習モデルに入力されてよい。
様々な実施形態において、分類器は、顔の構造(顔の比率とも呼ぶ)を決定するよう構成される。顔の比率は、ユーザの顔の1セットの画像に少なくとも部分的に基づいて、少なくとも2つの顔特徴距離の間の比率を抽出することによって決定されてよい。例えば、分類器は、顔の幅および顔の特徴のその他の測定値または比率を受信してよい。例えば、(i)目尻の間の距離と(ii)鼻の先端から鼻のブリッジラインまでの間の距離との比率であり、ここで、ブリッジラインは、鼻を横切って目頭につながる線である。
いくつかの実施形態において、顔の特徴は、画像から直接抽出される。いくつかの実施形態において、顔の特徴は、本明細書で詳述するようにモーフィングモデルから抽出される。サンプリングされた色は、顔の比率の決定に関連する機械学習モデルに入力されてよい。
様々な実施形態において、分類器は、顔の3D表面を決定するよう構成される。顔の3D表面は、ユーザの顔のモーフィングモデルから位置または頂点を取得することによって測定された顔の構造の記述である。様々な特徴が、顔の3Dモデルから決定されてよい。例えば、顔の形が、頭部の3Dモーフィングモデルから特徴を抽出することによって決定されてよい。例えば、鼻梁領域、頬骨、パントスコピック傾斜(顔に対するレンズの角度)、および、その他の特徴が、3Dモーフィングモデルから決定されてよい。眼鏡のフィット、および、眼鏡が特定のユーザの顔でどのように見えるかが、これらの要素に基づいて評価されてよい。フィットが悪いまたはユーザの顔に掛けて見栄えがよくない眼鏡は、推薦リストを作る時に優先順位を下げてもよいし、推薦しなくてもよい。
いくつかの実施形態において、3Dモーフィング頭部を前提として顔の特徴を識別するように分類器をトレーニングするために、顔の3D表面の頂点座標および色が、モーフィング頭部から抽出されてよい。頂点の座標は、モーフィング頭部を形成するポリゴンであってよい。いくつかの実施形態において、モーフィング頭部は、ポリゴンを形成する多数の座標(例えば、20,000ポイントのオーダー)を含んでよい。各ポリゴンは、関連の色を有してよい。座標は、データモデルまたは分類器(機械学習モデルで実装されてよい)に供給される。頂点の座標および商品のラベルは、分類器に供給される。ラベルは、商品を表現として予め決定されるか、割り当てられるか、または、自動的に決定されてよい。分類器は、頂点とラベルとの間の相関を決定する。
いくつかの実施形態において、3Dモーフィング頭部を前提として顔の特徴を識別するように分類器をトレーニングするために、3Dモーフィング頭部は、いくつかの角度からレンダリングされる。例えば、画像のライブラリが、様々な角度からレンダリングされた頭部から作成されてよい。様々な角度でレンダリングされた頭部から、輪郭が検出されてよい。顔の形または顔の形の採点が、検出された輪郭に基づいて割り当てられてよい。
顔の3D表面は、顔の間の類似度を決定するために用いられてよい。例えば、二人のユーザが、比較的間隔の広い目を有する特徴を共有する場合があり、これは、両者共に特定のタイプの眼鏡が合うことを示唆する。
取得された位置または頂点は、顔の3D表面の決定に関連する機械学習モデルに入力されてよい。いくつかの実施形態において、眼鏡の形状と顔の3D表面との間の相関が決定されてよい。相関は、ユーザまたは類似した3D顔表面を有する他のユーザに眼鏡を推薦するために用いられてよい。
様々な実施形態において、組み合わせられたモデルの出力が、分類器1102〜1106の出力から生成される。複数の顔の特徴タイプに関連する複数のトレーニングされた機会学習モデルのそれぞれに対応する出力が組み合わせられる。組み合わせられた出力は、さらなる解析に向けて複数の商品のサブセットを選択するために複数の商品と相関されてよい。一態様において、推薦される潜在的な商品は、相関処理によって絞り込まれる。いくつかの実施形態において、さらなるタイプの推薦、協調フィルタリングなどが、推薦を決定するために用いられてもよい。相関の一例が、図4に示されている。商品の一部が提示されてよい。
図12は、分類器を用いて顔の特徴の特性を決定するための処理の一実施形態を示すフローチャートである。処理1200は、図2のシステム200の1または複数の構成要素上で少なくとも部分的に実施されてよい。いくつかの実施形態において、処理200は、図3の推薦エンジン314および/または図11の分類器1102〜1106によって実行される。いくつかの実施形態において、図12の処理の少なくとも一部は、図1の工程104に含まれる。
処理は、受信した画像に基づいて顔の特徴のタイプに対応する顔特徴を抽出する(工程1202)。顔特徴抽出は、画像および/または他のセンサデータ(深度など)に基づいてよい。様々な実施形態において、顔特徴抽出は、顔の特徴のいくつかのタイプについて実行されてよい。例えば、未処理の顔の特徴が残らなくなるまで、各顔特徴について704が反復されてよい。
処理は、抽出された顔特徴を顔の特徴のタイプに対応する分類器に入力する(工程1204)。分類器は、トレーニングされた機械学習モデルによって実装されてよい。例えば、顔の形状に関連する顔特徴が、顔形状分類器に入力される。顔の形状は、顔形状データでトレーニングされ、入力データに基づいて自動的に顔の形状を検出することができる分類器によって体系的に決定されてよい。
処理は、顔の特徴のタイプに対応する分類器から出力を取得する(工程1206)。顔の形状の例に再び戻ると、分類器は、入力された顔が様々な形状カテゴリ(円形、楕円形、四角形、ダイヤモンド形など)に当てはまる割合を出力する。
主に眼鏡の例を用いて説明したが、本明細書に記載の技術には、イヤリング、帽子、化粧、靴、衣類などの仮想フィッティングなど、様々な環境での用途がある。
図13Aは、在庫品を閲覧するための商品カタログのGUIの一例である。GUI1300は、任意選択的なナビゲーション領域1302を備えており、これは、GUIに表示された在庫品のナビゲーションを支援するためのメニュー、フィルタなどを備えうる。この例において、GUI1300は、多くの眼鏡フレームを含む商品カタログを表示する。ここでは、6つの眼鏡フレーム(モデルAA、AB、AC、BE、BX、および、CD)を見ることができる。ユーザは、商品および詳細を検討するために、GUI1300と相互作用できる。例えば、スクロールバー1304を用いたページのスクロールダウンに応じて、さらなる眼鏡が、GUI1300で見えるようになってよい。ユーザがページをスクロールダウンしたことに応じて、1または複数のさらなる眼鏡フレームがロードされてよい。様々な実施形態において、ユーザがページをスクロールダウンしたことに応じてロードされる眼鏡フレームは、本明細書に記載の技術に少なくとも部分的に基づいて決定されてよい。例えば、眼鏡の推薦は、顧客の嗜好に適合されてよく、嗜好の少なくとも一部は、顧客の閲覧の傾向に基づいて学習されてよい。
図13Bは、図13AのGUIとのユーザ相互作用に応じて表示された商品を示すGUIの一例である。ユーザが、GUI1300のスクロールバー1304を用いるなどしてスクロールダウンした時に、6つの眼鏡フレーム(モデルDA、DB、DR、EA、EF、および、EL)のグループ1330が表示されてよい。グループ1330は、図3の推薦エンジン314によって選択された商品など、本明細書に記載の技術に少なくとも部分的に基づいて選択された1または複数の推薦商品を含んでよい。いくつかの実施形態において、グループ1330は、ユーザがGUI1300をスクロールダウンすることを予期して商品の迅速なロードを容易にするために予めロード(例えば、バッファに格納)される。
図13Cは、図13AのGUIとのユーザ相互作用に応じて表示された商品を示すGUIの一例である。ユーザが、GUI1300のスクロールバー1304を用いるなどしてスクロールダウンした時に、6つの眼鏡フレーム(モデルAD、AG、AL、RV、RM、および、RP)のグループ1350が表示されてよい。いくつかの実施形態において、グループ1350は、ユーザがGUI1300をスクロールダウンすることを予期して商品の迅速なロードを容易にするために予めロード(例えば、バッファに格納)される。
グループ1350は、図3の推薦エンジン314によって選択された商品など、本明細書に記載の技術に少なくとも部分的に基づいて選択された1または複数の推薦商品を含んでよい。この例において、グループ1350は、(GUI1300に示された)モデルACのユーザ選択に応じてなされた推薦を含む。例えば、ユーザは、モデルACをクリックしてそのモデルに関連する商品ページをロードし、カタログページ1300に戻ることができる。ユーザがカタログページ1300に戻った際、ユーザがGUI1300をスクロールダウンした時にグループ1350が表示されるように、グループ1350がロードされてよい。グループ1350の商品は、本明細書に記載の技術に従って、モデルACに基づいて選択されてよい。例えば、グループ1350は、モデルACに類似する長方形フレームの眼鏡を含む。一態様において、グループ1330および1350の組み立ては、商品が閲覧に応じて再ソートまたは更新されることにユーザが気付かないので、シームレスなユーザ体験を提供する。ユーザがウェブページをスクロールダウンすると、隠された商品(例えば、商品リストの下の方にある商品)が、ユーザの閲覧に応じてユーザの嗜好に動的に適合するように更新されうる。
図14Aは、在庫品を閲覧するための商品カタログのGUIの一例である。GUI1400は、任意選択的なナビゲーション領域1402を備えており、これは、GUIに表示された在庫品のナビゲーションを支援するためのメニュー、フィルタなどを備えうる。この例において、GUI1400は、多くの眼鏡フレームを含む商品カタログを表示する。ここでは、6つの眼鏡フレーム(モデルA、B、C、D、E、および、G)が示されている。ユーザは、商品および詳細を検討するために、GUI1400と相互作用できる。例えば、モデルCのユーザ選択に応じて、GUI1400に表示される商品が更新されてよい。
図14Bは、図14AのGUIとのユーザ相互作用に応じて表示されたGUIの一例である。例えば、ユーザは、モデルC(GUI1400に表示されている)をクリックしてそのモデルに関連する商品ページをロードし、カタログページに戻ることができる。ユーザがカタログページに戻る時、更新された商品推薦を表示するために、GUI1450がロードされてよい。ここで、モデルM、K、および、Xが、モデルCのユーザ選択に応じてGUI1400のモデルC、D、および、Gから置き換わる。モデルM、K、および、Xは、本明細書に記載の技術に従って、モデルCに基づいて選択されてよい。例えば、モデルCDは、ワイヤフレームである。モデルM、K、および、Xは、モデルC、D、および、Gのプラスチックフレーム眼鏡と置き換わるワイヤフレームである。様々な実施形態において、GUI1450の領域の一部は、置き換えまたは更新された商品推薦を受け入れるよう指定される。これらの領域は、本明細書では「推薦ブロック」とも呼ばれる。例えば、推薦ブロック1452、1454、および、1456は、更新のために用いられるが、その他の領域に表示された商品(モデルDなど)は残留する。いくつかの実施形態では、より見やすい領域が、商品推薦の更新を受け入れるよう選択される。換言すると、商品推薦が、GUIに表示された商品の中に組み入れられ、顧客の嗜好に応じて動的に更新されうる。
図15Aは、在庫品を閲覧するための商品カタログのGUIの一例である。GUI1500は、任意選択的なナビゲーション領域1502を備えており、これは、GUIに表示された在庫品のナビゲーションを支援するためのメニュー、フィルタなどを備えうる。GUI1500は、推薦された商品(ここでは、4つの眼鏡モデル)が表示される推薦ブロック1504を備える。この例において、GUI1500は、多くの眼鏡フレームを含む商品カタログを表示する。ここでは、6つの眼鏡フレーム(モデルA、B、C、D、E、および、G)が示されている。さらに、4つの眼鏡フレーム(モデルL、P、Y、および、A)が、推薦ブロック1504に表示される。
推薦ブロックは、ユーザの嗜好に適合した他の推薦商品を表示するように更新されうる。例えば、モデルCのユーザ選択に応じて、推薦ブロック1504に表示される商品が更新されてよい。
図15Bは、図15AのGUIとのユーザ相互作用に応じて表示されたGUIの一例である。例えば、ユーザは、モデルC(GUI1500に表示されている)をクリックしてそのモデルに関連する商品ページをロードし、カタログページに戻ることができる。ユーザがカタログページに戻る時、更新された商品推薦を推薦ブロック1504に表示するために、GUI1550がロードされてよい。ここでは、モデルCのユーザ選択に応じて、GUI1500のモデルL、P、Y、および、Aが、GUI1550に示されたモデルX、H、Q、および、Sに置き換えられている。モデルX、H、Q、および、Sは、本明細書に記載の技術に従って、モデルCに基づいて選択されてよい。例えば、モデルCは、長方形フレームである。モデルX、H、Q、および、Sは、モデルCに関心のあるユーザが関心を持ちうる長方形フレーム眼鏡である。
図16は、ユーザの身体的特徴に基づいた推薦の出力を示すGUIの一例である。GUI1600は、ユーザの顔のキャプチャ画像と、推薦とを表示する。ここで、推薦は、丸型フレームである。この推薦に対する説明が表示される。ここで、丸型フレームの推薦の理由は、ユーザの主な顔の形が四角形であることである。すなわち、ユーザの顔が、様々な形状によって表示されてよく、主要な形状は四角形である。四角形の顔には、この例における丸型眼鏡フレームが最も似合う。
上述の実施形態は、理解しやすいようにいくぶん詳しく説明されているが、本発明は、提供された詳細事項に限定されるものではない。本発明を実施する多くの代替方法が存在する。開示された実施形態は、例示であり、限定を意図するものではない。

Claims (20)

  1. プロセッサを備えたシステムであって、
    前記プロセッサは、
    ユーザの画像に少なくとも部分的に基づいて、前記ユーザの身体的特徴を決定し、
    前記身体的特徴と商品との間の相関を決定し、
    前記決定された相関に少なくとも部分的に基づいて商品推薦を生成するよう構成されているシステム。
  2. 請求項1に記載のシステムであって、前記身体的特徴の前記決定は、前記ユーザへの前記商品のフィットを含むシステム。
  3. 請求項1に記載のシステムであって、前記身体的特徴は顔の形を含み、前記形は、前記形が複数のカテゴリに当てはまる程度に関して規定されるシステム。
  4. 請求項1に記載のシステムであって、前記身体的特徴は、顔の比率を含むシステム。
  5. 請求項1に記載のシステムであって、前記身体的特徴は、目の色、肌の色、および、髪の色の内の少なくとも1つを含み、前記色は、前記少なくとも1つの画像がキャプチャされた照明環境に少なくとも部分的に基づいて正規化されるシステム。
  6. 請求項1に記載のシステムであって、前記相関の前記決定は、前記身体的特徴、ユーザ閲覧データ、および、ユーザプロフィールデータの内の少なくとも1つの重み付き組み合わせに基づくシステム。
  7. 請求項6に記載のシステムであって、前記身体的特徴、ユーザ閲覧データ、および、ユーザプロフィールデータの内の前記少なくとも1つに割り当てられる重みは、機械学習モデルからの出力に基づくシステム。
  8. 請求項6に記載のシステムであって、前記身体的特徴は、ユーザ閲覧データおよびユーザプロフィールデータの内の少なくとも1つよりも重く重み付けされるシステム。
  9. 請求項6に記載のシステムであって、前記身体的特徴、前記ユーザ閲覧データ、および、前記ユーザプロフィールデータに割り当てられる重みは調整可能であるシステム。
  10. 請求項6に記載のシステムであって、前記プロセッサは、さらに、前記商品推薦に関するユーザフィードバックに応じて、前記重み付き組み合わせに用いられる重みを調整するよう構成されているシステム。
  11. 請求項1に記載のシステムであって、
    前記プロセッサは、さらに、オプティカルフローに少なくとも部分的に基づいて決定されたコスト関数を用いて候補パラメータ値を評価することによって、前記ユーザの前記画像に対応する統計モデルへの1セットのパラメータ値を生成することを含め、前記ユーザの前記画像に基づいてユーザの頭部の三次元(3D)モデルを生成するよう構成され、
    前記身体的特徴は、少なくとも部分的には前記3Dモデルからパラメータを抽出することによって決定されるシステム。
  12. 請求項11に記載のシステムであって、前記統計モデルは、前記ユーザの顔の3Dスキャンに少なくとも部分的に基づいて主成分分析から導出され、前記統計モデルは、形状成分およびテクスチャ成分を含むシステム。
  13. 請求項11に記載のシステムであって、前記3Dモデルは、顔の特徴の形状および頭部の形状の内の少なくとも1つを規定するポリゴンを含むメッシュモデルであるシステム。
  14. 請求項11に記載のシステムであって、前記身体的特徴の決定は、前記3Dモデルのポリゴンの色に基づいて肌の色を決定することを含むシステム。
  15. 請求項1に記載のシステムであって、前記商品推薦の生成は商品の属性に基づき、前記商品の前記属性は、前記商品の3Dモデルに少なくとも部分的に基づいて決定されるシステム。
  16. 請求項15に記載のシステムであって、前記商品推薦の生成は、前記ユーザの3Dモデルへの前記商品の前記3Dモデルのフィットに基づくシステム。
  17. 請求項1に記載のシステムであって、前記商品推薦は、1グループの商品を含み、
    前記プロセッサは、さらに、前記グループ内の1つの商品のユーザ選択に応じて前記商品推薦を更新するよう構成されているシステム。
  18. 請求項1に記載のシステムであって、前記商品推薦は、前記商品推薦の説明を含むシステム。
  19. 方法であって、
    ユーザの画像に少なくとも部分的に基づいて、前記ユーザの身体的特徴を決定する工程と、
    前記身体的特徴と商品との間の相関を決定する工程と、
    前記決定された相関に少なくとも部分的に基づいて、商品推薦を生成する工程と
    を備える方法。
  20. コンピュータプログラム製品であって、持続性のコンピュータ読み取り可能な記憶媒体内に具現化され、
    ユーザの画像に少なくとも部分的に基づいて、前記ユーザの身体的特徴を決定するためのコンピュータ命令と、
    前記身体的特徴と商品との間の相関を決定するためのコンピュータ命令と、
    前記決定された相関に少なくとも部分的に基づいて、商品推薦を生成するためのコンピュータ命令と
    を備えるコンピュータプログラム製品。
JP2018202393A 2017-11-29 2018-10-29 ユーザの身体的特徴に基づいた推薦システム Active JP6857638B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/826,533 US11157985B2 (en) 2017-11-29 2017-11-29 Recommendation system, method and computer program product based on a user's physical features
US15/826,533 2017-11-29

Publications (2)

Publication Number Publication Date
JP2019102068A true JP2019102068A (ja) 2019-06-24
JP6857638B2 JP6857638B2 (ja) 2021-04-14

Family

ID=63915181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018202393A Active JP6857638B2 (ja) 2017-11-29 2018-10-29 ユーザの身体的特徴に基づいた推薦システム

Country Status (4)

Country Link
US (2) US11157985B2 (ja)
EP (1) EP3493138A1 (ja)
JP (1) JP6857638B2 (ja)
CN (1) CN109840825A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021184207A (ja) * 2020-05-22 2021-12-02 株式会社Novera 情報処理装置、プログラム、及び方法
JP2022012066A (ja) * 2020-06-30 2022-01-17 株式会社フライウィール 推薦システムおよび方法
WO2022054208A1 (ja) * 2020-09-10 2022-03-17 株式会社ソシオネクスト 商品提案方法、商品購入方法、及び、商品提案装置
JP7095849B1 (ja) 2021-11-26 2022-07-05 アイジャパン株式会社 アイウェア仮想試着システム、アイウェア選定システム、アイウェア試着システムおよびアイウェア分類システム
JP2023018021A (ja) * 2019-07-18 2023-02-07 ロレアル 制御されていない照明条件の画像中の肌色を識別する技術
JP7260939B1 (ja) 2022-03-23 2023-04-19 株式会社Novera プログラム、情報処理装置、及び方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11157985B2 (en) * 2017-11-29 2021-10-26 Ditto Technologies, Inc. Recommendation system, method and computer program product based on a user's physical features
US11538083B2 (en) * 2018-05-17 2022-12-27 International Business Machines Corporation Cognitive fashion product recommendation system, computer program product, and method
KR102149395B1 (ko) * 2018-08-31 2020-08-31 주식회사 더메이크 트루뎁스 카메라를 이용하여 아이웨어 시착 및 추천 서비스를 제공하는 시스템 및 방법
EP3660728A1 (en) * 2018-11-30 2020-06-03 Essilor International (Compagnie Generale D'optique) A server, method, and computer-readable storage medium for selecting eyewear equipment
JP2022531477A (ja) * 2019-05-06 2022-07-06 カレオス スマートミラーシステムおよびその使用の方法
CN112685596B (zh) * 2019-10-18 2023-04-14 中移(苏州)软件技术有限公司 视频推荐方法及装置、终端、存储介质
WO2021122768A1 (en) * 2019-12-17 2021-06-24 Essilor International Apparatus, method, and computer-readable storage medium for contextualized equipment recommendation
WO2021122387A1 (en) * 2019-12-19 2021-06-24 Essilor International Apparatus, method, and computer-readable storage medium for expanding an image database for evaluation of eyewear compatibility
JP6912611B1 (ja) * 2020-01-31 2021-08-04 株式会社Zozo メガネ、推奨化粧品提示制御システム及び推奨化粧品提示制御方法
CN111340852B (zh) * 2020-03-10 2022-09-27 南昌航空大学 一种基于优化语义分割的图像序列光流计算方法
US11587358B2 (en) * 2020-03-26 2023-02-21 Panasonic Avionics Corporation Managing content on in-flight entertainment platforms
CN112241992A (zh) * 2020-11-10 2021-01-19 北京中科深智科技有限公司 一种全自动的服装动画生成方法和系统
US20220207539A1 (en) * 2020-12-24 2022-06-30 Jand, Inc. System and method for predicting a fit quality for a head wearable device and uses thereof
US20220202168A1 (en) * 2020-12-30 2022-06-30 L'oreal Digital makeup palette
KR20220143569A (ko) 2021-04-16 2022-10-25 주식회사 빅스터 안경 추천 방법 및 안경 추천 서버
CN113784189B (zh) * 2021-08-31 2023-08-01 Oook(北京)教育科技有限责任公司 一种圆桌视频会议的生成方法、装置、介质和电子设备
US20230252745A1 (en) * 2022-02-09 2023-08-10 Google Llc Validation of modeling and simulation of virtual try-on of wearable device
CN116401468B (zh) * 2023-04-17 2023-12-19 哈尔滨工业大学 一种基于产品概念设计特性组合的智能推荐系统及方法
KR102642920B1 (ko) * 2023-07-20 2024-03-04 주식회사 아즈라 귀형상을 이용한 이어팁 최적화 서비스 제공 시스템

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030494A (ja) * 2001-07-16 2003-01-31 Nikon Gijutsu Kobo:Kk 眼鏡の選択支援システム
US20080201329A1 (en) * 2007-02-21 2008-08-21 Yiling Xie Method And The Associate Mechanism For Stored-Image Database-Driven Spectacle Frame Fitting Services Over Public Network
JP2009134558A (ja) * 2007-11-30 2009-06-18 Nec Corp 物品推薦装置、物品推薦方法及び物品推薦用プログラム
JP2010520551A (ja) * 2007-03-08 2010-06-10 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 画像から推定される皮膚色に基づいて製品を推奨するための方法及びシステム
JP2011192189A (ja) * 2010-03-16 2011-09-29 Nikon Corp 眼鏡販売システム、レンズ企業端末、フレーム企業端末、眼鏡販売方法、および眼鏡販売プログラム
US20130088490A1 (en) * 2011-04-04 2013-04-11 Aaron Rasmussen Method for eyewear fitting, recommendation, and customization using collision detection
US20140253707A1 (en) * 2013-03-11 2014-09-11 Dasa V. Gangadhar Automated acquisition of eyeglasses
JP2016537716A (ja) * 2013-08-22 2016-12-01 ビスポーク, インコーポレイテッド カスタム製品を創作するための方法及びシステム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1039417B1 (en) * 1999-03-19 2006-12-20 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for the processing of images based on morphable models
US7437344B2 (en) * 2001-10-01 2008-10-14 L'oreal S.A. Use of artificial intelligence in providing beauty advice
WO2006129791A1 (ja) * 2005-06-03 2006-12-07 Nec Corporation 画像処理システム、3次元形状推定システム、物体位置姿勢推定システム及び画像生成システム
US20070058858A1 (en) 2005-09-09 2007-03-15 Michael Harville Method and system for recommending a product based upon skin color estimated from an image
US7958066B2 (en) * 2007-11-02 2011-06-07 Hunch Inc. Interactive machine learning advice facility
US20090234716A1 (en) 2008-03-17 2009-09-17 Photometria, Inc. Method of monetizing online personal beauty product selections
US10872322B2 (en) * 2008-03-21 2020-12-22 Dressbot, Inc. System and method for collaborative shopping, business and entertainment
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
US9111134B1 (en) * 2012-05-22 2015-08-18 Image Metrics Limited Building systems for tracking facial features across individuals and groups
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
US9083960B2 (en) * 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
US20140258016A1 (en) * 2013-03-08 2014-09-11 Ebay Inc. System and method for generating recommendations
US20160127787A1 (en) 2013-06-10 2016-05-05 Thomson Licensing Method and system for recommending media to a user
US10055013B2 (en) * 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
KR101571241B1 (ko) * 2014-04-23 2015-11-23 한국 한의학 연구원 안면 표현형 결정 장치 및 방법
GB201414144D0 (en) * 2014-08-08 2014-09-24 Imagination Tech Ltd Relightable texture for use in rendering an image
WO2016135078A1 (en) * 2015-02-23 2016-09-01 Fittingbox Process and method for real-time physically accurate and realistic-looking glasses try-on
KR20170019944A (ko) 2015-08-13 2017-02-22 정진호 상대 비교를 통한 상품 추천 서비스 방법 및 이를 위한 추천 서비스 장치
EP3335195A2 (en) 2015-08-14 2018-06-20 Metail Limited Methods of generating personalized 3d head models or 3d body models
CN105469072B (zh) * 2015-12-14 2019-05-31 依视路国际公司 一种评估眼镜佩戴者和其所佩戴眼镜搭配度的方法和系统
US20170286534A1 (en) 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc User location profile for personalized search experience
US10672055B2 (en) 2016-05-23 2020-06-02 Oath Inc. Method and system for presenting personalized products based on digital signage for electronic commerce
CN106910102A (zh) * 2016-07-25 2017-06-30 湖南拓视觉信息技术有限公司 眼镜虚拟试戴方法及装置
CN106354768B (zh) 2016-08-18 2020-03-17 向莉妮 基于颜色的用户与商品的匹配方法及商品匹配推荐方法
JP6753276B2 (ja) * 2016-11-11 2020-09-09 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
CN106651542B (zh) 2016-12-31 2021-06-25 珠海市魅族科技有限公司 一种物品推荐的方法及装置
CN107123027B (zh) 2017-04-28 2021-06-01 广东工业大学 一种基于深度学习的化妆品推荐方法及系统
US20200193503A1 (en) * 2017-08-16 2020-06-18 Henkel Ag & Co. Kgaa Method and device for computer-supported hair treatment consultation
US11157985B2 (en) * 2017-11-29 2021-10-26 Ditto Technologies, Inc. Recommendation system, method and computer program product based on a user's physical features

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030494A (ja) * 2001-07-16 2003-01-31 Nikon Gijutsu Kobo:Kk 眼鏡の選択支援システム
US20080201329A1 (en) * 2007-02-21 2008-08-21 Yiling Xie Method And The Associate Mechanism For Stored-Image Database-Driven Spectacle Frame Fitting Services Over Public Network
JP2010520551A (ja) * 2007-03-08 2010-06-10 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 画像から推定される皮膚色に基づいて製品を推奨するための方法及びシステム
JP2009134558A (ja) * 2007-11-30 2009-06-18 Nec Corp 物品推薦装置、物品推薦方法及び物品推薦用プログラム
JP2011192189A (ja) * 2010-03-16 2011-09-29 Nikon Corp 眼鏡販売システム、レンズ企業端末、フレーム企業端末、眼鏡販売方法、および眼鏡販売プログラム
US20130088490A1 (en) * 2011-04-04 2013-04-11 Aaron Rasmussen Method for eyewear fitting, recommendation, and customization using collision detection
US20140253707A1 (en) * 2013-03-11 2014-09-11 Dasa V. Gangadhar Automated acquisition of eyeglasses
JP2016537716A (ja) * 2013-08-22 2016-12-01 ビスポーク, インコーポレイテッド カスタム製品を創作するための方法及びシステム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023018021A (ja) * 2019-07-18 2023-02-07 ロレアル 制御されていない照明条件の画像中の肌色を識別する技術
JP7500689B2 (ja) 2019-07-18 2024-06-17 ロレアル 制御されていない照明条件の画像中の肌色を識別する技術
JP2021184207A (ja) * 2020-05-22 2021-12-02 株式会社Novera 情報処理装置、プログラム、及び方法
JP2022012066A (ja) * 2020-06-30 2022-01-17 株式会社フライウィール 推薦システムおよび方法
WO2022054208A1 (ja) * 2020-09-10 2022-03-17 株式会社ソシオネクスト 商品提案方法、商品購入方法、及び、商品提案装置
JP7095849B1 (ja) 2021-11-26 2022-07-05 アイジャパン株式会社 アイウェア仮想試着システム、アイウェア選定システム、アイウェア試着システムおよびアイウェア分類システム
JP2023078857A (ja) * 2021-11-26 2023-06-07 アイジャパン株式会社 アイウェア仮想試着システム、アイウェア選定システム、アイウェア試着システムおよびアイウェア分類システム
JP7260939B1 (ja) 2022-03-23 2023-04-19 株式会社Novera プログラム、情報処理装置、及び方法
JP2023140478A (ja) * 2022-03-23 2023-10-05 株式会社Novera プログラム、情報処理装置、及び方法

Also Published As

Publication number Publication date
US20210406987A1 (en) 2021-12-30
JP6857638B2 (ja) 2021-04-14
EP3493138A1 (en) 2019-06-05
US11157985B2 (en) 2021-10-26
CN109840825A (zh) 2019-06-04
US20190164210A1 (en) 2019-05-30

Similar Documents

Publication Publication Date Title
JP6857638B2 (ja) ユーザの身体的特徴に基づいた推薦システム
Guan et al. Apparel recommendation system evolution: an empirical review
KR102664008B1 (ko) 시각 정보에 기초한 고객 아이템 추천 방법 및 장치
KR101821284B1 (ko) 커스텀 제품을 생성하기 위한 방법 및 시스템
US9842246B2 (en) Fitting glasses frames to a user
US10783528B2 (en) Targeted marketing system and method
EP1134701A2 (en) Client-server system for three-dimensional face make-up simulation
US20050162419A1 (en) System and method for 3-dimension simulation of glasses
WO2014074072A1 (en) Clothing matching system and method
US11676347B2 (en) Virtual try-on systems for spectacles using reference frames
CN111767817A (zh) 一种服饰搭配方法、装置、电子设备及存储介质
CN115803673A (zh) 用于选择眼镜架的方法和设备
US11544768B2 (en) System and method for fashion recommendations
Shadrach et al. Smart virtual trial room for apparel industry
KR20240013691A (ko) 의상 피팅 서비스 제공 장치 및 방법
Tanmay et al. Augmented reality based recommendations based on perceptual shape style compatibility with objects in the viewpoint and color compatibility with the background
WO2020079235A1 (en) Method and apparatus for accessing clothing
US11526925B2 (en) System and method for fashion recommendations
CN106651500B (zh) 基于空间反馈特征的视频图像识别技术和虚拟现实技术的网上购物系统
Ayush Context aware recommendations embedded in augmented viewpoint to retarget consumers in v-commerce
JP7101234B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US11790429B2 (en) Systems and methods for interpreting colors and backgrounds of maps
NL2022937B1 (en) Method and Apparatus for Accessing Clothing
CN111160981B (zh) 一种基于线下店铺优化用户喜好信息的方法和装置
CN110838042B (zh) 一种商品展示方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210322

R150 Certificate of patent or registration of utility model

Ref document number: 6857638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250