JP6857638B2 - Recommender system based on user's physical characteristics - Google Patents

Recommender system based on user's physical characteristics Download PDF

Info

Publication number
JP6857638B2
JP6857638B2 JP2018202393A JP2018202393A JP6857638B2 JP 6857638 B2 JP6857638 B2 JP 6857638B2 JP 2018202393 A JP2018202393 A JP 2018202393A JP 2018202393 A JP2018202393 A JP 2018202393A JP 6857638 B2 JP6857638 B2 JP 6857638B2
Authority
JP
Japan
Prior art keywords
user
product
physical characteristics
face
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018202393A
Other languages
Japanese (ja)
Other versions
JP2019102068A (en
Inventor
ドミトリー・コーニロフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ditto Technologies Inc
Original Assignee
Ditto Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ditto Technologies Inc filed Critical Ditto Technologies Inc
Publication of JP2019102068A publication Critical patent/JP2019102068A/en
Application granted granted Critical
Publication of JP6857638B2 publication Critical patent/JP6857638B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Description

衣料品およびアクセサリ(眼鏡など)の購入に関心のある人は、通常、本人が直接店舗を訪れて、商品が良好にフィットするかどうかを確かめるために試着する必要がある。衣類およびアクセサリは、通例、機能的および審美的な目的の両方を持っており、それらは選択プロセスに影響しうる。商品を見て回り試着するのには時間がかかる場合があり、その時ほとんどは、商品の適合性について事前の知識がない。個人向けのスタイリストは、商品を提案することによって決定プロセスを支援しうる。しかしながら、個人向けのスタイリストは、自身のバイアスと、利用可能な在庫品について比較的狭い範囲に精通していることによって、制限を受ける。従来の商品推薦アルゴリズムは、通例、単純であり、ユーザの閲覧履歴の原始的な評価に基づいて提案を与えるものである。 Those who are interested in buying clothing and accessories (such as eyeglasses) usually need to visit the store directly and try on to see if the item fits well. Clothing and accessories typically have both functional and aesthetic purposes, which can influence the selection process. It can take some time to look around and try on a product, and most of the time there is no prior knowledge of the product's suitability. Personalized stylists can assist in the decision process by proposing products. However, personalized stylists are limited by their bias and their relatively narrow familiarity with the available inventory. Traditional product recommendation algorithms are usually simple and provide suggestions based on a primitive evaluation of the user's browsing history.

以下の詳細な説明と添付の図面において、本発明の様々な実施形態を開示する。 Various embodiments of the present invention are disclosed in the following detailed description and accompanying drawings.

ユーザの画像に基づいて商品を推薦するための処理の一実施形態を示すフローチャート。A flowchart showing an embodiment of a process for recommending a product based on a user's image.

ユーザの身体的特徴に基づいて推薦を行うためのシステムの一実施形態を示すブロック図。A block diagram showing an embodiment of a system for making recommendations based on the physical characteristics of a user.

ユーザの身体的特徴に基づいて推薦を行うためのシステムの一例を示すブロック図。A block diagram showing an example of a system for making recommendations based on the physical characteristics of the user.

推薦エンジンの一実施形態を示すブロック図。The block diagram which shows one Embodiment of a recommendation engine.

ユーザの顔の3Dモデリングのための処理の一実施形態を示すフローチャート。A flowchart showing an embodiment of a process for 3D modeling of a user's face.

ユーザの顔の3Dモデリングのための処理の一実施形態を示すフローチャート。A flowchart showing an embodiment of a process for 3D modeling of a user's face.

ユーザの顔の3Dモーフィングモデルを生成するための主成分分析への入力および主成分分析からの出力の一例を示す図。The figure which shows an example of the input to the principal component analysis and the output from the principal component analysis for generating a 3D morphing model of a user's face.

ユーザの顔の1セットの画像から得られた参照点の一例を示す図。The figure which shows an example of the reference point obtained from one set of images of a user's face.

ユーザの顔の1セットの画像から得られた参照点の一例を示す図。The figure which shows an example of the reference point obtained from one set of images of a user's face.

3D空間における所定の3D顔の視覚化の一例を示す図。The figure which shows an example of the visualization of a predetermined 3D face in a 3D space.

推薦の説明を決定するための処理の一実施形態を示すフローチャート。A flowchart showing an embodiment of a process for determining a description of a recommendation.

顔データ採点システムの一実施形態を示すブロック図。The block diagram which shows one Embodiment of a face data scoring system.

分類器を用いて顔の特徴の特性を決定するための処理の一実施形態を示すフローチャート。A flowchart showing an embodiment of a process for determining the characteristics of facial features using a classifier.

在庫品を閲覧するための商品カタログのグラフィカルユーザインターフェース(GUI)の一例を示す図。The figure which shows an example of the graphical user interface (GUI) of the product catalog for browsing an inventory item.

図13AのGUIとのユーザ相互作用に応じて表示された商品を示すGUIの一例を示す図。FIG. 13A is a diagram showing an example of a GUI showing a product displayed according to a user interaction with the GUI of FIG. 13A.

図13AのGUIとのユーザ相互作用に応じて表示された商品を示すGUIの一例を示す図。FIG. 13A is a diagram showing an example of a GUI showing a product displayed according to a user interaction with the GUI of FIG. 13A.

在庫品を閲覧するための商品カタログのGUIの一例を示す図。The figure which shows an example of GUI of the product catalog for browsing an inventory item.

図14AのGUIとのユーザ相互作用に応じて表示されたGUIの一例を示す図。FIG. 14A is a diagram showing an example of a GUI displayed according to the user interaction with the GUI.

在庫品を閲覧するための商品カタログのGUIの一例を示す図。The figure which shows an example of GUI of the product catalog for browsing an inventory item.

図15AのGUIとのユーザ相互作用に応じて表示されたGUIの一例を示す図。FIG. 15A is a diagram showing an example of a GUI displayed according to the user interaction with the GUI.

ユーザの身体的特徴に基づいた推薦の出力を示すGUIの一例を示す図。The figure which shows an example of GUI which shows the output of the recommendation based on the physical characteristic of a user.

本発明は、処理、装置、システム、物質の組成、コンピュータ読み取り可能な格納媒体上に具現化されたコンピュータプログラム製品、および/または、プロセッサ(プロセッサに接続されたメモリに格納および/またはそのメモリによって提供される命令を実行するよう構成されたプロセッサ)を含め、様々な形態で実装されうる。本明細書では、これらの実装または本発明が取りうる任意の他の形態を、技術と呼ぶ。一般に、開示された処理の工程の順序は、本発明の範囲内で変更されてもよい。特に言及しない限り、タスクを実行するよう構成されるものとして記載されたプロセッサまたはメモリなどの構成要素は、ある時間にタスクを実行するよう一時的に構成された一般的な構成要素として、または、タスクを実行するよう製造された特定の構成要素として実装されてよい。本明細書では、「プロセッサ」という用語は、1または複数のデバイス、回路、および/または、コンピュータプログラム命令などのデータを処理するよう構成された処理コアを指すものとする。 The present invention presents the processing, equipment, systems, composition of materials, computer program products embodied on computer-readable storage media, and / or processors (stored in and / or memory in memory connected to the processor). It can be implemented in various forms, including a processor configured to execute the instructions provided). As used herein, these implementations or any other form that the invention may take is referred to as technology. In general, the order of the disclosed processing steps may be changed within the scope of the present invention. Unless otherwise stated, components such as processors or memory that are described as being configured to perform a task are either as general components that are temporarily configured to perform a task at a given time, or It may be implemented as a specific component manufactured to perform a task. As used herein, the term "processor" refers to a processing core configured to process data such as one or more devices, circuits, and / or computer program instructions.

以下では、本発明の原理を示す図面を参照しつつ、本発明の1または複数の実施形態の詳細な説明を行う。本発明は、かかる実施形態に関連して説明されているが、どの実施形態にも限定されない。本発明の範囲は、特許請求の範囲によってのみ限定されるものであり、本発明は、多くの代替物、変形物、および、等価物を含む。以下の説明では、本発明の完全な理解を提供するために、多くの具体的な詳細事項が記載されている。これらの詳細事項は、例示を目的としたものであり、本発明は、これらの具体的な詳細事項の一部または全てがなくとも特許請求の範囲に従って実施可能である。簡単のために、本発明に関連する技術分野で周知の技術事項については、本発明が必要以上にわかりにくくならないように、詳細には説明していない。 Hereinafter, one or more embodiments of the present invention will be described in detail with reference to the drawings showing the principles of the present invention. The present invention has been described in connection with such embodiments, but is not limited to any of the embodiments. The scope of the invention is limited only by the claims, and the invention includes many alternatives, variants, and equivalents. In the following description, many specific details are provided to provide a complete understanding of the present invention. These details are for purposes of illustration only, and the present invention can be carried out in accordance with the claims without some or all of these specific details. For the sake of simplicity, the technical matters well known in the technical fields related to the present invention are not described in detail so as not to make the present invention unnecessarily confusing.

ユーザの身体的特徴に基づいた推薦システムの実施形態が開示されている。様々な実施形態において、身体的特徴(「バイオメトリック特徴」とも呼ばれる)が決定され、ユーザに適切な商品の推薦を行うために用いられる。身体的特徴は、顔の構造または比率、顔の形、目の色および形、髪の色、皮膚の色、皮膚のパターンなど、ユーザの顔の3D表面を表現しうる。様々な実施形態において、ユーザの身体的特徴は、ユーザの画像に少なくとも部分的に基づいて決定される。身体的特徴と商品との間の相関が決定され、その決定された相関に少なくとも部分的に基づいて、商品推薦が生成される。ユーザの画像は、後に詳述するように、ユーザの正面像、側面像、または、その間の像の静止画またはビデオのフレームであってよい。 An embodiment of a recommender system based on the physical characteristics of the user is disclosed. In various embodiments, physical characteristics (also referred to as "biometric characteristics") are determined and used to make appropriate product recommendations to the user. Physical features can represent the 3D surface of the user's face, such as facial structure or proportions, facial shape, eye color and shape, hair color, skin color, skin pattern, etc. In various embodiments, the physical characteristics of the user are determined based at least in part on the image of the user. A correlation between physical characteristics and the product is determined, and product recommendations are generated based at least in part on the determined correlation. The user's image may be a still image or video frame of the user's front, side, or images in between, as described in detail later.

身体的特徴と商品との間の相関は、ユーザ間の類似度(類似する顔の3D表面など)またはユーザへの商品のフィットに基づいて決定されてよい。ユーザが報告した2D画像の属性または特性に基づいて推薦を提供する従来のスタイリストまたはフィットアドバイザと異なり、様々な実施形態において、ユーザの顔の3D表面の特徴など体系的に決定された3D身体的特徴に基づいて推薦がなされる。 The correlation between physical characteristics and merchandise may be determined based on the degree of similarity between users (such as the 3D surface of a similar face) or the fit of the merchandise to the user. Unlike traditional stylists or fit advisors who provide recommendations based on user-reported 2D image attributes or characteristics, in various embodiments, systematically determined 3D physical features such as 3D surface features of the user's face. Recommendations are made based on characteristics.

図1は、ユーザの画像に基づいて商品を推薦するための処理の一実施形態を示すフローチャートである。処理100は、図2のシステム200の1または複数の構成要素上で少なくとも部分的に実施されてよい。いくつかの実施形態において、処理200は、図3の推薦エンジン314によって実行される。 FIG. 1 is a flowchart showing an embodiment of a process for recommending a product based on a user's image. Process 100 may be performed at least partially on one or more components of system 200 of FIG. In some embodiments, the process 200 is performed by the recommendation engine 314 of FIG.

処理は、画像に基づいて身体的特徴を決定する(工程102)。身体的特徴とは、画像の対象物の属性のことである。例えば、ユーザの画像について、身体的特徴は、顔の3D表面、顔の構造または比率、顔の形、目の色、目の形、髪の色、肌の色、肌のパターンなど、顔の特徴を含む。図8Aおよび図8Bに関して詳述するように、目の間の距離、鼻梁から鼻先までの距離などの身体的特徴が、1セットの画像から得られた参照点を抽出することによって測定されうる。様々な実施形態において、画像は、身体的特徴の決定を容易にしうるその他のセンサデータ(深度センサなど)を含む。 The process determines physical characteristics based on the image (step 102). A physical feature is an attribute of an object in an image. For example, for a user's image, physical features include facial 3D surface, facial structure or proportions, face shape, eye color, eye shape, hair color, skin color, skin pattern, etc. Including features. As detailed with respect to FIGS. 8A and 8B, physical features such as the distance between the eyes, the distance from the bridge of the nose to the tip of the nose, etc. can be measured by extracting reference points obtained from a set of images. In various embodiments, the image includes other sensor data (such as a depth sensor) that can facilitate the determination of physical characteristics.

画像が、カメラ(図2のクライアントデバイス204に関連するカメラなど)によってキャプチャされてよい。その他のセンサデータが、様々なセンサ(深度センサなど)によってキャプチャされてもよい。いくつかの実施形態では、ユーザの単一の実質的に正面の画像があれば、商品推薦を行うのに十分である。いくつかの実施形態において、異なる角度から撮られたユーザの頭部の画像、ビデオを形成するフレームなど、ユーザの複数の画像が、本明細書で詳述するように、身体的特徴を決定するために用いられる。ユーザが、画像の撮り方の指示を提供されてもよい。例えば、ユーザは、カメラの前に位置して、カメラがビデオフレームをキャプチャする時に頭部を回転させるよう指示されうる。いくつかの実施形態において、ユーザは、左を見た後に右を見るよう指示されてもよい。いくつかの実施形態において、指示は、デモビデオクリップまたはアニメーションの形で提供されてよい。キャプチャされるビデオフレームの数は様々であってよい。カメラは、連続的なビデオまたはスナップショット(例えば、キャプチャ間の遅延を伴う一連の画像)でユーザの頭部をキャプチャするよう、プロセッサによって命令されうる。いくつかの実施形態において、カメラは、連続キャプチャモードでユーザの頭部の画像をキャプチャし、ここで、フレームレートは、ビデオのキャプチャよりも低くてよい。プロセッサは、ローカルであってもよいし、リモート(例えば、サーバ上にある)であってもよい。キャプチャされた画像は、後に詳述するように、対象物の身体的特徴を決定するため、および/または、選択された眼鏡フレームの3Dモデルが配置/試着されるユーザの顔の3Dモデルを決定するために利用できる。 The image may be captured by a camera (such as the camera associated with client device 204 in FIG. 2). Other sensor data may be captured by various sensors (such as depth sensors). In some embodiments, a single, substantially frontal image of the user is sufficient to make a product recommendation. In some embodiments, multiple images of the user, such as images of the user's head taken from different angles, frames forming the video, determine physical characteristics as detailed herein. Used for The user may be provided with instructions on how to take the image. For example, the user may be instructed to be in front of the camera and rotate his head as the camera captures a video frame. In some embodiments, the user may be instructed to look to the right after looking to the left. In some embodiments, the instructions may be provided in the form of demo video clips or animations. The number of video frames captured may vary. The camera may be instructed by the processor to capture the user's head in a series of videos or snapshots (eg, a series of images with delays between captures). In some embodiments, the camera captures an image of the user's head in continuous capture mode, where the frame rate may be lower than the video capture. The processor may be local or remote (eg, on a server). The captured image determines the physical characteristics of the object and / or the 3D model of the user's face on which the 3D model of the selected spectacle frame is placed / tried on, as detailed below. Can be used to.

いくつかの実施形態において、身体的特徴は、画像から構築されたユーザの頭部の中間モデルに基づいて決定される。中間モデルは、本明細書で詳述するように、顔の3D表面の顔特徴および頭部比率についての情報をエンコードするベクトルおよびポリゴンによって記述された頭部の3Dモデルであってよい。身体的特徴は、3Dモデルから抽出されてよい。いくつかの実施形態において、3Dモデルは、図3に示す3Dモデルエンジン306によって生成される。 In some embodiments, physical characteristics are determined based on an intermediate model of the user's head constructed from images. The intermediate model may be a 3D model of the head described by vectors and polygons that encode information about facial features and head proportions on the 3D surface of the face, as detailed herein. Physical features may be extracted from the 3D model. In some embodiments, the 3D model is generated by the 3D model engine 306 shown in FIG.

処理は、身体的特徴と商品との間の相関を決定する(工程104)。相関は、顔の特徴の類似度または顔の3D表面における類似度など、ユーザ間の関連性であってよい。相関は、ユーザへの商品のフィットの程度など、ユーザと商品との間の関係性であってもよい。本明細書で用いられるフィットとは、ユーザの顔に眼鏡がどれだけフィットするかなど、機能的なフィットを指しており、それは、快適さ、眼鏡がユーザに提供する視界の質などの要素によって示されうる。本明細書で用いられるフィットとは、ユーザの顔に掛けた眼鏡がどれだけすてきに見えるかなど、審美的なフィットも指しており、目に対するフレームの比率およびその他の顔の比率を点数化することによって示されうる。 The process determines the correlation between physical characteristics and merchandise (step 104). The correlation can be a relationship between users, such as the similarity of facial features or the similarity of a face on a 3D surface. The correlation may be the relationship between the user and the product, such as the degree of fit of the product to the user. As used herein, fit refers to a functional fit, such as how well the spectacles fit on the user's face, depending on factors such as comfort and the quality of vision that the spectacles provide to the user. Can be shown. As used herein, fit also refers to an aesthetic fit, such as how nice the glasses on the user's face look, and scores the ratio of the frame to the eyes and the ratio of other faces. Can be indicated by

処理は、商品を推薦する(工程106)。推薦は、決定された相関に少なくとも部分的に基づいて生成されてよい。様々な実施形態において、推薦は、ディープニューラルネットワーク、コンテンツベースフィルタリング、協調フィルタリング、または、それらの組みあわせを用いて決定される。 The process recommends the product (step 106). Recommendations may be generated based at least in part on the determined correlation. In various embodiments, recommendations are determined using deep neural networks, content-based filtering, collaborative filtering, or a combination thereof.

コンテンツベースフィルタリングは、他の商品と類似する商品を検索することである。眼鏡の例を用いると、形、色、材料(プラスチックまたはワイヤフレーム)、価格、レンズ処方への適合性などの属性に基づいて、類似度が評価されてよい。互いに対する商品の類似度で検索することにより、共有する属性または類似する属性を持つために他の眼鏡と類似する眼鏡を見つけることができる。或る商品に興味を持っているユーザが、類似の商品に興味を持つ場合もある。 Content-based filtering is the search for products that are similar to other products. Using the eyeglass example, similarity may be assessed based on attributes such as shape, color, material (plastic or wireframe), price, and compatibility with lens formulations. By searching by the similarity of products to each other, it is possible to find eyeglasses that are similar to other eyeglasses because they have shared or similar attributes. A user who is interested in a certain product may be interested in a similar product.

協調フィルタリングは、購入履歴に基づいて商品を見つけることである。第1ユーザが眼鏡A、B、および、Cを購入し、第2ユーザが眼鏡B、C、および、Dを購入したと仮定する。両者とも眼鏡BおよびCを購入しているので、第1ユーザおよび第2ユーザの購入履歴は、互いに類似する。いくつかの実施形態において、このデータの協調フィルタリングは、第1および第2ユーザの好みが似ているので、眼鏡Aを第2ユーザに推薦することができ、眼鏡Dを第1ユーザに推薦することができることを示唆する。 Collaborative filtering is finding products based on purchase history. It is assumed that the first user purchases eyeglasses A, B, and C, and the second user purchases eyeglasses B, C, and D. Since both purchase the glasses B and C, the purchase histories of the first user and the second user are similar to each other. In some embodiments, collaborative filtering of this data allows eyeglasses A to be recommended to a second user and eyeglasses D to be recommended to a first user because the preferences of the first and second users are similar. Suggest that you can.

様々な実施形態において、コンテンツベースフィルタリングまたは協調フィルタリングの結果は、他の要素(ユーザの示した嗜好など)に基づいて調整されてもよい。ユーザの肌のトーンと対照的な色のフレームがデフォルトで推薦されるが、そのユーザは、ユーザの肌のトーンと調和する色のフレームを好むと仮定する。推薦は、肌のトーンと調和するフレームへの嗜好をユーザが示唆したことに従って微調整されてよい。ユーザ嗜好情報があれば、ユーザの嗜好とさらに合った商品を推薦するように、推薦システムを更新できる。 In various embodiments, the results of content-based filtering or collaborative filtering may be adjusted based on other factors, such as user-expressed preferences. By default, a frame with a color that contrasts with the user's skin tone is recommended, but it is assumed that the user prefers a frame with a color that matches the user's skin tone. Recommendations may be fine-tuned according to user suggestions for a preference for frames that are in harmony with the skin tone. If there is user preference information, the recommendation system can be updated to recommend products that are more suitable for the user's preference.

一態様において、嗜好は、時と共に変化しうる。例えば、ユーザの嗜好は、スタイルの変化または好みの変化と共に変化しうる。推薦エンジンは、変化を学習して変化に適応することによって、それらの変化に適応できる。 In one aspect, preferences can change over time. For example, user preferences can change with changes in style or preferences. Recommendation engines can adapt to changes by learning and adapting to them.

いくつかの実施形態において、商品推薦は、推薦がなされた理由の説明を含む。商品が選択された理由を説明せずに推薦システムがユーザに推薦を提示する従来の技術と対照的に、ここでなされる推薦は、システムが何故どのように選択をしたのかについての事実および説明を含んでもよい。推薦の説明は、図10に示す処理に従ってなされてよい。相関および推薦の処理については、図4に示すシステムに関して本明細書でさらに説明する。 In some embodiments, the product recommendation includes an explanation of why the recommendation was made. In contrast to traditional techniques where recommender systems present recommendations to users without explaining why the product was selected, the recommendations made here are facts and explanations of why and how the system made the selection. May include. The description of the recommendation may be made according to the process shown in FIG. Correlation and recommendation processing will be further described herein with respect to the system shown in FIG.

図2は、ユーザの身体的特徴に基づいて推薦を行うためのシステムの一実施形態を示すブロック図である。この例において、システム200は、クライアントデバイス204、ネットワーク206、および、サーバ208を含む。クライアントデバイス204は、ネットワーク206を介してサーバ208と接続される。ネットワーク206は、高速データネットワークおよび/または遠隔通信ネットワークを含みうる。ユーザ202は、本明細書で詳述する方法に従って、推薦を行うのに有用な情報を提供するため、および、推薦を受信するために、クライアントデバイスと相互作用してよい。 FIG. 2 is a block diagram showing an embodiment of a system for making recommendations based on the physical characteristics of the user. In this example, system 200 includes client device 204, network 206, and server 208. The client device 204 is connected to the server 208 via the network 206. Network 206 may include high speed data networks and / or telecommunications networks. User 202 may interact with the client device to provide useful information for making recommendations and to receive recommendations according to the methods detailed herein.

クライアントデバイス204は、ユーザ202にユーザインターフェースを提供するよう構成されている。例えば、クライアントデバイス204は、入力を受信してもよいし、クライアントデバイスを持つユーザ202によるユーザ相互作用を観察してもよい。クライアントデバイスによって収集された情報の少なくとも一部に基づいて、推薦がユーザに対して出力される。いくつかの実施形態において、推薦は、本明細書で詳述するようにサーバ208と協働してなされる。 Client device 204 is configured to provide a user interface to user 202. For example, client device 204 may receive input or observe user interaction by user 202 with client device. Recommendations are printed to the user based on at least some of the information collected by the client device. In some embodiments, recommendations are made in collaboration with server 208 as detailed herein.

様々な実施形態において、クライアントデバイスは、カメラ、深度センサ、その他のセンサ、または、複数のセンサの組み合わせなどの入力構成要素を備える。カメラは、身体的特徴を決定する元になりうるユーザの画像を観察および/またはキャプチャするよう構成されてよい。ユーザは、本明細書で詳述するように、カメラを作動させるかまたはカメラに向かってポーズを取るよう指示されうる。入力構成要素によって収集された情報は、推薦を行うために利用および/または格納されてよい。 In various embodiments, the client device comprises input components such as a camera, a depth sensor, other sensors, or a combination of a plurality of sensors. The camera may be configured to observe and / or capture an image of the user that may be the basis for determining physical characteristics. The user may be instructed to activate or pose towards the camera, as detailed herein. The information collected by the input components may be utilized and / or stored for making recommendations.

サーバ108は、入力画像から身体的特徴を決定し、身体的特徴と商品との間の相関を決定し、商品を推薦するよう構成されている。サーバは、本明細書で詳述するように、ユーザの画像、商品の画像、ユーザの閲覧の傾向、ユーザプロフィールなど、様々な収集データに基づいて、相関および推薦を行ってよい。ユーザの身体的特徴に基づいて推薦を行うことには、多くの用途がある。ユーザの身体的特徴に基づいて推薦を行う用途の例は、眼鏡、化粧品、宝飾品など、顔に用いるアクセサリの仮想的な試着を含む。 The server 108 is configured to determine the physical characteristics from the input image, determine the correlation between the physical characteristics and the product, and recommend the product. The server may make correlations and recommendations based on various collected data such as user images, product images, user browsing habits, user profiles, etc., as detailed herein. Making recommendations based on the physical characteristics of the user has many uses. Examples of applications for making recommendations based on the user's physical characteristics include the virtual fitting of facial accessories such as eyeglasses, cosmetics, and jewelery.

図3は、ユーザの身体的特徴に基づいて推薦を行うためのシステムの一例を示すブロック図である。システム300は、図2のサーバ208に含まれてよい。この例において、システム300は、センサデータストレージ316、商品情報ストレージ312、ユーザ情報ストレージ318、推薦エンジン314、および、出力エンジン312を備える。 FIG. 3 is a block diagram showing an example of a system for making recommendations based on the physical characteristics of the user. The system 300 may be included in the server 208 of FIG. In this example, the system 300 includes a sensor data storage 316, a product information storage 312, a user information storage 318, a recommendation engine 314, and an output engine 312.

センサデータストレージ316は、画像/深度データ、静止画、ビデオのフレーム、および、様々なセンサからの関連データなど、センサデータを格納するよう構成される。センサデータは、様々なユーザに関連してよい。いくつかの実施形態において、画像ストレージは、カメラによって記録されたかまたは他の方法でキャプチャされた画像を格納する。画像の対象物は、(人間の)ユーザなどの対象物であってよい。画像は、例えばユーザプロフィールに関連する特定のユーザまたはユーザグループと関連付けて格納されてよい。センサデータストレージ316に格納された画像は、画像の対象物の身体的特徴を決定するために、本明細書に記載された方法に従ってリトリーブおよび処理されてよい。 The sensor data storage 316 is configured to store sensor data such as image / depth data, still images, video frames, and related data from various sensors. The sensor data may be relevant to various users. In some embodiments, image storage stores images recorded by a camera or otherwise captured. The object of the image may be an object such as a (human) user. Images may be stored, for example, in association with a particular user or user group associated with a user profile. The image stored in the sensor data storage 316 may be retrieved and processed according to the methods described herein to determine the physical characteristics of the object in the image.

商品情報ストレージ312は、在庫品に関する情報を格納するよう構成される。発明者は、購入できる眼鏡フレームなど、ユーザにとって入手可能な1セットの商品を含んでよい。例えば、色、形、サイズなど、商品の特徴が格納されてよい。商品の3Dモデルを表すデジタル表現(頂点の3D座標など)が格納されてもよい。各商品は、1または複数の所定のラベルと共に格納されてよい。本明細書で詳述するように、ラベルは、商品のタイプまたは特徴の記述であり、商品を他の商品とグループ化することを可能にしてよい。眼鏡フレームのラベルの例は、「プラスチック」または「金属」などの物理的属性の特性、もしくは、「学者風」、「まじめ風」、および、「スポーティー」などのスタイル/人間の知覚に基づく分類を含む。 The product information storage 312 is configured to store information about inventories. The inventor may include a set of merchandise available to the user, such as an eyeglass frame that can be purchased. For example, product features such as color, shape, and size may be stored. A digital representation (such as the 3D coordinates of the vertices) representing the 3D model of the product may be stored. Each item may be stored with one or more predetermined labels. As detailed herein, a label is a description of the type or characteristic of a product and may allow the product to be grouped with other products. Examples of eyeglass frame labels are characteristics of physical attributes such as "plastic" or "metal", or style / human perception-based classifications such as "scholarly", "serious", and "sporty". including.

様々な実施形態において、商品売上げ情報が格納されてもよい。売上げは、特定のユーザまたはユーザグループからの商品または商品グループの人気に関連しうる。 In various embodiments, product sales information may be stored. Sales can be related to the popularity of a product or product group from a particular user or user group.

ユーザ情報ストレージ318は、特定のユーザに関連する情報を格納するよう構成される。例えば、対象物の物理的特性、過去の購入、嗜好、および、ユーザインターフェースとの相互作用(例えば、ウェブ閲覧)の履歴など、ユーザを記述するユーザプロフィールが格納されてよい。 The user information storage 318 is configured to store information related to a specific user. For example, a user profile describing the user may be stored, such as the physical properties of the object, past purchases, preferences, and history of interactions with the user interface (eg, web browsing).

推薦エンジン314は、センサデータストレージ316、商品情報ストレージ312、および/または、ユーザ情報ストレージ314によって格納された情報の少なくとも一部に基づいて、推薦を行うよう構成される。様々な実施形態において、推薦エンジンは、ユーザの顔または頭部の画像などユーザの画像に少なくとも部分的に基づいて、ユーザの身体的特徴を決定するよう構成される。画像は、クライアントデバイスからリアルタイムで抽出されてよい、および/または、センサデータストレージ316から抽出されてよい。いくつかの実施形態において、身体的特徴は、画像から直接決定される。いくつかの実施形態において、身体的特徴は、3Dモデルまたはユーザの頭部から決定され、ここで、3Dモデルは、本明細書で詳述するように1セットの画像から引き出される。決定された身体的特徴に少なくとも部分的に基づいて、商品推薦が生成される。推薦エンジンは、異なるユーザの物理的特性の類似度および顧客の嗜好の類似度など、いくつかの要素に基づいて、推薦を行うよう構成されてよい。 The recommendation engine 314 is configured to make recommendations based on at least a portion of the information stored by the sensor data storage 316, the product information storage 312, and / or the user information storage 314. In various embodiments, the recommendation engine is configured to determine a user's physical characteristics based at least in part on the user's image, such as an image of the user's face or head. Images may be extracted in real time from the client device and / or from the sensor data storage 316. In some embodiments, physical characteristics are determined directly from the image. In some embodiments, the physical characteristics are determined from the 3D model or the user's head, where the 3D model is drawn from a set of images as detailed herein. Product recommendations are generated, at least in part, based on the determined physical characteristics. The recommendation engine may be configured to make recommendations based on several factors, such as the similarity of physical characteristics of different users and the similarity of customer preferences.

様々な実施形態において、推薦エンジンは、異なるユーザの身体的特徴の間の類似度に基づいて推薦を行う。例えば、或るユーザが特定の商品を購入するかまたはそれに興味を持った場合に、類似した身体的特徴を持つ別のユーザに同じ商品を推薦することができる。 In various embodiments, the recommendation engine makes recommendations based on the similarity between the physical characteristics of different users. For example, if one user purchases or is interested in a particular product, he or she can recommend the same product to another user with similar physical characteristics.

様々な実施形態において、推薦エンジンは、顧客の嗜好に適応することによって推薦を行う。適応は、リアルタムになされてよい。例えば、ユーザがウェブページをスクロールダウンするかまたは或るウェブページから別のウェブページへ進んだ時に、ユーザに対して表示された推薦が更新されてよい。ユーザがウェブページを閲覧する時に、ユーザに関する情報(商品への反応など)が収集されてよい。いくつかの実施形態において、この情報は、ユーザが後にアクセスすると予測されるコンテンツ(ユーザにはまだ見えていないウェブページの部分など)を更新するために即時に用いられてよい。いくつかの実施形態において、ユーザに関して収集された情報は、ユーザプロフィールと関連付けるなどして後の利用のために格納される。顧客の嗜好に応じたグラフィカルユーザインターフェース(GUI)の更新の例が、図13A〜図13C、図14A、図14B、図15A、および、図15Bに示されている。 In various embodiments, the recommendation engine makes recommendations by adapting to the tastes of the customer. Adaptation may be real tom. For example, the recommendations displayed to a user may be updated when the user scrolls down a web page or navigates from one web page to another. When a user browses a web page, information about the user (such as a reaction to a product) may be collected. In some embodiments, this information may be used immediately to update content that the user expects to access later, such as a portion of a web page that is not yet visible to the user. In some embodiments, the information collected about the user is stored for later use, such as by associating it with a user profile. Examples of updating the graphical user interface (GUI) according to customer preferences are shown in FIGS. 13A-13C, 14A, 14B, 15A, and 15B.

いくつかの実施形態において、スタイルのグループ(「スタイルクラスタ」とも呼ぶ)が、ユーザに推薦される。スタイルのグループについてのユーザフィードバックに応じて、スタイルのグループ内の商品が表示されてよい。例えば、学者風スタイルおよびスポーティースタイルの推薦がユーザに対してなされうる。様々な実施形態において、(例えば、電子商取引サイトごとに)個々の商品グループに対してカテゴリが決定される。カテゴリは、商品特性(例えば、材料:金属/プラスチック、スタイル:長方形/楕円形、色、サイズ)を用いて事前に作成されうる。商品特性は、多次元空間を形成し、その中で、クラスタリング技術(例えば、K平均クラスタリング)を適用して商品のクラスタを見出す。次いで、スタイルの専門家が、各クラスタにラベル(様々な実施形態において、人間にわかりやすいもの)を割り当てる:「学者風」、「スポーティー」、「まじめ風」など。クラスタが顧客に提示される時、推薦エンジン(例えば、図3の推薦エンジン314)は、Nサンプルの最もお勧めの眼鏡(例えば、N=30)を選び、どのクラスタがこれらのN個のサンプルを含むかを検索し、スコアに基づいてクラスタを順序付ける。スコアは、例えば、各クラスタ内のNサンプル由来の眼鏡の個数を計算することによって算出され、加重和などに基づいて計算されうる。 In some embodiments, a group of styles (also referred to as "style clusters") is recommended to the user. Depending on user feedback about the style group, the products in the style group may be displayed. For example, scholarly and sporty style recommendations can be made to the user. In various embodiments, categories are determined for individual product groups (eg, for each e-commerce site). Categories can be pre-created using product characteristics (eg, Material: Metal / Plastic, Style: Rectangle / Oval, Color, Size). The product characteristic forms a multidimensional space, in which a clustering technique (for example, K-means clustering) is applied to find a cluster of products. The style expert then assigns each cluster a label (human-friendly in various embodiments): "scholarly", "sporty", "serious" and so on. When the clusters are presented to the customer, the recommendation engine (eg, the recommendation engine 314 in FIG. 3) chooses the most recommended glasses of N samples (eg, N = 30), and which cluster has these N samples. Search for and order clusters based on score. The score is calculated, for example, by calculating the number of glasses derived from N samples in each cluster, and can be calculated based on a weighted sum or the like.

ユーザがスポーティーなスタイルを選択した場合、(例えば、本明細書で詳述する方法によって決定されたように)ユーザに合う「スポーティースタイル」グループ内の商品が表示される。スタイルクラスタのラベル(例えば、「学者風」)は、人間またはコンピュータによって作られてよい。一態様において、個々の商品ではなく集約された一部の商品を提示することで、あまりに多くの個々の商品でユーザを圧倒することなしにユーザが1グループの商品に集中して選択することを可能にすることにより、ユーザ体験を向上できる。 If the user chooses a sporty style, the products in the "sporty style" group that suit the user are displayed (eg, as determined by the methods detailed herein). Style cluster labels (eg, "scholarly") may be created by humans or computers. In one aspect, by presenting some aggregated products rather than individual products, users can focus on a group of products without overwhelming the user with too many individual products. By making it possible, the user experience can be improved.

推薦エンジンは、経時的に推薦の決定を改善するためにトレーニングされてよい。例えば、良好な推薦は、ユーザが従う傾向のある推薦である。経時的に、推薦エンジンは、ユーザが従う可能性が高い推薦を行うようにトレーニングされてよい。推薦エンジンをトレーニングするための処理の一例を、図12に示す。 The recommendation engine may be trained to improve recommendation decisions over time. For example, a good recommendation is one that the user tends to follow. Over time, the recommendation engine may be trained to make recommendations that the user is likely to follow. An example of the process for training the recommendation engine is shown in FIG.

出力エンジン312は、出力(推薦など)を提供するよう構成される。出力エンジンは、本明細書で詳述するように、特定の推薦がなされる原因となった要素など、個別の推薦がなされた理由の説明を含んでもよい。出力エンジン312は、クライアントデバイス(例えば、図2のクライアントデバイス204)のユーザインターフェースなど、様々な媒体で出力を提供してよい。 The output engine 312 is configured to provide output (recommendations, etc.). The output engine may include an explanation of why the individual recommendations were made, such as the factors that caused the particular recommendations to be made, as detailed herein. The output engine 312 may provide output in a variety of media, such as the user interface of a client device (eg, client device 204 in FIG. 2).

いくつかの実施形態において、システム300は、3Dモデルエンジン306を備える。モーフィングモデルエンジン306は、入力画像から三次元(3D)モデルを生成するよう構成される。様々な実施形態において、3Dモデルエンジンは、1セットの画像からユーザの頭部の3Dモデルを生成するよう構成される。様々な実施形態において、3Dモデルエンジンは、商品の説明または画像から商品の3Dモデルを生成するよう構成される。モーフィングモデルは、本明細書で詳述するように、ユーザの身体的特徴を抽出するために用いられてよい。 In some embodiments, the system 300 comprises a 3D model engine 306. The morphing model engine 306 is configured to generate a three-dimensional (3D) model from the input image. In various embodiments, the 3D model engine is configured to generate a 3D model of the user's head from a set of images. In various embodiments, the 3D model engine is configured to generate a 3D model of the product from the product description or image. The morphing model may be used to extract the physical characteristics of the user, as detailed herein.

3Dモデル(「モーフィングモデル」とも呼ぶ)は、様々な技術に従って生成されてよい。例えば、モデル化されるユーザの顔の入力画像が受信され、入力画像に対応するように統計モデルに入力すべき1セットのパラメータが、オプティカルフローに少なくとも部分的に基づいて決定されたコスト関数を用いて候補パラメータ値を評価することによって生成される。3Dモデル生成のさらなる例について、図5〜図7に関して説明する。 3D models (also referred to as "morphing models") may be generated according to various techniques. For example, a cost function in which an input image of the user's face to be modeled is received and a set of parameters to be input into the statistical model to correspond to the input image is determined based at least in part on the optical flow. Generated by evaluating candidate parameter values using. A further example of 3D model generation will be described with reference to FIGS. 5-7.

様々な実施形態において、PCA成分のサブセットが、様々な身体的特徴を規定する。例えば、PCA成分の1サブセットが、顔の形状を規定し、(第1サブセットと重複してもしなくてもよい)別のサブセットが、顔の比率を規定する。 In various embodiments, a subset of PCA components define various physical characteristics. For example, one subset of PCA components defines the shape of the face, and another subset (which may or may not overlap the first subset) defines the proportion of the face.

図4は、推薦エンジンの一実施形態を示すブロック図である。この例において、推薦エンジン400は、顔データ採点システム402、閲覧データ採点システム404、ユーザプロフィール採点システム406、および、相関器410を備える。 FIG. 4 is a block diagram showing an embodiment of the recommendation engine. In this example, the recommendation engine 400 includes a face data scoring system 402, a browsing data scoring system 404, a user profile scoring system 406, and a correlator 410.

顔データ採点システム402は、ユーザの身体的特徴(顔の特徴など)に基づいてスコアを提供するよう構成される。スコアは、ユーザに対する推薦を決定するために用いられてよい。本明細書で詳述するように、顔の特徴は、顔の構造または比率、顔の形、虹彩の色、髪の色、肌の色、および、肌のパターンを含む。推薦は、スコアS1であってよい。 The face data scoring system 402 is configured to provide scores based on the user's physical characteristics (such as facial features). The score may be used to determine a recommendation for the user. As detailed herein, facial features include facial structure or proportions, facial shape, iris color, hair color, skin color, and skin pattern. The recommendation may be score S1.

閲覧データ採点システム404は、ウェブサイトとの相互作用、購入履歴、閲覧行動など、ユーザの行動に基づいて、推薦を提供するよう構成される。例えば、ユーザが特定の商品に長くとどまっていた時、その行動は、その商品に関心を持っていることを示唆しうる。この関心はユーザに関連付けられてよく、その商品に類似する商品がユーザに推薦されてよい。 The browsing data scoring system 404 is configured to provide recommendations based on user behavior such as interaction with the website, purchase history, browsing behavior, and the like. For example, when a user stays in a particular product for a long time, that behavior can suggest that he or she is interested in that product. This interest may be associated with the user and a product similar to that product may be recommended to the user.

ユーザプロフィール採点システム406は、身体的特徴ではない顧客の属性に基づいて推薦を提供するよう構成される。属性の例は、位置、収入、教育、年齢、性別などの人口統計学データを含む。非バイオメトリック属性が、推薦に影響してもよい。例えば、晴れの多い州に住むユーザは、サングラスを求める可能性が高く、適切な商品がユーザに推薦されうる。 The user profile scoring system 406 is configured to provide recommendations based on customer attributes that are not physical characteristics. Examples of attributes include demographic data such as location, income, education, age, and gender. Non-biometric attributes may influence the recommendation. For example, a user living in a sunny state is more likely to want sunglasses and the right product may be recommended to the user.

相関器410は、ユーザの特徴(顔の特徴、ユーザ履歴など)と商品との間の相関を決定するよう構成される。相関器は、価格、色などの商品特性に基づいて、相関を決定してよい。相関器は、以下の要素の内の1または複数に基づいて相関を決定してよい:顔の類似度(コンテンツベースフィルタリング)、サイトとの相互作用、および/または、実店舗での購入履歴(協調フィルタリング)など。相関器は、採点システム402〜406の各々によって出力されたスコアを組み合わせてよい。いくつかの実施形態において、スコアは、組み合わせられる時に重み付けされる。システムの重み付けは、動的に調整されてもよいし予め規定されてもよい。例えば、ユーザは、スタイル、顔を引き立てること、フィットなどを強調したいと望みうる。スコアS1、S2、および、S3に割り当てられた重みが、それに従って調整されてよい。 The correlator 410 is configured to determine the correlation between the user's features (facial features, user history, etc.) and the product. The correlator may determine the correlation based on product characteristics such as price and color. The correlator may determine the correlation based on one or more of the following factors: facial similarity (content-based filtering), site interaction, and / or in-store purchase history ( Collaborative filtering) etc. The correlator may combine the scores output by each of the scoring systems 402-406. In some embodiments, the scores are weighted when combined. The weighting of the system may be dynamically adjusted or predetermined. For example, the user may want to emphasize style, facial enhancement, fit, and so on. The weights assigned to the scores S1, S2, and S3 may be adjusted accordingly.

いくつかの実施形態において、顔データは、推薦を行うためにより重要だと考えることができるので、顔データ(スコアS1)には、他のスコアよりも重い重み付けがされる。例えば、50%が顔データに割り当てられ、残りの50%がユーザデータおよびユーザプロフィールデータの間に分配される。 In some embodiments, the face data (score S1) is weighted heavier than the other scores, as the face data can be considered more important for making recommendations. For example, 50% is allocated to face data and the remaining 50% is distributed between user data and user profile data.

顔データの重み付けは、調整されてもよい。例えば、ユーザが推薦に納得しない場合、顔データに与えられた重みが低くされる。いくつかの実施形態において、重みは、ユーザが商品をクリックした後(これは、その商品に関心があることを示唆しうる)など、Webページとのユーザ相互作用に応じて、動的に調整される。いくつかの実施形態において、重みは、ユーザセッションに応じて動的に調整される。例えば、ユーザの閲覧セッション中(ユーザがウェブサイトを15分間訪問している間など)に収集された情報が、ウェブサイトとのユーザの相互作用に基づいて重みを調整するために処理される。ユーザが特定の商品を表示するウェブページの部分にとどまることは、それらの商品に興味があることを示唆しうる。 The weighting of the face data may be adjusted. For example, if the user is not satisfied with the recommendation, the weight given to the face data is reduced. In some embodiments, the weights are dynamically adjusted in response to the user's interaction with the web page, such as after the user clicks on the product (which may indicate that they are interested in the product). Will be done. In some embodiments, the weights are dynamically adjusted in response to the user session. For example, information collected during a user's browsing session (such as while the user is visiting a website for 15 minutes) is processed to adjust the weights based on the user's interaction with the website. Staying on the part of a web page where a user displays a particular product can suggest that they are interested in those product.

いくつかの実施形態において、ユーザの顔の3Dモデルおよび商品の3Dモデルを用いて、相関が実行される。顔および商品の各々に対して、本明細書に記載の3Dモーフィング技術が、顔および商品の各々のPCA成分を含む3Dモデルを抽出するために適用される。顔および商品および購入履歴の各々の頂点およびPCA成分が、商品に対する推薦を得るために相関器に提供される。 In some embodiments, a 3D model of the user's face and a 3D model of the product are used to perform the correlation. For each of the face and the product, the 3D morphing techniques described herein are applied to extract a 3D model containing the PCA components of each of the face and the product. Each vertex and PCA component of the face and goods and purchase history is provided to the correlator to obtain recommendations for the goods.

様々な実施形態において、推薦エンジンは、推薦された商品のリストを出力するよう構成される。いくつかの実施形態において、リストは、商品の順位付けリストであり、リスト内で、商品は、順位付けされた順に表示されてよい。推薦エンジンは、1または複数のルールを適用して推薦をさらにフィルタリングするよう構成されてもよい。例えば、推薦エンジンは、特定のブランド、或る価格帯の範囲の商品などを表示するよう構成されてもよい。 In various embodiments, the recommendation engine is configured to output a list of recommended products. In some embodiments, the list is a ranking list of merchandise, within which the merchandise may be displayed in the order in which they are ranked. The recommendation engine may be configured to apply one or more rules to further filter recommendations. For example, the recommendation engine may be configured to display a particular brand, goods in a certain price range, and the like.

いくつかの実施形態において、ディープニューラルネットワークが、ユーザの顔と購入との間の相関を見出すために用いられてよい。ユーザの顔、購入履歴、および、商品情報(商品特徴など)に関するデータが格納される。ディープニューラルネットワークは、顔および商品情報および購入履歴の組みあわせ(関係性、相関)を決定するためにトレーニングされてよい。換言すると、どの顔がどの商品を購入するのかを記述するように、データモデル(ディープニューラルネットワーク)が構築されてよい。データモデルを用いて、購入履歴がないかまたは購入履歴の短いユーザに対して、推薦がなされてよい。例えば、新規ユーザの顔に似た既知の顔が特定され、既知の顔の購入履歴に基づいて、新規ユーザの顔に対して商品が推薦される。商品は、ウェブサイトとのユーザ相互作用の履歴に基づいて推薦されてよい。 In some embodiments, deep neural networks may be used to find the correlation between the user's face and the purchase. Data related to the user's face, purchase history, and product information (product features, etc.) are stored. Deep neural networks may be trained to determine facial and product information and purchase history combinations (relationships, correlations). In other words, a data model (deep neural network) may be constructed to describe which face buys which product. The data model may be used to make recommendations to users who have no or short purchase history. For example, a known face similar to the face of a new user is identified, and a product is recommended for the face of the new user based on the purchase history of the known face. Products may be recommended based on a history of user interactions with the website.

図5は、ユーザの顔の3Dモデリングのための処理の一実施形態を示すフローチャートである。処理500は、図2のシステム200の1または複数の構成要素上で少なくとも部分的に実施されてよい。いくつかの実施形態において、 処理500は、図3の3Dモデルエンジン306によって実行される。いくつかの実施形態において、図5の処理の少なくとも一部は、図1の工程102に含まれる。 FIG. 5 is a flowchart showing an embodiment of a process for 3D modeling of a user's face. Process 500 may be performed at least partially on one or more components of system 200 of FIG. In some embodiments, process 500 is performed by the 3D model engine 306 of FIG. In some embodiments, at least a portion of the process of FIG. 5 is included in step 102 of FIG.

工程502で、モデル化されるユーザの顔の入力画像が受信される。ユーザの顔の入力画像は、ユーザの顔のキャプチャまたは記録された画像を含む。様々な実施形態において、ユーザの顔の入力画像は、ユーザの顔の正面像、ユーザの顔の側面像、または、正面像から側面像の間の角度のユーザの顔の像を含んでよい。 In step 502, the input image of the modeled user's face is received. The input image of the user's face includes a captured or recorded image of the user's face. In various embodiments, the input image of the user's face may include a frontal image of the user's face, a side image of the user's face, or an image of the user's face at an angle between the front and side images.

工程504で、入力画像に対応する統計モデルへの1セットのパラメータ値が、オプティカルフローに少なくとも部分的に基づいて決定されたコスト関数を用いて候補パラメータ値を評価することによって生成される。様々な実施形態において、入力画像内のユーザの顔と(例えば、最適にまたは所与の許容範囲内で)一致する顔の3Dモデルを生成するために、1または複数の形状成分ならびに1または複数のテクスチャ成分を含むPCAモデルに入力されるパラメータ値が決定される。いくつかの実施形態において、PCAモデルに入力されるパラメータ値に加えて、カメラの焦点距離、(例えば、3D空間内での)カメラの回転、および、(例えば、3D空間内での)カメラの平行移動に関連するさらなるパラメータも決定される。様々な実施形態において、PCAモデルに入力されるパラメータ値およびカメラパラメータ値は、パラメータ値の様々な候補セットを通して反復し、パラメータ値の候補セットを用いて顔の3Dモデルを生成し、候補合成画像を生成するために2D表面上に生成された顔の3Dモデルを投影し、各候補合成画像と入力画像との間のコストを計算することによって決定される。様々な実施形態において、各候補合成画像と入力画像との間のコストは、候補合成画像から入力画像までのオプティカルフローに基づいて決定される。 In step 504, a set of parameter values to the statistical model corresponding to the input image is generated by evaluating the candidate parameter values using a cost function determined at least partially based on the optical flow. In various embodiments, one or more shape components and one or more to generate a 3D model of a face that matches the user's face in the input image (eg, optimally or within a given tolerance). The parameter value input to the PCA model including the texture component of is determined. In some embodiments, in addition to the parameter values entered into the PCA model, the focal length of the camera, the rotation of the camera (eg, in 3D space), and the camera (eg, in 3D space). Additional parameters related to parallel movement are also determined. In various embodiments, the parameter values and camera parameter values input to the PCA model are iterated through various candidate sets of parameter values to generate a 3D model of the face using the candidate sets of parameter values to generate a candidate composite image. Is determined by projecting a 3D model of the generated face onto a 2D surface to generate and calculating the cost between each candidate composite image and the input image. In various embodiments, the cost between each candidate composite image and the input image is determined based on the optical flow from the candidate composite image to the input image.

図6は、ユーザの顔の3Dモデリングのための処理の一実施形態を示すフローチャートである。処理600は、図2のシステム200の1または複数の構成要素上で少なくとも部分的に実施されてよい。いくつかの実施形態において、処理600は、図3の3Dモデルエンジン306によって実行される。いくつかの実施形態において、図6の処理の少なくとも一部は、図1の工程102に含まれる。 FIG. 6 is a flowchart showing an embodiment of a process for 3D modeling of a user's face. Process 600 may be performed at least partially on one or more components of system 200 of FIG. In some embodiments, process 600 is performed by the 3D model engine 306 of FIG. In some embodiments, at least a portion of the process of FIG. 6 is included in step 102 of FIG.

工程602で、ユーザの顔の複数の3Dスキャンが、主成分分析(PCA)に入力される。PCAは、多数(例えば、200)の様々なユーザの顔の3Dスキャンに適用される。 In step 602, a plurality of 3D scans of the user's face are input into principal component analysis (PCA). PCA is applied to 3D scans of the faces of many (eg, 200) different users.

工程604で、複数の成分および複数の成分のそれぞれに対応するパラメータ値範囲を含むPCAモデルが、PCAから受信される。PCAは、入力データの中で1セットの線系的に相関しない変数(「主成分」と呼ばれる)を特定する統計的手法である。各主成分は、入力データの中の分散を表し、同じ入力データから決定された他の主成分の各々に直交する。様々な実施形態において、得られたPCAモデルは、ユーザの顔の入力3Dスキャンの中の形状およびテクスチャの分散をそれぞれ記述する1セットの形状成分および1セットのテクスチャ成分を含む。形状成分およびテクスチャ成分の組みあわせが、顔の3Dモーフィングモデルを形成する。いくつかの実施形態において、各形状成分は、ユーザの顔の3Dモデルの40,000の頂点を記述する40,000の(x,y,z)座標のベクトルである。いくつかの実施形態において、各テクスチャ成分は、ユーザの顔の3Dモデルの40,000の対応する頂点の色を記述する40,000の(r,g,b)値のベクトルである。形状成分のセットおよびテクスチャ成分のセットに加えて、PCAは、各形状成分またはテクスチャ成分に関連する各係数に対応する値域も出力する。1セットの形状係数およびテクスチャ係数が、3Dモーフィングモデルを用いて特定の顔を生成し、第2セットの形状係数およびテクスチャ係数が、別の特定の顔を生成し、これは、そのモデルが「モーフィング可能」と呼ばれる理由である。 In step 604, a PCA model containing the plurality of components and the parameter value ranges corresponding to each of the plurality of components is received from the PCA. PCA is a statistical method for identifying a set of linearly uncorrelated variables (called "principal components") in input data. Each principal component represents the variance in the input data and is orthogonal to each of the other principal components determined from the same input data. In various embodiments, the resulting PCA model comprises a set of shape components and a set of texture components that describe the variance of the shape and texture in the input 3D scan of the user's face, respectively. The combination of shape and texture components forms a 3D morphing model of the face. In some embodiments, each shape component is a vector of 40,000 (x, y, z) coordinates describing the 40,000 vertices of a 3D model of the user's face. In some embodiments, each texture component is a vector of 40,000 (r, g, b) values that describes the colors of the 40,000 corresponding vertices of the 3D model of the user's face. In addition to the set of shape components and the set of texture components, the PCA also outputs a range corresponding to each shape component or each coefficient associated with the texture component. One set of shape and texture coefficients produces a particular face using a 3D morphing model, and the second set of shape and texture coefficients generate another specific face, which the model says " That's why it's called "morphable".

様々な実施形態において、各形状成分またはテクスチャ成分に関連する係数に異なる値を割り当て、スケーリングされた形状成分を組みあわせて組み合わせ顔形状を生成し、スケーリングされたテクスチャ成分を組みあわせて組み合わせ顔テクスチャを生成し、組み合わせ顔形状と組み合わせ顔テクスチャを組み合わせることによって、1つの顔の異なる3Dモデルが生成されてよい。PCAの形状成分およびテクスチャ成分に対応する形状係数およびテクスチャ係数は、本明細書に記載する様々な実施形態で決定されるパラメータ値のセットに含まれる。いくつかの実施形態において、PCAモデルは、20の形状成分および20のテクスチャ成分を含むよう構成される。したがって、20の形状係数および20のテクスチャ係数が、本明細書に記載するいくつかの実施形態で決定されるパラメータ値のセットに含まれる。 In various embodiments, different values are assigned to the coefficients associated with each shape component or texture component, the scaled shape components are combined to generate a combined face shape, and the scaled texture components are combined to create a combined face texture. And by combining the combined face shape and the combined face texture, one different 3D model of the face may be generated. The shape and texture coefficients corresponding to the shape and texture components of the PCA are included in the set of parameter values determined in the various embodiments described herein. In some embodiments, the PCA model is configured to include 20 shape components and 20 texture components. Therefore, 20 shape coefficients and 20 texture coefficients are included in the set of parameter values determined in some embodiments described herein.

図7は、ユーザの顔の3Dモーフィングモデルを生成するための主成分分析への入力および主成分分析からの出力の一例を示す図である。図6の処理600で記載したように、異なるユーザの顔704の様々な3Dスキャンが主成分分析706に入力され、主成分分析706は、1または複数のソフトウェアおよびハードウェアを用いて実施されてよい。次いで、主成分分析706は、出力708を生成する。出力708は、1セットの形状成分S,・・・,Sを含んでおり、ここで、S=(x,y,z,・・・,x,y,z)であり、x、y、および、zは、頂点の3D位置である。出力708は、さらに、1セットのテクスチャ成分T,・・・,Tを含んでおり、ここで、T=(r,g, b,・・・,r,g,b)であり、集合的にr、g、および、bは、頂点の色である。いくつかの実施形態において、Nおよびnはいずれも、設定可能な値である。いくつかの実施形態において、N=20およびn=40,000である。出力708は、さらに、それぞれの形状成分に対応する各形状係数α,・・・,αの値域と、それぞれのテクスチャ成分に対応する各テクスチャ係数β,・・・,βの値域とを含む。 FIG. 7 is a diagram showing an example of an input to the principal component analysis and an output from the principal component analysis for generating a 3D morphing model of the user's face. As described in process 600 of FIG. 6, various 3D scans of different user faces 704 are input to principal component analysis 706 and principal component analysis 706 is performed using one or more software and hardware. Good. Principal component analysis 706 then produces output 708. The output 708 contains a set of shape components S 1 , ..., SN , where S i = (x 1 , y 1 , z 1 , ..., X n , y n , z. n ), where x, y, and z are the 3D positions of the vertices. Output 708 is further set texture component T 1 of the, ..., it includes a T N, where, T i = (r 1, g 1, b 1, ···, r n, g n , B n ), and collectively r, g, and b are the colors of the vertices. In some embodiments, both N and n are configurable values. In some embodiments, N = 20 and n = 40,000. The output 708 further has a range of each shape coefficient α 1 , ···, α N corresponding to each shape component and a range of each texture coefficient β 1 , ···, β N corresponding to each texture component. And include.

いくつかの実施形態において、平均形状Savg(例えば、40,000の頂点の3D位置を記述する3D座標を持つベクトル)が、主成分分析706とは別個に、異なるユーザの顔704の様々な3Dスキャンから生成される。いくつかの実施形態において、平均テクスチャTavg(例えば、40,000の頂点の色を記述するr、g、および、b値を持つベクトル)が、主成分分析706とは別個に、異なるユーザの顔の様々な3Dスキャンから生成される。 In some embodiments, the average shape Savg (eg, a vector with 3D coordinates describing the 3D positions of 40,000 vertices) is a variety of different user faces 704, apart from principal component analysis 706. Generated from a 3D scan. In some embodiments, the average texture Tavg (eg, a vector with r, g, and b values describing the colors of 40,000 vertices) is of a different user, separate from the principal component analysis 706. Generated from various 3D scans of the face.

様々な実施形態において、出力208の形状成分およびテクスチャ成分と平均形状成分および平均テクスチャ成分とを組みあわせ、新たな3D顔形状および新たな3D顔テクスチャが、以下の式に基づいて生成されてよい: In various embodiments, the shape and texture components of output 208 may be combined with the average shape and texture components to generate a new 3D face shape and new 3D face texture based on the following equation: :

new=Savg+Σα (1) S new = S avg + Σ i α i S i (1)

new=Tavg+Σβ (2) T new = T avg + Σ i β i T i (2)

ここで、Snewは、新たな3D顔形状を表し、Savgは、平均形状を表し、αは、Sに対応する形状係数を表し、Sは、PCA形状成分を表し、Tnewは、新たな3D顔テクスチャを表し、Tavgは、平均テクスチャを表し、βは、Tに対応するテクスチャ係数を表し、Tは、PCAテクスチャ成分を表す。 Here, S new new represents a new 3D face shape, S avg represent the average shape, alpha i represents the shape factor corresponding to S i, S i represents the PCA shape component, T new new represents a new 3D facial texture, T avg represents the average texture, beta i represents a texture coefficient corresponding to T i, T i denotes the PCA texture component.

次いで、SnewおよびTnewは、顔の新たな3Dモデルを生成するために、1メッシュに組み合わせられてよい。例えば、SnewおよびTnewは、Snewの各頂点を、同じ頂点に対応するTnewの色に割り当てることによって組み合わせられてよい。 S new and T new may then be combined into a mesh to generate a new 3D model of the face. For example, S new new and T new is the vertices of S new new, may be combined by assigning T new color corresponding to the same vertex.

いくつかの実施形態において、PCAモデルの形状係数α,・・・,αN=20およびテクスチャ係数β,・・・,βN=20は、決定されるパラメータ値のセットに含まれる。 In some embodiments, the shape coefficients α 1 , ···, α N = 20 and the texture coefficients β 1 , ···, β N = 20 of the PCA model are included in the set of parameter values to be determined.

図8Aは、ユーザの顔の1セットの画像から得られた参照点の一例を示す。参照点は、様々な顔の特徴の位置を規定し、ユーザの顔の3Dモデルを生成するために用いられる。図8Aは、画像800を示し、ここで、ユーザは正面を向いており、参照点802は、ユーザの右目の目頭にあり、座標(x0,y0)が割り当てられている。目の参照点は、さらに、座標(x1,y1)の左目頭の点804および座標(x2,y2)の左目尻の点806を含みうる。右目頭802および左目頭804の2つの参照点から、ブリッジ距離808を決定できる。いくつかの実施形態において、左目頭の点804および左目尻の点806を用いて、レンズ距離を決定できる(結果として距離810になる)。 FIG. 8A shows an example of reference points obtained from a set of images of the user's face. Reference points are used to define the location of various facial features and generate a 3D model of the user's face. FIG. 8A shows image 800, where the user is facing forward, reference point 802 is at the inner corner of the user's right eye, and coordinates (x0, y0) are assigned. The eye reference point may further include a point 804 at the inner corner of the left eye at coordinates (x1, y1) and a point 806 at the outer corner of the left eye at coordinates (x2, y2). The bridge distance 808 can be determined from the two reference points of the right inner canthus 802 and the left inner canthus 804. In some embodiments, the point 804 at the inner corner of the left eye and the point 806 at the outer corner of the left eye can be used to determine the lens distance (resulting in a distance of 810).

図8Bは、ユーザの顔の1セットの画像から得られた参照点の一例を示す。図8Bは、別の向きのユーザの顔を含む別の画像(すなわち、右側面像820)を示しており、座標(y4,z4)の右目尻の参照点822および座標(y3,z3)で耳輪が頭部とつながる上部の点824が含まれる。横顔の写真から、z座標をユーザの顔の3Dモデルに追加できる。ユーザの顔の2Dビデオフレームから、ユーザの顔の3Dモデルを決定できる。 FIG. 8B shows an example of reference points obtained from a set of images of the user's face. FIG. 8B shows another image (ie, right side image 820) containing the user's face in a different orientation, at reference point 822 and coordinates (y3, z3) at the right corner of the eye at coordinates (y4, z4). Includes an upper point 824 where the helix connects to the head. From the profile picture, the z coordinate can be added to the 3D model of the user's face. From the 2D video frame of the user's face, the 3D model of the user's face can be determined.

いくつかの実施形態において、2D画像(例えば、図8Aおよび図8Bに示したものなど)からの参照点が、ユーザの顔の3Dモデルを作成するために組み合わせられる。対応する参照点が、ユーザの顔/頭部における参照点(例えば、顔の特徴の位置)の各々の位置を表す1セットの(x,y,z)座標を作成するために組み合わせられる。例えば、図8Aの前向きビデオフレーム800からの右目尻812の(x,y)座標を、用図8Bの右向き画像/ビデオフレーム820における右目尻の参照点822のz座標と組み合わせて、座標を備えた参照点を得ることができる。ユーザの顔の3Dモデルは、まつげ内側の点、目尻、目頭、耳の接合点、頬骨、鼻先などの3D点(対応する(x,y,z)座標)を含む。 In some embodiments, reference points from 2D images (eg, those shown in FIGS. 8A and 8B) are combined to create a 3D model of the user's face. Corresponding reference points are combined to create a set of (x, y, z) coordinates representing each position of a reference point (eg, the position of a facial feature) on the user's face / head. For example, the (x, y) coordinates of the right outer corner 812 from the forward-looking video frame 800 of FIG. 8A are combined with the z-coordinate of the reference point 822 of the right outer corner of the right eye in the right-facing image / video frame 820 of FIG. You can get the reference points. The 3D model of the user's face includes 3D points (corresponding (x, y, z) coordinates) such as points inside the eyelashes, outer corners of the eyes, inner corners of the eyes, joints of the ears, cheekbones, and tips of the nose.

図9は、3D空間における所定の3D顔の視覚化の一例を示す図である。いくつかの実施形態において、所定の3D顔は、.objファイルを含む。図9の例において、所定の3D顔900は、所定の3D顔の顔の特徴の形状を規定する三角形ポリゴンを含む。いくつかの実施形態において、各ポリゴンは、顔のその領域の色を表す関連の色を含む。図9の例では、所定の3D顔900は、三角形ポリゴンを含むが、実際の実施例では、所定の3D顔が、その他の形状のポリゴンおよび/またはその他の数の頂点を含んでもよい。 FIG. 9 is a diagram showing an example of visualization of a predetermined 3D face in 3D space. In some embodiments, a given 3D face is: Includes obj file. In the example of FIG. 9, the predetermined 3D face 900 includes a triangular polygon that defines the shape of the facial features of the predetermined 3D face. In some embodiments, each polygon contains an associated color that represents the color of that area of the face. In the example of FIG. 9, the predetermined 3D face 900 includes triangular polygons, but in an actual embodiment, the predetermined 3D face may include polygons of other shapes and / or other number of vertices.

図10は、推薦の説明を決定するための処理の一実施形態を示すフローチャートである。処理1000は、図2のシステム200の1または複数の構成要素上で少なくとも部分的に実施されてよい。いくつかの実施形態において、処理200は、図3の推薦エンジン314および/または出力エンジン312によって実行される。いくつかの実施形態において、図10の処理の少なくとも一部は、図1の工程104および/または工程106に含まれる。出力の一例が、図16に示されている。 FIG. 10 is a flowchart showing an embodiment of a process for determining the description of the recommendation. Process 1000 may be performed at least partially on one or more components of system 200 of FIG. In some embodiments, the process 200 is performed by the recommendation engine 314 and / or the output engine 312 of FIG. In some embodiments, at least a portion of the process of FIG. 10 is included in step 104 and / or step 106 of FIG. An example of the output is shown in FIG.

処理は、1または複数の画像に基づいて、顔の3D再構築を実行する(工程1002)。3D再構築は、本明細書に記載の方法に従って実行されてよい。例えば、頭部の3Dモデルが、画像から生成されてよい。顔のポーズが、回転行列および並進ベクトルから決定されてよい。ポーズの評価が、3Dモデルおよびカメラの固有パラメータに基づいて顔に対して実行されてよい。 The process performs a 3D reconstruction of the face based on one or more images (step 1002). The 3D reconstruction may be performed according to the method described herein. For example, a 3D model of the head may be generated from the image. The pose of the face may be determined from the rotation matrix and the translation vector. Pose evaluation may be performed on the face based on the 3D model and the camera's unique parameters.

処理は、3D再構築に基づいて身体的特徴の説明を決定する(工程1004)。例えば、顔の形、顔の構造または比率、目の色、髪の色、肌の色、および/または、テクスチャなど、顔の特徴が決定されてよい。特定の鼻パッド構造を備えた眼鏡フレームを選んだ説明が、比較的狭くて短い鼻梁の顔特徴によって説明されてよい。眼鏡の特定の鼻パッド構造は、そのタイプの鼻梁に適切で(例えば、良好にフィットし)、快適さと、フレーム内で目が中心にくる審美的なフィットを両立しうる。 The process determines the description of the physical characteristics based on the 3D reconstruction (step 1004). Facial features such as face shape, facial structure or proportions, eye color, hair color, skin color, and / or texture may be determined. The description of choosing a spectacle frame with a particular nasal pad structure may be explained by the facial features of a relatively narrow and short nasal bridge. The particular nasal pad structure of the spectacle is suitable for that type of nasal bridge (eg, a good fit) and can combine comfort with an aesthetic fit centered on the eye within the frame.

処理は、説明を出力する(工程1006)。説明は、推薦がなされた理由について、より多くの内容および情報をユーザに提供するために、推薦と共に出力されてよい。比較的狭くて短い鼻梁に適した鼻パッドの例に戻ると、ユーザの鼻梁の構造を理由にフレームがユーザに適していることをユーザに知らせるために、この身体的属性がGUIで出力されてよい。 The process outputs a description (step 1006). The description may be output with the recommendation in order to provide the user with more content and information as to why the recommendation was made. Returning to the example of a nasal pad suitable for a relatively narrow and short nasal bridge, this physical attribute is output in the GUI to inform the user that the frame is suitable for the user because of the structure of the user's nasal bridge. Good.

図11は、顔データ採点システムの一実施形態を示すブロック図である。この例において、顔データ採点システム1100は、分類器1102〜1106を備える。分類器の各々は、受信した特徴に基づいてスコアを出力するよう構成されてよい。例えば、分類器1102は、特徴1を受信してその特徴のスコアを出力し、分類器1104は、特徴2を受信してその特徴のスコアを出力し、分類器1106は、特徴3を受信してその特徴のスコアを出力する。様々な実施形態において、分類器は、より多くのトレーニングデータが分類器に入力されると共に経時的に採点が改善するように、機械学習モデルによって実装される。 FIG. 11 is a block diagram showing an embodiment of a face data scoring system. In this example, the face data scoring system 1100 comprises classifiers 1102-1106. Each of the classifiers may be configured to output a score based on the received features. For example, the classifier 1102 receives the feature 1 and outputs the score of the feature, the classifier 1104 receives the feature 2 and outputs the score of the feature, and the classifier 1106 receives the feature 3. Outputs the score of the feature. In various embodiments, the classifier is implemented by a machine learning model so that more training data is input to the classifier and the scoring improves over time.

図に示すように、様々な数の分類器がシステムに提供されてよく、各々が、それぞれの特徴タイプを取り扱うよう適合される。各特徴タイプは、顔の形、肌の色、目の色、髪の色、顔の比率などを含む。いくつかの実施形態において、1または複数の特徴タイプが、顔の3D表面に基づいて決定されてよい。 As shown in the figure, various numbers of classifiers may be provided to the system, each adapted to handle its own feature type. Each feature type includes face shape, skin color, eye color, hair color, face proportions, and the like. In some embodiments, one or more feature types may be determined based on the 3D surface of the face.

顔の形は、以下のように検出されてよい。分類器が、受信した特徴に基づいて顔の形を決定するよう構成される。分類器は顔の輪郭を決定し、ここで輪郭は1セットの点である。輪郭は、ライブラリまたは従来の方法を用いて決定されてよい。分類器が、各顔形状にスコアを割り当てるよう構成される。スコアのベクトルが、顔の輪郭を記述する。いくつかの実施形態において、顔の形は、顔が、円形、楕円形、ハート型、三角形、および、四角形など、所定のカテゴリまたはラベルに該当する程度によって記述される。例えば、顔が、40%四角形で60%楕円形であってもよく、100%楕円形として分類される必要はない。分類器は、顔の輪郭の点のセットと既知の点のセットとの間の一致度または類似度を決定することによってスコアを割り当てるよう構成される。閾値内の一致度または類似度であった場合、これは、形状が、所定の割合で楕円形、所定の割合で四角形などであることを意味する。 The shape of the face may be detected as follows. A classifier is configured to determine the shape of the face based on the features received. The classifier determines the contour of the face, where the contour is a set of points. The contour may be determined using a library or conventional methods. A classifier is configured to assign a score to each face shape. The score vector describes the contour of the face. In some embodiments, the shape of the face is described by the extent to which the face falls under a given category or label, such as circular, oval, heart-shaped, triangular, and square. For example, the face may be 40% quadrangular and 60% oval and need not be classified as 100% oval. The classifier is configured to assign scores by determining the degree of coincidence or similarity between a set of facial contour points and a set of known points. If the degree of coincidence or similarity is within the threshold value, this means that the shape is an ellipse at a predetermined ratio, a quadrangle at a predetermined ratio, and the like.

様々な実施形態において、肌の領域が、顔の輪郭を規定する。例えば、肌の領域は、髪の毛が終わり肌が始まるところ、背景が終わり肌が始まるところなどの決定である。 In various embodiments, areas of the skin define the contours of the face. For example, the area of the skin is a determination of where the hair ends and the skin begins, where the background ends and the skin begins, and so on.

いくつかの実施形態において、顔の特徴は、画像から直接抽出される。いくつかの実施形態において、顔の特徴は、本明細書で詳述するようにモーフィングモデルから抽出される。検出されたの顔の輪郭は、顔の形の検出に関連する機械学習モデルに入力されてよい。 In some embodiments, facial features are extracted directly from the image. In some embodiments, facial features are extracted from the morphing model as detailed herein. The detected facial contours may be input to the machine learning model associated with face shape detection.

肌のパターンは、肌のテクスチャ、あざ、きめの粗さなどの測定値である。商品推薦は、ユーザの肌のパターンに適合されてもよい。例えば、独自の肌のパターンが、推薦する商品の選択に影響してよい。様々な実施形態において、肌のパターンは、肌を表す領域からピクセルをサンプリングすることによって決定される。いくつかの実施形態において、3Dモーフィング頭部が、肌の領域に関する情報を提供し、肌のパターンの決定のためにピクセルがサンプリングされる領域を狭める。例えば、画像が、肌領域および非肌領域(例えば、髪、衣服、背景など)に分割される次いで、肌領域が、肌のパターンを決定するためにサンプリングされてよい。 The skin pattern is a measurement of skin texture, bruises, texture roughness, and the like. Product recommendations may be adapted to the user's skin pattern. For example, a unique skin pattern may influence the selection of recommended products. In various embodiments, the pattern of the skin is determined by sampling pixels from the area representing the skin. In some embodiments, the 3D morphing head provides information about the skin area and narrows the area where the pixels are sampled to determine the skin pattern. For example, the image is divided into skin and non-skin areas (eg, hair, clothing, background, etc.), and then the skin areas may be sampled to determine the pattern of the skin.

様々な実施形態において、分類器が、肌の色を決定するよう構成される。肌の色は、ユーザの顔の少なくとも一部の色を記述する。肌の色は、RGB、CIELABなどの様々な色空間で記述されてよい。肌の色は、ユーザの顔の画像のセットに少なくとも部分的に基づいて、ユーザの顔の様々な領域から色をサンプリングすることによって決定されてよい。 In various embodiments, a classifier is configured to determine skin color. Skin color describes the color of at least a portion of the user's face. The skin color may be described in various color spaces such as RGB and CIELAB. Skin color may be determined by sampling colors from different areas of the user's face, at least partially based on a set of images of the user's face.

肌の色は、画像が記録された照明環境を考慮に入れて決定されてよい。様々な実施形態において、ユーザの顔に関連する画像セットの各画像について、その特定の画像に関連する付帯情報のセットで変換されたモーフィング済みの3D一般モデルに、その特定の画像に関連する付帯部情報のセットで同じく変換された3D眼鏡モデルが装着され、変換された3D眼鏡モデルが変換された3D一般モデルへ落とす影が、所与の照明モデルでシミュレートされる。いくつかの実施形態において、照明モデルは、画像のセットにおけるユーザの特定の照明環境に基づいて決定される。例えば、3D眼鏡モデルは、ユーザの顔に仮想的に試着するよう選択された眼鏡に関連する。様々な実施形態において、変換された3D一般モデルに眼鏡モデルが落とす影を含む影有りの2D顔画像が生成される。様々な実施形態において、各画像の対応する2D顔画像と、対応する影有りの2D顔画像との間の差異に少なくとも部分的に基づいて、ユーザの顔に関連する画像セットの各画像に対して、対応する影変換が生成される。様々な実施形態において、ユーザの顔に関連する画像セット内の画像に対応する影変換をその画像に適用して、選択された眼鏡がユーザの顔に落とす影をその画像内でレンダリング/シミュレートすることができる。対応する影変換が適用されたユーザの顔の画像は、ユーザの顔への選択された眼鏡の仮想試着をシミュレートするために、選択された眼鏡の2D画像のオーバーレイと共に、ユーザの特定の照明環境に基づいて決定された照明モデルを用いてシミュレートされたように、選択された眼鏡がユーザの顔に落とす現実の影を伴って提示されうる。 The skin color may be determined taking into account the lighting environment in which the image was recorded. In various embodiments, for each image in the image set associated with the user's face, the morphed 3D general model transformed with the set of ancillary information associated with that particular image is associated with the particular image. A similarly transformed 3D spectacle model is fitted with a set of part information, and the shadow cast by the transformed 3D spectacle model onto the transformed 3D general model is simulated in a given lighting model. In some embodiments, the lighting model is determined based on the user's particular lighting environment in the set of images. For example, a 3D spectacle model relates to spectacles selected to virtually try on the user's face. In various embodiments, a shaded 2D face image is generated that includes the shadow cast by the spectacle model on the transformed 3D general model. In various embodiments, for each image in the image set associated with the user's face, at least in part, based on the difference between the corresponding 2D face image of each image and the corresponding shaded 2D face image. The corresponding shadow transformation is generated. In various embodiments, a shadow transform corresponding to an image in the image set associated with the user's face is applied to the image to render / simulate the shadow cast by the selected eyeglasses on the user's face in the image. can do. The image of the user's face with the corresponding shadow transform applied, along with a 2D image overlay of the selected eyeglasses, to simulate the virtual fitting of the selected eyeglasses to the user's face, along with the user's specific lighting. The selected eyeglasses can be presented with a real shadow cast on the user's face, as simulated using an environment-based lighting model.

いくつかの実施形態において、顔の特徴は、画像から直接抽出される。いくつかの実施形態において、顔の特徴は、本明細書で詳述するようにモーフィングモデルから抽出される。例えば、肌の色は、ポリゴンの色に基づいてモーフィングモデルから決定されてよい。サンプリングされた色は、肌の色の決定に関連する機械学習モデルに入力されてよい。 In some embodiments, facial features are extracted directly from the image. In some embodiments, facial features are extracted from the morphing model as detailed herein. For example, the skin color may be determined from the morphing model based on the color of the polygons. The sampled color may be input to a machine learning model involved in determining skin color.

様々な実施形態において、分類器が、目の色を決定するよう構成される。目の色は、ユーザの顔の画像のセットに少なくとも部分的に基づいて、ユーザの目の様々な領域(虹彩など)から色をサンプリングすることによって決定されてよい。いくつかの実施形態において、顔の特徴は、画像から直接抽出される。いくつかの実施形態において、顔の特徴は、本明細書で詳述するようにモーフィングモデルから抽出される。例えば、3Dモーフィング頭部は、目の位置を特定することで、目の色を決定するためにピクセルがサンプリングされる領域を狭めるために用いられてよい。サンプリングされた色は、目の色の決定に関連する機械学習モデルに入力されてよい。 In various embodiments, a classifier is configured to determine eye color. Eye color may be determined by sampling colors from various areas of the user's eyes (such as the iris), at least in part based on a set of images of the user's face. In some embodiments, facial features are extracted directly from the image. In some embodiments, facial features are extracted from the morphing model as detailed herein. For example, a 3D morphing head may be used to narrow the area where pixels are sampled to determine the color of the eye by locating the eye. The sampled colors may be input to the machine learning model involved in determining eye color.

様々な実施形態において、分類器が、髪の色を決定するよう構成される。髪の色は、ユーザの顔の画像のセットに少なくとも部分的に基づいて、ユーザの髪の様々な領域から色をサンプリングすることによって決定されてよい。いくつかの実施形態において、顔の特徴は、画像から直接抽出される。いくつかの実施形態において、顔の特徴は、本明細書で詳述するようにモーフィングモデルから抽出される。サンプリングされた色は、髪の色の決定に関連する機械学習モデルに入力されてよい。 In various embodiments, a classifier is configured to determine hair color. Hair color may be determined by sampling colors from different areas of the user's hair, at least partially based on a set of images of the user's face. In some embodiments, facial features are extracted directly from the image. In some embodiments, facial features are extracted from the morphing model as detailed herein. The sampled color may be input to a machine learning model involved in determining hair color.

様々な実施形態において、分類器は、顔の構造(顔の比率とも呼ぶ)を決定するよう構成される。顔の比率は、ユーザの顔の1セットの画像に少なくとも部分的に基づいて、少なくとも2つの顔特徴距離の間の比率を抽出することによって決定されてよい。例えば、分類器は、顔の幅および顔の特徴のその他の測定値または比率を受信してよい。例えば、(i)目尻の間の距離と(ii)鼻の先端から鼻のブリッジラインまでの間の距離との比率であり、ここで、ブリッジラインは、鼻を横切って目頭につながる線である。 In various embodiments, the classifier is configured to determine the structure of the face (also referred to as the face ratio). The face ratio may be determined by extracting the ratio between at least two facial feature distances, at least partially based on a set of images of the user's face. For example, the classifier may receive other measurements or ratios of facial width and facial features. For example, (i) the ratio between the distance between the outer corners of the eyes and (ii) the distance from the tip of the nose to the bridge line of the nose, where the bridge line is the line that crosses the nose and connects to the inner corner of the eye. ..

いくつかの実施形態において、顔の特徴は、画像から直接抽出される。いくつかの実施形態において、顔の特徴は、本明細書で詳述するようにモーフィングモデルから抽出される。サンプリングされた色は、顔の比率の決定に関連する機械学習モデルに入力されてよい。 In some embodiments, facial features are extracted directly from the image. In some embodiments, facial features are extracted from the morphing model as detailed herein. The sampled colors may be input to the machine learning model involved in determining the face ratio.

様々な実施形態において、分類器は、顔の3D表面を決定するよう構成される。顔の3D表面は、ユーザの顔のモーフィングモデルから位置または頂点を取得することによって測定された顔の構造の記述である。様々な特徴が、顔の3Dモデルから決定されてよい。例えば、顔の形が、頭部の3Dモーフィングモデルから特徴を抽出することによって決定されてよい。例えば、鼻梁領域、頬骨、パントスコピック傾斜(顔に対するレンズの角度)、および、その他の特徴が、3Dモーフィングモデルから決定されてよい。眼鏡のフィット、および、眼鏡が特定のユーザの顔でどのように見えるかが、これらの要素に基づいて評価されてよい。フィットが悪いまたはユーザの顔に掛けて見栄えがよくない眼鏡は、推薦リストを作る時に優先順位を下げてもよいし、推薦しなくてもよい。 In various embodiments, the classifier is configured to determine the 3D surface of the face. The 3D surface of the face is a description of the facial structure measured by obtaining positions or vertices from the user's facial morphing model. Various features may be determined from the 3D model of the face. For example, the shape of the face may be determined by extracting features from a 3D morphing model of the head. For example, the bridge of the nose, cheekbones, pantoscopic tilt (angle of the lens with respect to the face), and other features may be determined from the 3D morphing model. The fit of the spectacles and how the spectacles look on the face of a particular user may be evaluated based on these factors. Eyeglasses that don't fit well or don't look good on the user's face may or may not be prioritized when making a recommendation list.

いくつかの実施形態において、3Dモーフィング頭部を前提として顔の特徴を識別するように分類器をトレーニングするために、顔の3D表面の頂点座標および色が、モーフィング頭部から抽出されてよい。頂点の座標は、モーフィング頭部を形成するポリゴンであってよい。いくつかの実施形態において、モーフィング頭部は、ポリゴンを形成する多数の座標(例えば、20,000ポイントのオーダー)を含んでよい。各ポリゴンは、関連の色を有してよい。座標は、データモデルまたは分類器(機械学習モデルで実装されてよい)に供給される。頂点の座標および商品のラベルは、分類器に供給される。ラベルは、商品を表現として予め決定されるか、割り当てられるか、または、自動的に決定されてよい。分類器は、頂点とラベルとの間の相関を決定する。 In some embodiments, the apex coordinates and colors of the 3D surface of the face may be extracted from the morphing head to train the classifier to identify facial features assuming a 3D morphing head. The coordinates of the vertices may be polygons forming the morphing head. In some embodiments, the morphing head may include a number of coordinates forming the polygon (eg, on the order of 20,000 points). Each polygon may have a related color. Coordinates are supplied to a data model or classifier (which may be implemented in a machine learning model). The coordinates of the vertices and the label of the goods are supplied to the classifier. The label may be pre-determined, assigned, or automatically determined with the goods as a representation. The classifier determines the correlation between vertices and labels.

いくつかの実施形態において、3Dモーフィング頭部を前提として顔の特徴を識別するように分類器をトレーニングするために、3Dモーフィング頭部は、いくつかの角度からレンダリングされる。例えば、画像のライブラリが、様々な角度からレンダリングされた頭部から作成されてよい。様々な角度でレンダリングされた頭部から、輪郭が検出されてよい。顔の形または顔の形の採点が、検出された輪郭に基づいて割り当てられてよい。 In some embodiments, the 3D morphing head is rendered from several angles in order to train the classifier to identify facial features assuming a 3D morphing head. For example, a library of images may be created from heads rendered from different angles. Contours may be detected from the head rendered at various angles. Face shape or face shape scoring may be assigned based on the detected contours.

顔の3D表面は、顔の間の類似度を決定するために用いられてよい。例えば、二人のユーザが、比較的間隔の広い目を有する特徴を共有する場合があり、これは、両者共に特定のタイプの眼鏡が合うことを示唆する。 The 3D surface of the face may be used to determine the degree of similarity between the faces. For example, two users may share features with relatively wide eyes, suggesting that both fit a particular type of eyeglasses.

取得された位置または頂点は、顔の3D表面の決定に関連する機械学習モデルに入力されてよい。いくつかの実施形態において、眼鏡の形状と顔の3D表面との間の相関が決定されてよい。相関は、ユーザまたは類似した3D顔表面を有する他のユーザに眼鏡を推薦するために用いられてよい。 The acquired positions or vertices may be input to the machine learning model involved in determining the 3D surface of the face. In some embodiments, the correlation between the shape of the spectacles and the 3D surface of the face may be determined. Correlation may be used to recommend eyeglasses to the user or other users with similar 3D facial surfaces.

様々な実施形態において、組み合わせられたモデルの出力が、分類器1102〜1106の出力から生成される。複数の顔の特徴タイプに関連する複数のトレーニングされた機会学習モデルのそれぞれに対応する出力が組み合わせられる。組み合わせられた出力は、さらなる解析に向けて複数の商品のサブセットを選択するために複数の商品と相関されてよい。一態様において、推薦される潜在的な商品は、相関処理によって絞り込まれる。いくつかの実施形態において、さらなるタイプの推薦、協調フィルタリングなどが、推薦を決定するために用いられてもよい。相関の一例が、図4に示されている。商品の一部が提示されてよい。 In various embodiments, the output of the combined model is generated from the output of classifiers 1102-1106. The corresponding outputs of each of the multiple trained opportunity learning models associated with multiple facial feature types are combined. The combined output may be correlated with multiple products to select a subset of the products for further analysis. In one aspect, the recommended potential products are narrowed down by correlation processing. In some embodiments, additional types of recommendations, collaborative filtering, etc. may be used to determine the recommendations. An example of the correlation is shown in FIG. A part of the product may be presented.

図12は、分類器を用いて顔の特徴の特性を決定するための処理の一実施形態を示すフローチャートである。処理1200は、図2のシステム200の1または複数の構成要素上で少なくとも部分的に実施されてよい。いくつかの実施形態において、処理200は、図3の推薦エンジン314および/または図11の分類器1102〜1106によって実行される。いくつかの実施形態において、図12の処理の少なくとも一部は、図1の工程104に含まれる。 FIG. 12 is a flowchart showing an embodiment of a process for determining the characteristics of facial features using a classifier. Process 1200 may be performed at least partially on one or more components of system 200 of FIG. In some embodiments, the process 200 is performed by the recommendation engine 314 of FIG. 3 and / or the classifier 1102-1106 of FIG. In some embodiments, at least a portion of the process of FIG. 12 is included in step 104 of FIG.

処理は、受信した画像に基づいて顔の特徴のタイプに対応する顔特徴を抽出する(工程1202)。顔特徴抽出は、画像および/または他のセンサデータ(深度など)に基づいてよい。様々な実施形態において、顔特徴抽出は、顔の特徴のいくつかのタイプについて実行されてよい。例えば、未処理の顔の特徴が残らなくなるまで、各顔特徴について704が反復されてよい。 The process extracts facial features corresponding to the type of facial features based on the received image (step 1202). Facial feature extraction may be based on images and / or other sensor data (such as depth). In various embodiments, facial feature extraction may be performed for several types of facial features. For example, 704 may be repeated for each facial feature until no untreated facial features remain.

処理は、抽出された顔特徴を顔の特徴のタイプに対応する分類器に入力する(工程1204)。分類器は、トレーニングされた機械学習モデルによって実装されてよい。例えば、顔の形状に関連する顔特徴が、顔形状分類器に入力される。顔の形状は、顔形状データでトレーニングされ、入力データに基づいて自動的に顔の形状を検出することができる分類器によって体系的に決定されてよい。 The process inputs the extracted facial features into a classifier corresponding to the type of facial features (step 1204). The classifier may be implemented by a trained machine learning model. For example, face features related to face shape are input to the face shape classifier. The face shape may be systematically determined by a classifier that is trained on the face shape data and can automatically detect the face shape based on the input data.

処理は、顔の特徴のタイプに対応する分類器から出力を取得する(工程1206)。顔の形状の例に再び戻ると、分類器は、入力された顔が様々な形状カテゴリ(円形、楕円形、四角形、ダイヤモンド形など)に当てはまる割合を出力する。 The process obtains output from the classifier corresponding to the type of facial feature (step 1206). Returning to the face shape example again, the classifier outputs the percentage of the input face that fits into various shape categories (circle, ellipse, rectangle, diamond, etc.).

主に眼鏡の例を用いて説明したが、本明細書に記載の技術には、イヤリング、帽子、化粧、靴、衣類などの仮想フィッティングなど、様々な環境での用途がある。 Although described mainly using the example of eyeglasses, the techniques described herein have applications in various environments such as virtual fitting of earrings, hats, makeup, shoes, clothing and the like.

図13Aは、在庫品を閲覧するための商品カタログのGUIの一例である。GUI1300は、任意選択的なナビゲーション領域1302を備えており、これは、GUIに表示された在庫品のナビゲーションを支援するためのメニュー、フィルタなどを備えうる。この例において、GUI1300は、多くの眼鏡フレームを含む商品カタログを表示する。ここでは、6つの眼鏡フレーム(モデルAA、AB、AC、BE、BX、および、CD)を見ることができる。ユーザは、商品および詳細を検討するために、GUI1300と相互作用できる。例えば、スクロールバー1304を用いたページのスクロールダウンに応じて、さらなる眼鏡が、GUI1300で見えるようになってよい。ユーザがページをスクロールダウンしたことに応じて、1または複数のさらなる眼鏡フレームがロードされてよい。様々な実施形態において、ユーザがページをスクロールダウンしたことに応じてロードされる眼鏡フレームは、本明細書に記載の技術に少なくとも部分的に基づいて決定されてよい。例えば、眼鏡の推薦は、顧客の嗜好に適合されてよく、嗜好の少なくとも一部は、顧客の閲覧の傾向に基づいて学習されてよい。 FIG. 13A is an example of a GUI of a product catalog for browsing inventory items. The GUI 1300 includes an optional navigation area 1302, which may include menus, filters, etc. to assist in navigating the inventory displayed on the GUI. In this example, the GUI 1300 displays a product catalog that includes many spectacle frames. Here you can see six eyeglass frames (models AA, AB, AC, BE, BX, and CD). The user can interact with the GUI 1300 to review the goods and details. For example, additional eyeglasses may become visible on the GUI 1300 as the page scrolls down using the scroll bar 1304. One or more additional eyeglass frames may be loaded as the user scrolls down the page. In various embodiments, the spectacle frame loaded in response to the user scrolling down the page may be determined at least in part based on the techniques described herein. For example, eyeglass recommendations may be adapted to the customer's preferences, and at least a portion of the preferences may be learned based on the customer's browsing habits.

図13Bは、図13AのGUIとのユーザ相互作用に応じて表示された商品を示すGUIの一例である。ユーザが、GUI1300のスクロールバー1304を用いるなどしてスクロールダウンした時に、6つの眼鏡フレーム(モデルDA、DB、DR、EA、EF、および、EL)のグループ1330が表示されてよい。グループ1330は、図3の推薦エンジン314によって選択された商品など、本明細書に記載の技術に少なくとも部分的に基づいて選択された1または複数の推薦商品を含んでよい。いくつかの実施形態において、グループ1330は、ユーザがGUI1300をスクロールダウンすることを予期して商品の迅速なロードを容易にするために予めロード(例えば、バッファに格納)される。 FIG. 13B is an example of a GUI showing a product displayed according to the user interaction with the GUI of FIG. 13A. When the user scrolls down by using the scroll bar 1304 of the GUI 1300, the group 1330 of the six spectacle frames (models DA, DB, DR, EA, EF, and EL) may be displayed. Group 1330 may include one or more recommended products selected at least in part based on the techniques described herein, such as products selected by the recommendation engine 314 of FIG. In some embodiments, the group 1330 is preloaded (eg, buffered) to facilitate rapid loading of goods in anticipation of the user scrolling down the GUI 1300.

図13Cは、図13AのGUIとのユーザ相互作用に応じて表示された商品を示すGUIの一例である。ユーザが、GUI1300のスクロールバー1304を用いるなどしてスクロールダウンした時に、6つの眼鏡フレーム(モデルAD、AG、AL、RV、RM、および、RP)のグループ1350が表示されてよい。いくつかの実施形態において、グループ1350は、ユーザがGUI1300をスクロールダウンすることを予期して商品の迅速なロードを容易にするために予めロード(例えば、バッファに格納)される。 FIG. 13C is an example of a GUI showing a product displayed according to the user interaction with the GUI of FIG. 13A. When the user scrolls down, such as by using the scroll bar 1304 of the GUI 1300, the group 1350 of the six spectacle frames (models AD, AG, AL, RV, RM, and RP) may be displayed. In some embodiments, the group 1350 is preloaded (eg, buffered) to facilitate rapid loading of goods in anticipation of the user scrolling down the GUI 1300.

グループ1350は、図3の推薦エンジン314によって選択された商品など、本明細書に記載の技術に少なくとも部分的に基づいて選択された1または複数の推薦商品を含んでよい。この例において、グループ1350は、(GUI1300に示された)モデルACのユーザ選択に応じてなされた推薦を含む。例えば、ユーザは、モデルACをクリックしてそのモデルに関連する商品ページをロードし、カタログページ1300に戻ることができる。ユーザがカタログページ1300に戻った際、ユーザがGUI1300をスクロールダウンした時にグループ1350が表示されるように、グループ1350がロードされてよい。グループ1350の商品は、本明細書に記載の技術に従って、モデルACに基づいて選択されてよい。例えば、グループ1350は、モデルACに類似する長方形フレームの眼鏡を含む。一態様において、グループ1330および1350の組み立ては、商品が閲覧に応じて再ソートまたは更新されることにユーザが気付かないので、シームレスなユーザ体験を提供する。ユーザがウェブページをスクロールダウンすると、隠された商品(例えば、商品リストの下の方にある商品)が、ユーザの閲覧に応じてユーザの嗜好に動的に適合するように更新されうる。 Group 1350 may include one or more recommended products selected at least in part based on the techniques described herein, such as the products selected by the recommendation engine 314 of FIG. In this example, group 1350 includes recommendations made in response to user selection of model AC (shown in GUI 1300). For example, the user can click on the model AC to load the product page associated with that model and return to the catalog page 1300. The group 1350 may be loaded so that when the user returns to the catalog page 1300, the group 1350 is displayed when the user scrolls down the GUI 1300. The products of Group 1350 may be selected based on the model AC according to the techniques described herein. For example, group 1350 includes rectangular frame eyeglasses similar to model AC. In one aspect, the assembly of groups 1330 and 1350 provides a seamless user experience as the user is unaware that the goods are re-sorted or updated as they are viewed. As the user scrolls down the web page, hidden products (eg, products at the bottom of the product list) can be updated to dynamically adapt to the user's preferences as the user browses.

図14Aは、在庫品を閲覧するための商品カタログのGUIの一例である。GUI1400は、任意選択的なナビゲーション領域1402を備えており、これは、GUIに表示された在庫品のナビゲーションを支援するためのメニュー、フィルタなどを備えうる。この例において、GUI1400は、多くの眼鏡フレームを含む商品カタログを表示する。ここでは、6つの眼鏡フレーム(モデルA、B、C、D、E、および、G)が示されている。ユーザは、商品および詳細を検討するために、GUI1400と相互作用できる。例えば、モデルCのユーザ選択に応じて、GUI1400に表示される商品が更新されてよい。 FIG. 14A is an example of a GUI of a product catalog for browsing inventory items. The GUI 1400 includes an optional navigation area 1402, which may include menus, filters, etc. to assist in navigating the inventory displayed in the GUI. In this example, the GUI 1400 displays a product catalog that includes many spectacle frames. Here, six eyeglass frames (models A, B, C, D, E, and G) are shown. The user can interact with the GUI 1400 to review the goods and details. For example, the product displayed on the GUI 1400 may be updated according to the user selection of the model C.

図14Bは、図14AのGUIとのユーザ相互作用に応じて表示されたGUIの一例である。例えば、ユーザは、モデルC(GUI1400に表示されている)をクリックしてそのモデルに関連する商品ページをロードし、カタログページに戻ることができる。ユーザがカタログページに戻る時、更新された商品推薦を表示するために、GUI1450がロードされてよい。ここで、モデルM、K、および、Xが、モデルCのユーザ選択に応じてGUI1400のモデルC、D、および、Gから置き換わる。モデルM、K、および、Xは、本明細書に記載の技術に従って、モデルCに基づいて選択されてよい。例えば、モデルCDは、ワイヤフレームである。モデルM、K、および、Xは、モデルC、D、および、Gのプラスチックフレーム眼鏡と置き換わるワイヤフレームである。様々な実施形態において、GUI1450の領域の一部は、置き換えまたは更新された商品推薦を受け入れるよう指定される。これらの領域は、本明細書では「推薦ブロック」とも呼ばれる。例えば、推薦ブロック1452、1454、および、1456は、更新のために用いられるが、その他の領域に表示された商品(モデルDなど)は残留する。いくつかの実施形態では、より見やすい領域が、商品推薦の更新を受け入れるよう選択される。換言すると、商品推薦が、GUIに表示された商品の中に組み入れられ、顧客の嗜好に応じて動的に更新されうる。 FIG. 14B is an example of a GUI displayed according to the user interaction with the GUI of FIG. 14A. For example, the user can click model C (displayed in GUI1400) to load the product page associated with that model and return to the catalog page. When the user returns to the catalog page, GUI1450 may be loaded to display the updated product recommendations. Here, the models M, K, and X are replaced with the models C, D, and G of the GUI 1400 according to the user selection of the model C. Models M, K, and X may be selected based on model C according to the techniques described herein. For example, the model CD is a wireframe. Models M, K, and X are wireframes that replace the plastic frame eyeglasses of models C, D, and G. In various embodiments, a portion of the area of GUI1450 is designated to accept replacement or updated product recommendations. These areas are also referred to herein as "recommended blocks". For example, recommendation blocks 1452, 1454, and 1456 are used for updating, but goods (such as model D) displayed in other areas remain. In some embodiments, a more visible area is selected to accept product recommendation updates. In other words, the product recommendation can be incorporated into the product displayed in the GUI and dynamically updated according to the customer's preference.

図15Aは、在庫品を閲覧するための商品カタログのGUIの一例である。GUI1500は、任意選択的なナビゲーション領域1502を備えており、これは、GUIに表示された在庫品のナビゲーションを支援するためのメニュー、フィルタなどを備えうる。GUI1500は、推薦された商品(ここでは、4つの眼鏡モデル)が表示される推薦ブロック1504を備える。この例において、GUI1500は、多くの眼鏡フレームを含む商品カタログを表示する。ここでは、6つの眼鏡フレーム(モデルA、B、C、D、E、および、G)が示されている。さらに、4つの眼鏡フレーム(モデルL、P、Y、および、A)が、推薦ブロック1504に表示される。 FIG. 15A is an example of a GUI of a product catalog for browsing inventory items. The GUI 1500 includes an optional navigation area 1502, which may include menus, filters, etc. to assist in navigating the inventory displayed in the GUI. The GUI 1500 includes a recommendation block 1504 on which the recommended products (here, four eyeglass models) are displayed. In this example, the GUI 1500 displays a product catalog that includes many spectacle frames. Here, six eyeglass frames (models A, B, C, D, E, and G) are shown. In addition, four spectacle frames (models L, P, Y, and A) are displayed on the recommendation block 1504.

推薦ブロックは、ユーザの嗜好に適合した他の推薦商品を表示するように更新されうる。例えば、モデルCのユーザ選択に応じて、推薦ブロック1504に表示される商品が更新されてよい。 The recommendation block can be updated to display other recommended products that match the user's tastes. For example, the product displayed in the recommendation block 1504 may be updated according to the user selection of the model C.

図15Bは、図15AのGUIとのユーザ相互作用に応じて表示されたGUIの一例である。例えば、ユーザは、モデルC(GUI1500に表示されている)をクリックしてそのモデルに関連する商品ページをロードし、カタログページに戻ることができる。ユーザがカタログページに戻る時、更新された商品推薦を推薦ブロック1504に表示するために、GUI1550がロードされてよい。ここでは、モデルCのユーザ選択に応じて、GUI1500のモデルL、P、Y、および、Aが、GUI1550に示されたモデルX、H、Q、および、Sに置き換えられている。モデルX、H、Q、および、Sは、本明細書に記載の技術に従って、モデルCに基づいて選択されてよい。例えば、モデルCは、長方形フレームである。モデルX、H、Q、および、Sは、モデルCに関心のあるユーザが関心を持ちうる長方形フレーム眼鏡である。 FIG. 15B is an example of a GUI displayed according to the user interaction with the GUI of FIG. 15A. For example, the user can click model C (displayed in GUI 1500) to load the product page associated with that model and return to the catalog page. When the user returns to the catalog page, the GUI 1550 may be loaded to display the updated product recommendations in recommendation block 1504. Here, the models L, P, Y, and A of the GUI 1500 are replaced with the models X, H, Q, and S shown in the GUI 1550, depending on the user selection of the model C. Models X, H, Q, and S may be selected based on model C according to the techniques described herein. For example, model C is a rectangular frame. Models X, H, Q, and S are rectangular frame eyeglasses that users interested in model C may be interested in.

図16は、ユーザの身体的特徴に基づいた推薦の出力を示すGUIの一例である。GUI1600は、ユーザの顔のキャプチャ画像と、推薦とを表示する。ここで、推薦は、丸型フレームである。この推薦に対する説明が表示される。ここで、丸型フレームの推薦の理由は、ユーザの主な顔の形が四角形であることである。すなわち、ユーザの顔が、様々な形状によって表示されてよく、主要な形状は四角形である。四角形の顔には、この例における丸型眼鏡フレームが最も似合う。 FIG. 16 is an example of a GUI showing the output of recommendations based on the physical characteristics of the user. The GUI 1600 displays a captured image of the user's face and a recommendation. Here, the recommendation is a round frame. A description of this recommendation is displayed. Here, the reason for recommending the round frame is that the main face shape of the user is a quadrangle. That is, the user's face may be displayed in various shapes, the main shape being a quadrangle. The round spectacle frame in this example looks best on a square face.

上述の実施形態は、理解しやすいようにいくぶん詳しく説明されているが、本発明は、提供された詳細事項に限定されるものではない。本発明を実施する多くの代替方法が存在する。開示された実施形態は、例示であり、限定を意図するものではない。例えば以下の適用例として実施可能である。
[適用例1]
プロセッサを備えたシステムであって、
前記プロセッサは、
ユーザの画像に少なくとも部分的に基づいて、前記ユーザの身体的特徴を決定し、
前記身体的特徴と商品との間の相関を決定し、
前記決定された相関に少なくとも部分的に基づいて商品推薦を生成するよう構成されているシステム。
[適用例2]適用例1に記載のシステムであって、前記身体的特徴の前記決定は、前記ユーザへの前記商品のフィットを含むシステム。
[適用例3]適用例1に記載のシステムであって、前記身体的特徴は顔の形を含み、前記形は、前記形が複数のカテゴリに当てはまる程度に関して規定されるシステム。
[適用例4]適用例1に記載のシステムであって、前記身体的特徴は、顔の比率を含むシステム。
[適用例5]適用例1に記載のシステムであって、前記身体的特徴は、目の色、肌の色、および、髪の色の内の少なくとも1つを含み、前記色は、前記少なくとも1つの画像がキャプチャされた照明環境に少なくとも部分的に基づいて正規化されるシステム。
[適用例6]適用例1に記載のシステムであって、前記相関の前記決定は、前記身体的特徴、ユーザ閲覧データ、および、ユーザプロフィールデータの内の少なくとも1つの重み付き組み合わせに基づくシステム。
[適用例7]適用例6に記載のシステムであって、前記身体的特徴、ユーザ閲覧データ、および、ユーザプロフィールデータの内の前記少なくとも1つに割り当てられる重みは、機械学習モデルからの出力に基づくシステム。
[適用例8]適用例6に記載のシステムであって、前記身体的特徴は、ユーザ閲覧データおよびユーザプロフィールデータの内の少なくとも1つよりも重く重み付けされるシステム。
[適用例9]適用例6に記載のシステムであって、前記身体的特徴、前記ユーザ閲覧データ、および、前記ユーザプロフィールデータに割り当てられる重みは調整可能であるシステム。
[適用例10]適用例6に記載のシステムであって、前記プロセッサは、さらに、前記商品推薦に関するユーザフィードバックに応じて、前記重み付き組み合わせに用いられる重みを調整するよう構成されているシステム。
[適用例11]適用例1に記載のシステムであって、
前記プロセッサは、さらに、オプティカルフローに少なくとも部分的に基づいて決定されたコスト関数を用いて候補パラメータ値を評価することによって、前記ユーザの前記画像に対応する統計モデルへの1セットのパラメータ値を生成することを含め、前記ユーザの前記画像に基づいてユーザの頭部の三次元(3D)モデルを生成するよう構成され、
前記身体的特徴は、少なくとも部分的には前記3Dモデルからパラメータを抽出することによって決定されるシステム。
[適用例12]適用例11に記載のシステムであって、前記統計モデルは、前記ユーザの顔の3Dスキャンに少なくとも部分的に基づいて主成分分析から導出され、前記統計モデルは、形状成分およびテクスチャ成分を含むシステム。
[適用例13]適用例11に記載のシステムであって、前記3Dモデルは、顔の特徴の形状および頭部の形状の内の少なくとも1つを規定するポリゴンを含むメッシュモデルであるシステム。
[適用例14]適用例11に記載のシステムであって、前記身体的特徴の決定は、前記3Dモデルのポリゴンの色に基づいて肌の色を決定することを含むシステム。
[適用例15]適用例1に記載のシステムであって、前記商品推薦の生成は商品の属性に基づき、前記商品の前記属性は、前記商品の3Dモデルに少なくとも部分的に基づいて決定されるシステム。
[適用例16]適用例15に記載のシステムであって、前記商品推薦の生成は、前記ユーザの3Dモデルへの前記商品の前記3Dモデルのフィットに基づくシステム。
[適用例17]適用例1に記載のシステムであって、前記商品推薦は、1グループの商品を含み、
前記プロセッサは、さらに、前記グループ内の1つの商品のユーザ選択に応じて前記商品推薦を更新するよう構成されているシステム。
[適用例18]適用例1に記載のシステムであって、前記商品推薦は、前記商品推薦の説明を含むシステム。
[適用例19]方法であって、
ユーザの画像に少なくとも部分的に基づいて、前記ユーザの身体的特徴を決定する工程と、
前記身体的特徴と商品との間の相関を決定する工程と、
前記決定された相関に少なくとも部分的に基づいて、商品推薦を生成する工程と
を備える方法。
[適用例20]コンピュータプログラム製品であって、持続性のコンピュータ読み取り可能な記憶媒体内に具現化され、
ユーザの画像に少なくとも部分的に基づいて、前記ユーザの身体的特徴を決定するためのコンピュータ命令と、
前記身体的特徴と商品との間の相関を決定するためのコンピュータ命令と、
前記決定された相関に少なくとも部分的に基づいて、商品推薦を生成するためのコンピュータ命令と
を備えるコンピュータプログラム製品。
Although the above embodiments have been described in some detail for ease of understanding, the present invention is not limited to the details provided. There are many alternative ways to carry out the present invention. The disclosed embodiments are exemplary and are not intended to be limiting. For example, it can be implemented as the following application example.
[Application example 1]
A system with a processor
The processor
Determining the physical characteristics of the user, at least partially based on the user's image,
Determine the correlation between the physical characteristics and the product and
A system configured to generate product recommendations based at least in part on the determined correlation.
[Application Example 2] The system according to Application Example 1, wherein the determination of the physical characteristics includes a fit of the product to the user.
[Application Example 3] The system according to Application Example 1, wherein the physical characteristics include a facial shape, and the shape is defined with respect to the degree to which the shape fits into a plurality of categories.
[Application Example 4] The system according to Application Example 1, wherein the physical characteristics include a facial ratio.
[Application Example 5] In the system according to Application Example 1, the physical feature includes at least one of eye color, skin color, and hair color, and the color is at least the above. A system in which one image is at least partially normalized to the captured lighting environment.
[Application Example 6] The system according to Application Example 1, wherein the determination of the correlation is based on at least one weighted combination of the physical characteristics, user browsing data, and user profile data.
[Application Example 7] In the system according to the application example 6, the weight assigned to at least one of the physical characteristics, the user browsing data, and the user profile data is output from the machine learning model. Based system.
[Application Example 8] The system according to the application example 6, wherein the physical characteristics are weighted more heavily than at least one of the user browsing data and the user profile data.
[Application Example 9] The system according to Application Example 6, wherein the physical characteristics, the user browsing data, and the weights assigned to the user profile data are adjustable.
[Application Example 10] The system according to Application Example 6, wherein the processor is further configured to adjust the weights used in the weighted combination in response to user feedback regarding the product recommendation.
[Application Example 11] The system according to Application Example 1.
The processor further obtains a set of parameter values for the statistical model corresponding to the image of the user by evaluating the candidate parameter values using a cost function determined at least partially based on the optical flow. It is configured to generate a three-dimensional (3D) model of the user's head based on the image of the user, including generating.
The physical characteristics are determined, at least in part, by extracting parameters from the 3D model.
[Application 12] In the system according to Application 11, the statistical model is derived from principal component analysis based at least in part on a 3D scan of the user's face, and the statistical model is based on shape components and A system that contains texture components.
[Application Example 13] The system according to Application Example 11, wherein the 3D model is a mesh model including polygons that define at least one of a facial feature shape and a head shape.
[Application Example 14] The system according to the application example 11, wherein the determination of the physical characteristics includes determining the skin color based on the polygon color of the 3D model.
[Application Example 15] In the system according to the application example 1, the generation of the product recommendation is determined based on the attribute of the product, and the attribute of the product is determined at least partially based on the 3D model of the product. system.
[Application Example 16] The system according to the application example 15, wherein the generation of the product recommendation is based on the fit of the product to the user's 3D model.
[Application Example 17] In the system according to Application Example 1, the product recommendation includes one group of products.
The processor is further configured to update the product recommendation in response to a user selection of one product in the group.
[Application Example 18] The system according to Application Example 1, wherein the product recommendation includes a description of the product recommendation.
[Application example 19] This is a method.
The process of determining the physical characteristics of the user, at least in part, based on the image of the user.
The process of determining the correlation between the physical characteristics and the product,
With the step of generating product recommendations based at least in part on the determined correlation
How to prepare.
[Application 20] A computer program product embodied in a persistent computer-readable storage medium.
Computer instructions for determining the user's physical characteristics, at least in part based on the user's image.
Computer instructions to determine the correlation between the physical characteristics and the product,
With computer instructions to generate product recommendations based at least in part on the determined correlation
Computer program products equipped with.

Claims (20)

プロセッサを備えたシステムであって、
前記プロセッサは、
ユーザの画像に少なくとも部分的に基づいて、前記ユーザの身体的特徴を決定し、
前記身体的特徴と商品との間の相関を決定し、
前記決定された相関に少なくとも部分的に基づいて商品推薦を生成するよう構成されており、
前記相関の前記決定は、前記身体的特徴、ユーザ閲覧データ、および、ユーザプロフィールデータの、重み付き組み合わせに基づき、
前記身体的特徴と前記商品との間の前記相関の決定は、前記身体的特徴に少なくとも部分的に基づいて、前記ユーザへの商品のフィットの程度を決定することを含み、前記フィットの程度は、前記ユーザの顔の比率に対する商品サイズの大きさを含む、システム。
A system with a processor
The processor
Determining the physical characteristics of the user, at least partially based on the user's image,
Determine the correlation between the physical characteristics and the product and
It is configured to generate product recommendations based at least in part on the determined correlation.
The determination of the correlation, the physical characteristics, the user browsing data, and the user profile data,-out based on the weighted combination,
Determining the correlation between the physical characteristics and the goods includes determining the degree of fit of the goods to the user based at least in part on the physical characteristics, the degree of fit. , A system that includes the size of the product size relative to the ratio of the user's face.
請求項1に記載のシステムであって、前記身体的特徴の前記決定は、前記ユーザへの前記商品のフィットを含むシステム。 The system according to claim 1, wherein the determination of the physical characteristics includes a fit of the product to the user. 請求項1に記載のシステムであって、前記身体的特徴は顔の形を含み、前記形は、前記形が複数のカテゴリに当てはまる程度に関して規定されるシステム。 The system according to claim 1, wherein the physical features include the shape of a face, the shape being defined with respect to the extent to which the shape fits into a plurality of categories. 請求項1に記載のシステムであって、前記身体的特徴は、顔の比率を含むシステム。 The system according to claim 1, wherein the physical feature includes a face ratio. 請求項1に記載のシステムであって、前記身体的特徴は、目の色、肌の色、および、髪の色の内の少なくとも1つを含み、前記色は、前記少なくとも1つの画像がキャプチャされた照明環境に少なくとも部分的に基づいて正規化されるシステム。 The system of claim 1, wherein the physical feature comprises at least one of eye color, skin color, and hair color, which color is captured by the at least one image. A system that is at least partially normalized to the lighting environment. 請求項1に記載のシステムであって、前記身体的特徴、ユーザ閲覧データ、および、ユーザプロフィールデータの内の前記少なくとも1つに割り当てられる重みは、機械学習モデルからの出力に基づくシステム。 The system according to claim 1, wherein the weight assigned to at least one of the physical characteristics, the user browsing data, and the user profile data is based on the output from the machine learning model. 請求項1に記載のシステムであって、前記身体的特徴は、ユーザ閲覧データおよびユーザプロフィールデータの内の少なくとも1つよりも重く重み付けされるシステム。 The system according to claim 1, wherein the physical characteristics are weighted more heavily than at least one of the user browsing data and the user profile data. 請求項1に記載のシステムであって、前記身体的特徴、前記ユーザ閲覧データ、および、前記ユーザプロフィールデータに割り当てられる重みは調整可能であるシステム。 The system according to claim 1, wherein the physical characteristics, the user browsing data, and the weights assigned to the user profile data are adjustable. 請求項1に記載のシステムであって、前記プロセッサは、さらに、前記商品推薦に関するユーザフィードバックに応じて、前記重み付き組み合わせに用いられる重みを調整するよう構成されているシステム。 The system according to claim 1, wherein the processor is further configured to adjust the weights used in the weighted combination in response to user feedback regarding the product recommendation. 請求項1に記載のシステムであって、
前記プロセッサは、さらに、オプティカルフローに少なくとも部分的に基づいて決定されたコスト関数を用いて候補パラメータ値を評価することによって、前記ユーザの前記画像に対応する統計モデルへの1セットのパラメータ値を生成することを含め、前記ユーザの前記画像に基づいてユーザの頭部の三次元(3D)モデルを生成するよう構成され、
前記身体的特徴は、少なくとも部分的には前記3Dモデルからパラメータを抽出することによって決定されるシステム。
The system according to claim 1.
The processor further obtains a set of parameter values for the statistical model corresponding to the image of the user by evaluating the candidate parameter values using a cost function determined at least partially based on the optical flow. It is configured to generate a three-dimensional (3D) model of the user's head based on the image of the user, including generating.
The physical characteristics are determined, at least in part, by extracting parameters from the 3D model.
請求項10に記載のシステムであって、前記統計モデルは、前記ユーザの顔の3Dスキャンに少なくとも部分的に基づいて主成分分析から導出され、前記統計モデルは、形状成分およびテクスチャ成分を含むシステム。 The system of claim 10, wherein the statistical model is derived from principal component analysis based at least in part on a 3D scan of the user's face, and the statistical model is a system that includes shape and texture components. .. 請求項10に記載のシステムであって、前記3Dモデルは、顔の特徴の形状および頭部の形状の内の少なくとも1つを規定するポリゴンを含むメッシュモデルであるシステム。 The system according to claim 10, wherein the 3D model is a mesh model including polygons that define at least one of a facial feature shape and a head shape. 請求項10に記載のシステムであって、前記身体的特徴の決定は、前記3Dモデルのポリゴンの色に基づいて肌の色を決定することを含むシステム。 The system according to claim 10, wherein the determination of the physical characteristics includes determining the skin color based on the color of the polygon of the 3D model. 請求項1に記載のシステムであって、前記商品推薦の生成は商品の属性に基づき、前記商品の前記属性は、前記商品の3Dモデルに少なくとも部分的に基づいて決定されるシステム。 The system according to claim 1, wherein the generation of the product recommendation is determined based on the attributes of the product, and the attributes of the product are determined at least partially based on the 3D model of the product. 請求項14に記載のシステムであって、前記商品推薦の生成は、前記ユーザの3Dモデルへの前記商品の前記3Dモデルのフィットに基づくシステム。 The system according to claim 14, wherein the generation of the product recommendation is based on the fit of the product to the user's 3D model. 請求項1に記載のシステムであって、前記商品推薦は、1グループの商品を含み、
前記プロセッサは、さらに、前記グループ内の1つの商品のユーザ選択に応じて前記商品推薦を更新するよう構成されているシステム。
The system according to claim 1, wherein the product recommendation includes one group of products.
The processor is further configured to update the product recommendation in response to a user selection of one product in the group.
請求項1に記載のシステムであって、前記商品推薦は、前記商品推薦の説明を含むシステム。 The system according to claim 1, wherein the product recommendation includes a description of the product recommendation. 方法であって、
ユーザの画像に少なくとも部分的に基づいて、コンピュータが、前記ユーザの身体的特徴を決定する工程と、
コンピュータが、前記身体的特徴と商品との間の相関を決定する工程と、
前記決定された相関に少なくとも部分的に基づいて、コンピュータが、商品推薦を生成する工程と
を備え、前記相関を決定する工程は、前記身体的特徴、ユーザ閲覧データ、および、ユーザプロフィールデータの、重み付き組み合わせに基づいて、前記相関を決定し、
前記身体的特徴と前記商品との間の前記相関を決定する工程は、前記身体的特徴に少なくとも部分的に基づいて、前記ユーザへの商品のフィットの程度を決定することを含み、前記フィットの程度は、前記ユーザの顔の比率に対する商品サイズの大きさを含む、方法。
It's a method
The process by which the computer determines the physical characteristics of the user, at least in part, based on the image of the user.
The process by which the computer determines the correlation between the physical characteristics and the product,
The computer comprises a step of generating a product recommendation based on at least partly based on the determined correlation, the step of determining the correlation of the physical characteristics, user browsing data, and user profile data. Based on the weighted combination, the correlation was determined and
The step of determining the correlation between the physical characteristics and the goods comprises determining the degree of fit of the goods to the user based at least in part on the physical characteristics of the fit. The degree includes the size of the product size relative to the ratio of the user's face to the method.
コンピュータプログラムであって、持続性のコンピュータ読み取り可能な記憶媒体内に具現化され、
ユーザの画像に少なくとも部分的に基づいて、前記ユーザの身体的特徴を決定するためのコンピュータ命令と、
前記身体的特徴と商品との間の相関を決定するためのコンピュータ命令と、
前記決定された相関に少なくとも部分的に基づいて、商品推薦を生成するためのコンピュータ命令と
を備え、
前記相関を決定するためのコンピュータ命令は、前記身体的特徴、ユーザ閲覧データ、および、ユーザプロフィールデータの、重み付き組み合わせに基づいて、前記相関を決定する命令であり、
前記身体的特徴と前記商品との間の前記相関を決定するコンピュータ命令は、前記身体的特徴に少なくとも部分的に基づいて、前記ユーザへの商品のフィットの程度を決定することを含み、前記フィットの程度は、前記ユーザの顔の比率に対する商品サイズの大きさを含む、コンピュータプログラム。
A computer program, embodied in a persistent computer-readable storage medium,
Computer instructions for determining the user's physical characteristics, at least in part based on the user's image.
Computer instructions to determine the correlation between the physical characteristics and the product,
With computer instructions to generate product recommendations, at least in part based on the determined correlation.
Wherein the computer instructions for determining a correlation, the physical characteristics, the user browsing data, and the user profile data, based on the weighted combination, Ri instructions der to determine the correlation,
Computer instructions that determine the correlation between the physical characteristics and the goods include determining the degree of fit of the goods to the user, at least in part, based on the physical characteristics. The degree of is a computer program that includes the size of the product size relative to the ratio of the user's face.
請求項1に記載のシステムであって、
前記プロセッサは、さらに、ユーザの画像に少なくとも部分的に基づいて、前記ユーザの頭部の三次元(3D)モデルを生成するように構成され、
前記ユーザの前記身体的特徴は、前記生成された3Dモデルに少なくとも部分的に基づいて決定される、システム。
The system according to claim 1.
The processor is further configured to generate a three-dimensional (3D) model of the user's head, at least partially based on the user's image.
A system in which the physical characteristics of the user are determined at least in part based on the generated 3D model.
JP2018202393A 2017-11-29 2018-10-29 Recommender system based on user's physical characteristics Active JP6857638B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/826,533 2017-11-29
US15/826,533 US11157985B2 (en) 2017-11-29 2017-11-29 Recommendation system, method and computer program product based on a user's physical features

Publications (2)

Publication Number Publication Date
JP2019102068A JP2019102068A (en) 2019-06-24
JP6857638B2 true JP6857638B2 (en) 2021-04-14

Family

ID=63915181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018202393A Active JP6857638B2 (en) 2017-11-29 2018-10-29 Recommender system based on user's physical characteristics

Country Status (4)

Country Link
US (2) US11157985B2 (en)
EP (1) EP3493138A1 (en)
JP (1) JP6857638B2 (en)
CN (1) CN109840825A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220143569A (en) 2021-04-16 2022-10-25 주식회사 빅스터 Method and server for recommending glasses
KR102642920B1 (en) * 2023-07-20 2024-03-04 주식회사 아즈라 System for providing eartip optimization service using ear shape and size

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11157985B2 (en) * 2017-11-29 2021-10-26 Ditto Technologies, Inc. Recommendation system, method and computer program product based on a user's physical features
US11538083B2 (en) * 2018-05-17 2022-12-27 International Business Machines Corporation Cognitive fashion product recommendation system, computer program product, and method
KR102149395B1 (en) * 2018-08-31 2020-08-31 주식회사 더메이크 System for providing eyewear wearing and recommendation services using a true depth camera and method of the same
EP3660728A1 (en) * 2018-11-30 2020-06-03 Essilor International (Compagnie Generale D'optique) A server, method, and computer-readable storage medium for selecting eyewear equipment
EP3965611A1 (en) * 2019-05-06 2022-03-16 CareOS Smart mirror system and methods of use thereof
US11191342B2 (en) * 2019-07-18 2021-12-07 L'oreal Techniques for identifying skin color in images having uncontrolled lighting conditions
CN112685596B (en) * 2019-10-18 2023-04-14 中移(苏州)软件技术有限公司 Video recommendation method and device, terminal and storage medium
CN114830162A (en) * 2019-12-17 2022-07-29 依视路国际公司 Apparatus, method, and computer-readable storage medium for contextualized device recommendation
CN114787872A (en) * 2019-12-19 2022-07-22 依视路国际公司 Apparatus, method and computer-readable storage medium for expanding image database for evaluating eye-wear compatibility
JP6912611B1 (en) * 2020-01-31 2021-08-04 株式会社Zozo Glasses, recommended cosmetics presentation control system and recommended cosmetics presentation control method
CN111340852B (en) * 2020-03-10 2022-09-27 南昌航空大学 Image sequence optical flow calculation method based on optimized semantic segmentation
US11587358B2 (en) * 2020-03-26 2023-02-21 Panasonic Avionics Corporation Managing content on in-flight entertainment platforms
JP6882810B6 (en) * 2020-05-22 2021-06-23 株式会社Novera Information processing equipment, programs, and methods
JP6895189B1 (en) * 2020-06-30 2021-06-30 株式会社フライウィール Recommender systems and methods
WO2022054208A1 (en) * 2020-09-10 2022-03-17 株式会社ソシオネクスト Product suggestion method, product purchasing method, and product suggestion device
CN112241992A (en) * 2020-11-10 2021-01-19 北京中科深智科技有限公司 Full-automatic garment animation generation method and system
US20220207539A1 (en) * 2020-12-24 2022-06-30 Jand, Inc. System and method for predicting a fit quality for a head wearable device and uses thereof
US20220202168A1 (en) * 2020-12-30 2022-06-30 L'oreal Digital makeup palette
CN113784189B (en) * 2021-08-31 2023-08-01 Oook(北京)教育科技有限责任公司 Round table video conference generation method and device, medium and electronic equipment
JP7095849B1 (en) 2021-11-26 2022-07-05 アイジャパン株式会社 Eyewear virtual fitting system, eyewear selection system, eyewear fitting system and eyewear classification system
JP7260939B1 (en) 2022-03-23 2023-04-19 株式会社Novera Program, information processing device, and method
CN116401468B (en) * 2023-04-17 2023-12-19 哈尔滨工业大学 Intelligent recommendation system and method based on product concept design characteristic combination

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1039417B1 (en) * 1999-03-19 2006-12-20 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for the processing of images based on morphable models
JP2003030494A (en) 2001-07-16 2003-01-31 Nikon Gijutsu Kobo:Kk Support system for selecting spectacles
US7437344B2 (en) * 2001-10-01 2008-10-14 L'oreal S.A. Use of artificial intelligence in providing beauty advice
WO2006129791A1 (en) * 2005-06-03 2006-12-07 Nec Corporation Image processing system, 3-dimensional shape estimation system, object position posture estimation system, and image generation system
US20070058858A1 (en) 2005-09-09 2007-03-15 Michael Harville Method and system for recommending a product based upon skin color estimated from an image
US7665843B2 (en) 2007-02-21 2010-02-23 Yiling Xie Method and the associate mechanism for stored-image database-driven spectacle frame fitting services over public network
WO2008108760A1 (en) 2007-03-08 2008-09-12 Hewlett-Packard Development Company, L.P. Method and system for recommending a product based upon skin color estimated from an image
EP2218019A4 (en) * 2007-11-02 2012-04-18 Hunch Inc Interactive machine learning advice facility
JP5245377B2 (en) 2007-11-30 2013-07-24 日本電気株式会社 Article recommendation device, article recommendation method, and article recommendation program
US9058765B1 (en) 2008-03-17 2015-06-16 Taaz, Inc. System and method for creating and sharing personalized virtual makeovers
US10872322B2 (en) * 2008-03-21 2020-12-22 Dressbot, Inc. System and method for collaborative shopping, business and entertainment
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
JP5648299B2 (en) 2010-03-16 2015-01-07 株式会社ニコン Eyeglass sales system, lens company terminal, frame company terminal, eyeglass sales method, and eyeglass sales program
US20130088490A1 (en) * 2011-04-04 2013-04-11 Aaron Rasmussen Method for eyewear fitting, recommendation, and customization using collision detection
US9111134B1 (en) * 2012-05-22 2015-08-18 Image Metrics Limited Building systems for tracking facial features across individuals and groups
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
US9083960B2 (en) * 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
US20140258016A1 (en) 2013-03-08 2014-09-11 Ebay Inc. System and method for generating recommendations
US20140253707A1 (en) * 2013-03-11 2014-09-11 Dasa V. Gangadhar Automated acquisition of eyeglasses
EP3008912A1 (en) 2013-06-10 2016-04-20 Thomson Licensing Method and system for recommending media to a user
US9470911B2 (en) 2013-08-22 2016-10-18 Bespoke, Inc. Method and system to create products
US10055013B2 (en) * 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
KR101571241B1 (en) * 2014-04-23 2015-11-23 한국 한의학 연구원 APPARATUS AND METHOD FOR DETERMINATION of FACIAL EXPRESSION TYPE
GB201414144D0 (en) * 2014-08-08 2014-09-24 Imagination Tech Ltd Relightable texture for use in rendering an image
EP3262617A1 (en) * 2015-02-23 2018-01-03 Fittingbox Process and method for real-time physically accurate and realistic-looking glasses try-on
KR20170019944A (en) * 2015-08-13 2017-02-22 정진호 Method and device for recommendation service of product using relative comparison
WO2017029488A2 (en) 2015-08-14 2017-02-23 Metail Limited Methods of generating personalized 3d head models or 3d body models
CN105469072B (en) * 2015-12-14 2019-05-31 依视路国际公司 A kind of method and system for assessing eyeglass wearer and its wearing spectacles collocation degree
US20170286534A1 (en) 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc User location profile for personalized search experience
US10672055B2 (en) 2016-05-23 2020-06-02 Oath Inc. Method and system for presenting personalized products based on digital signage for electronic commerce
CN106910102A (en) * 2016-07-25 2017-06-30 湖南拓视觉信息技术有限公司 The virtual try-in method of glasses and device
CN106354768B (en) 2016-08-18 2020-03-17 向莉妮 Color-based user and commodity matching method and commodity matching recommendation method
JP6753276B2 (en) * 2016-11-11 2020-09-09 ソニー株式会社 Information processing equipment, information processing methods, and programs
CN106651542B (en) 2016-12-31 2021-06-25 珠海市魅族科技有限公司 Article recommendation method and device
CN107123027B (en) 2017-04-28 2021-06-01 广东工业大学 Deep learning-based cosmetic recommendation method and system
EP3669318A1 (en) * 2017-08-16 2020-06-24 Henkel AG & Co. KGaA Method and device for computer-supported hair treatment consultation
US11157985B2 (en) * 2017-11-29 2021-10-26 Ditto Technologies, Inc. Recommendation system, method and computer program product based on a user's physical features

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220143569A (en) 2021-04-16 2022-10-25 주식회사 빅스터 Method and server for recommending glasses
KR102642920B1 (en) * 2023-07-20 2024-03-04 주식회사 아즈라 System for providing eartip optimization service using ear shape and size

Also Published As

Publication number Publication date
US11157985B2 (en) 2021-10-26
JP2019102068A (en) 2019-06-24
EP3493138A1 (en) 2019-06-05
CN109840825A (en) 2019-06-04
US20210406987A1 (en) 2021-12-30
US20190164210A1 (en) 2019-05-30

Similar Documents

Publication Publication Date Title
JP6857638B2 (en) Recommender system based on user's physical characteristics
Guan et al. Apparel recommendation system evolution: an empirical review
GB2564745B (en) Methods for generating a 3D garment image, and related devices, systems and computer program products
US20180218436A1 (en) Virtual Personal Shopping System
US9842246B2 (en) Fitting glasses frames to a user
EP1134701A2 (en) Client-server system for three-dimensional face make-up simulation
US20190019242A1 (en) Immersive and artificial intelligence based retail
US20120221418A1 (en) Targeted Marketing System and Method
CN105512931A (en) Method and device for intelligently fitting glasses online
US11461630B1 (en) Machine learning systems and methods for extracting user body shape from behavioral data
AU2019240635A1 (en) Targeted marketing system and method
KR20230002738A (en) Virtual try-on system for eyeglasses using a reference frame
US11544768B2 (en) System and method for fashion recommendations
CN115803673A (en) Method and apparatus for selecting a spectacle frame
Shadrach et al. Smart virtual trial room for apparel industry
CN111815407A (en) Method and device for constructing user portrait
CN111767817A (en) Clothing matching method and device, electronic equipment and storage medium
WO2020079235A1 (en) Method and apparatus for accessing clothing
CN106651500B (en) Online shopping system based on video image recognition technology and virtual reality technology of spatial feedback characteristics
CN111160981B (en) Method and device for optimizing user preference information based on off-line shop
JP7101234B2 (en) Information processing equipment, information processing methods and information processing programs
NL2022937B1 (en) Method and Apparatus for Accessing Clothing
US20240135424A1 (en) Information processing apparatus, information processing method, and program
US11790429B2 (en) Systems and methods for interpreting colors and backgrounds of maps
WO2022176279A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210322

R150 Certificate of patent or registration of utility model

Ref document number: 6857638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250