JP2016523574A - カスタム外用剤を具体化および調合するためのシステムおよび方法 - Google Patents

カスタム外用剤を具体化および調合するためのシステムおよび方法 Download PDF

Info

Publication number
JP2016523574A
JP2016523574A JP2016502845A JP2016502845A JP2016523574A JP 2016523574 A JP2016523574 A JP 2016523574A JP 2016502845 A JP2016502845 A JP 2016502845A JP 2016502845 A JP2016502845 A JP 2016502845A JP 2016523574 A JP2016523574 A JP 2016523574A
Authority
JP
Japan
Prior art keywords
user
image
skin
color
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016502845A
Other languages
English (en)
Other versions
JP2016523574A5 (ja
JP6960734B2 (ja
Inventor
デイビッド アンドリュー ハウエル,
デイビッド アンドリュー ハウエル,
デイビッド ブライアン グロス,
デイビッド ブライアン グロス,
レスリー ヤング ハービル,
レスリー ヤング ハービル,
Original Assignee
スキン リパブリック, インコーポレイテッド
スキン リパブリック, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スキン リパブリック, インコーポレイテッド, スキン リパブリック, インコーポレイテッド filed Critical スキン リパブリック, インコーポレイテッド
Publication of JP2016523574A publication Critical patent/JP2016523574A/ja
Publication of JP2016523574A5 publication Critical patent/JP2016523574A5/ja
Application granted granted Critical
Publication of JP6960734B2 publication Critical patent/JP6960734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/463Colour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes

Abstract

カスタム化粧品調合を決定するためのシステムおよび方法。一方法では、ユーザは、既知の光および色特性を用いて、皮膚領域の画像を捕捉するように誘導され、画像は、較正された皮膚色情報を提供するために処理される。カスタム化粧品調合が、較正された皮膚色情報に基づいて、ユーザのために自動的に決定される。別の方法では、ユーザは、画像センサを有するデバイスを使用して、1つまたは複数の皮膚領域画像の捕捉を通じて相互作用的に誘導される。皮膚領域画像は、較正された皮膚色情報を提供するために処理され、較正された皮膚色情報は、グランドトゥルースデータセットにおける最も近い既知の値のセットを識別するためにグランドトゥルースデータセットと比較される。カスタム化粧品調合が、比較に基づいて、ユーザのために自動的に決定される。

Description

(関連出願への相互参照)
本願は、2013年3月15日に出願された米国仮特許出願第61/788,619号(名称「System and Method for Specifying and Formulating an Aesthetic and Protective Topical Agent Optimized for a Specific Use」)の優先権および利益を主張し、2013年8月15日に出願された米国仮特許出願第61/866,245号(名称「System and Method for Specifying and Formulating an Aesthetic and Protective Topical Agent Optimized for a Specific Use」)の優先権および利益を主張し、その全体は、参照によって本明細書に援用される。
(技術分野)
本開示は、概して、画像分析および外用薬調合に関し、より具体的には、色較正された皮膚画像に基づいて、カスタム化粧品調合を決定するためのシステムおよび方法に関する。
(背景)
塗布用クリームまたはローションの形態における美容かつ保護的化粧品外用薬は、紫外線放射に対して保護し、水分バリアを提供し、傷および皮膚変色を隠し、炎症を低下またはそれを防止し、ならびに他の健康的および美容的利点を提供するために広範囲に使用される。最良の全ての可能世界では、これらの保護的外用薬は、具体的な必要性を伴う特定の個人のために、かつ具体的な環境または使用のために、専門家のチームによって具体化されるであろう。外用薬は、次いで、直ちに調合され、個人に送達されるであろう。残念ながら、物流およびコストが、これまで、所与のユーザにそのような具体的かつ最適化された製品を提供する実用性を制限している。
現在、特定の必要性に合致する化粧品外用薬を提供するために、いくつかのアプローチが存在する。これらの薬剤は、皮膚科医が提供する仕様に基づいて、混ぜ合わせられてもよい。それらは、小売店において、知識豊富な店員によって成分のセットから組み立てられてもよい。多種多様な特性を伴う化粧品クリームまたはローションの系統あるいはセットが、所与の顧客の着色、皮膚タイプ、および具体的な必要性に基づいて、事前に製造され、かつ選ばれてもよい。
これらの外用薬のカスタム製造および分配に関する一般的な解決策への主な障壁は、製品における特徴の数が多くあり、必要性がかなり多様であることである。所与の必要性および個人のために最適である粒度を伴う各調合を製造し、かつ保管されることは、商業的に実現可能ではない。したがって、必要とされるのは、例えば、高度な画像分析技術を使用した、個人の具体的な必要性の決定および必要性のそのセットのために最適である調合に基づいて、有用な化合物を提供する方法である。
適度な正反射率および主に拡散反射率を伴う表面の反射スペクトルを捕捉する技術が、固定された開口に設定され、固定された集積光学素子を有し、固定された期間にわたって測定された検出器を用いて、既知の光源を伴う既知の距離における反射を積分するために、光学的方法を使用して、RGBトリプレットとして反射色を測定すること、または表面の反射スペクトルを測定することを要求する可能性がある。これらの技術を使用するデバイスが、反射分光光度計および比色計である。
いくつかのモバイルデバイスが、比色計の多くの特徴を有する。例えば、それらは、既知の特徴を伴う光源、CCD検出器、プロセッサ、および一体化のために使用され得るレンズシステムを有する。正確な比色計としてモバイルデバイスを使用する主要な障壁は、(1)周辺光を制御する、(2)距離をサンプリングされる表面に設定する、(3)サンプルの測定のために使用される開口を制御する、(4)サンプルの測定のために使用される検出器感度を制御する、(5)サンプルを測定するために使用される時間を制御する、(6)サンプルを測定するためにホワイトバランスを制御する、および(7)サンプルを測定するために焦点面を制御する必要性があることである。
モバイルデバイス内で使用されるカメラが、現在使用されている最も一般的なハンドヘルドカメラになっているが、それらは、手動で開口を設定する能力が欠如しており、最も一般的なデバイスは、ソフトウェアが開口、感度、または露光時間を設定することを可能にしない。モバイルデバイスのハードウェアおよびファームウェアが、どのカメラ設定が結果と生じるデジタル画像ファイル内に埋め込まれたデータとして使用されることを報告し得るが、技術は、多くの場合、画像を向上または改善し、ホワイトバランスを調節するために、ファームウェア内で使用される。カメラを制御するファームウェアは、光および色の信頼性のある測定を行うようにではなく、高品質のスナップショットを作るために最適化されている。
したがって、さらに必要とされるのは、これらの問題に対処し、ユーザが、モバイルデバイスを使用して、正確に再現可能な色サンプルを捕捉することを可能にする、システムおよび方法である。
(概要)
システムおよび方法が、カスタム化粧品調合を決定し、正確な色情報を捕捉するために提示される。一側面では、カスタム化粧品調合を決定する方法が、ユーザを誘導し、既知の光および色特性を用いて、皮膚領域の画像を捕捉するステップと、画像を処理し、較正された皮膚色情報を提供するステップと、較正された皮膚色情報に基づいて、ユーザのためにカスタム化粧品調合を自動的に決定するステップとを含む。皮膚領域画像は、画像センサを有するデバイスから受信されることができ、ユーザは、デバイスの画像センサを使用して、顔領域等の複数の皮膚領域画像の捕捉を通じて、相互作用的に誘導されることができる。
一実装では、ユーザは、デバイスの画像センサを使用して、マーカーの画像の捕捉を通じて相互作用的に誘導され、皮膚領域画像は、少なくとも部分的に、捕捉されたマーカー画像に基づいて、処理される。本デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、またはゲーム機であることができる。皮膚領域画像は、デバイスおよび画像センサのうちの少なくとも1つの特性を識別する埋め込み型データを含むことができ、皮膚領域画像は、少なくとも部分的に、埋め込み型データに基づいて、処理されることができる。
別の実装では、カスタム化粧品調合を自動的に決定するステップは、較正された皮膚色情報を参照ユーザに合致させるステップを含み、参照ユーザは、それと関連付けられる事前に決定された化粧品調合を有する。カスタム化粧品調合の自動決定は、少なくとも部分的に、化粧品成分アレルギーのユーザによる指示に基づくことができる。カスタム化粧品調合に基づいて、外用剤が、混ぜ合わせられ、ユーザに送達されることができる。ユーザは、カスタム化粧品調合に基づいて混ぜ合わせられた外用剤を購入することを可能にされることができる。
別の側面では、カスタム化粧品調合を決定するためのシステムは、それ自体が、コンピュータ実行可能命令を記憶するためのメモリと、メモリ内に記憶された命令を実行するための処理ユニットとを含む、少なくとも1つのコンピュータを含む。命令の実行は、ユーザを誘導し、既知の光および色特性を用いて、皮膚領域の画像を捕捉することと、画像を処理し、較正された皮膚色情報を提供することと、較正された皮膚色情報に基づいて、ユーザのためにカスタム化粧品調合を自動的に決定することとを含む、動作を実施するようにコンピュータを構成する。皮膚領域画像は、画像センサを有するデバイスから受信されることができ、動作はさらに、ユーザがデバイスの画像センサを使用して、顔領域等の複数の皮膚領域画像の捕捉を通じて、相互作用的に誘導することを含むことができる。
一実装では、動作はさらに、デバイスの画像センサを使用して、マーカーの画像の捕捉を通じてユーザを相互作用的に誘導することを含み、皮膚領域画像は、少なくとも部分的に、捕捉されたマーカー画像に基づいて、処理される。本デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、またはゲーム機であることができる。皮膚領域画像は、デバイスおよび画像センサのうちの少なくとも1つの特性を識別する埋め込み型データを含むことができ、皮膚領域画像は、少なくとも部分的に、埋め込み型データに基づいて、処理されることができる。
別の実装では、カスタム化粧品調合を自動的に決定することは、較正された皮膚色情報を参照ユーザに合致させることを含み、参照ユーザは、それと関連付けられる事前に決定された化粧品調合を有する。カスタム化粧品調合の自動決定は、少なくとも部分的に、化粧品成分アレルギーのユーザによる指示に基づくことができる。動作はさらに、ユーザがカスタム化粧品調合に基づいて混ぜ合わせられた外用剤を購入することを可能にすることを含むことができる。
一側面では、カスタム化粧品調合を決定する方法は、画像センサを有するデバイスを使用して、1つまたは複数の画像の捕捉を通じてユーザを相互作用的に誘導するステップであって、各画像は、ユーザの皮膚領域を含む、ステップと、皮膚領域画像を処理し、較正された皮膚色情報を提供するステップと、較正された皮膚色情報をグランドトゥルースデータセットと比較し、グランドトゥルースデータセットにおける最も近い既知の値のセットを識別するステップと、比較に基づいて、ユーザのためにカスタム化粧品調合を自動的に決定するステップとを含む。カスタム化粧品調合は、(i)最も近い既知の値のセットに対する、較正された皮膚色情報の相対的近接性に基づいて、導出される一意の化合物と、(ii)既存の化粧品製品とのうちの少なくとも1つを含む。
一実装では、皮膚領域画像を処理するステップは、皮膚領域画像のうちの少なくとも1つのために、少なくとも1つの皮膚領域画像内の複数の顔領域を検出するステップと、皮膚の色合いに基づいて、顔領域を区画化するステップと、皮膚の色合い、影、鏡面ハイライトのうちの少なくとも1つに基づいて、色を各顔領域区画に割り当てるステップとを含む。
別の実装では、皮膚領域画像のうちの少なくとも1つと関連付けられる周辺光情報は、受信され、少なくとも1つの皮膚領域画像は、少なくとも部分的に、周辺光情報に基づいて、処理される。
さらなる実装では、本方法はさらに、デバイスの画像センサを使用して、マーカーの画像の捕捉を通じてユーザを相互作用的に誘導するステップを含み、皮膚領域画像は、少なくとも部分的に、マーカー画像に基づいて、処理される。デバイスの画像センサの現在の設定は、マーカー画像の捕捉の成功に基づいて、記憶されることができる。デバイスの画像センサ設定は、露光、集点、および/またはホワイトバランスを含むことができる。皮膚領域画像は、記憶された画像センサ設定に基づいて、処理されることができる。皮膚領域画像を処理するステップは、未知の光源を補償するステップを含むことができる。
さらに別の実装では、皮膚領域は、手首、前額、左頬、右頬、および/または顔全体である。本方法はさらに、ユーザが既存の化粧品製品を購入することを可能にすることを含むことができる。本デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、および/またはゲーム機であることができる。
別の側面では、カスタム化粧品調合を決定するためのシステムが、それ自体が、コンピュータ実行可能命令を記憶するためのメモリと、メモリ内に記憶された命令を実行するための処理ユニットとを含む、少なくとも1つのコンピュータを含む。命令の実行は、画像センサを有するデバイスを使用して、1つまたは複数の画像の捕捉を通じてユーザを相互作用的に誘導し、各画像は、ユーザの皮膚領域を含むことと、皮膚領域画像を処理し、較正された皮膚色情報を提供することと、較正された皮膚色情報をグランドトゥルースデータセットと比較し、グランドトゥルースデータセットにおける最も近い既知の値のセットを識別することと、比較に基づいて、ユーザのためにカスタム化粧品調合を自動的に決定することとを含む、動作を実施するようにコンピュータを構成する。カスタム化粧品調合は、(i)最も近い既知の値のセットに対して較正された皮膚色情報の相対的近接性に基づいて、導出される一意の化合物と、(ii)既存の化粧品製品とのうちの少なくとも1つを含む。
一実装では、皮膚領域画像を処理することは、皮膚領域画像のうちの少なくとも1つのために、少なくとも1つの皮膚領域画像内の複数の顔領域を検出することと、皮膚の色合いに基づいて、顔領域を区画化することと、皮膚の色合い、影、および鏡面ハイライトのうちの少なくとも1つに基づいて、色を各顔領域区画に割り当てることとを含む。
別の実装では、皮膚領域画像のうちの少なくとも1つと関連付けられる周辺光情報は、受信され、少なくとも1つの皮膚領域画像は、少なくとも部分的に、周辺光情報に基づいて、処理される。
さらなる実装では、動作はさらに、デバイスの画像センサを使用して、マーカーの画像の捕捉を通じてユーザを相互作用的に誘導することを含み、皮膚領域画像は、少なくとも部分的に、マーカー画像に基づいて、処理される。デバイスの画像センサの現在の設定は、マーカー画像の捕捉の成功に基づいて、記憶されることができる。デバイスの画像センサ設定は、露光、集点および/またはホワイトバランスを含むことができる。皮膚領域画像は、記憶された画像センサ設定に基づいて、処理されることができる。皮膚領域画像を処理することは、未知の光源を補償することを含むことができる。
さらに別の実装では、皮膚領域は、手首、前額、左頬、右頬、および/または顔全体である。動作はさらに、ユーザが既存の化粧品製品を購入することを可能にすることを含むことができる。本デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、および/またはゲーム機であることができる。
一側面では、画像センサを有するデバイスを使用して、物体の正確な色を捕捉する方法は、既知のサイズを有するマーカーを使用して、デバイスの複数の設定を較正するステップと、複数の物体の表面それぞれの色を測定するステップと、測定された色に基づいて、物体の表面反射率を決定するステップと、較正された設定、測定された表面色、および物体の表面反射率に基づいて、物体の表面色の変動を決定するステップとを含む。複数の表面は、皮膚の領域を含むことができ、本デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、またはゲーム機であることができる。マーカーは、既知の反射率を有することができる。
一実装では、本デバイスを較正するステップは、ユーザに、マーカーを実質的に白地上に配置するように指図するステップを含む。本デバイスを較正するステップは、実質的に白地の捕捉画像に基づいて、本デバイスの開口、感度、露光時間、およびホワイトバランスのうちの少なくとも1つを設定するステップを含むことができる。本デバイスを較正するステップはまた、デバイスの画像センサと関連付けられる光を既知の輝度に設定するステップを含むことができる。さらに、本デバイスを較正するステップは、ユーザを相互作用的に誘導し、マーカーの表面から具体的な距離にデバイスの画像センサを位置付けるステップを含むことができる。さらに、本デバイスを較正するステップは、マーカーの表面から具体的な距離におけるデバイスの画像センサの位置付けに応じて、本デバイスの設定のうちの少なくとも1つをロックするステップを含むことができる。本デバイスの設定は、自動露光、自動集点および/または自動ホワイトバランスであることができる。本デバイスのロックされた設定は、物体の表面のそれぞれの色を測定する間、適用されることができる。
別の実装では、物体の表面の色を測定するステップは、ユーザに、物体の表面に近接してマーカーを配置するように指図するステップを含む。物体の表面の色を測定するステップはまた、ユーザを相互作用的に誘導し、相互に対してデバイスの画像センサおよび物体を位置付け、較正標的に合致させるステップを含むことができる。相互作用誘導は、音声指図を含むことができる。物体の表面の色を測定するステップはさらに、マーカーから具体的な距離におけるデバイスの画像センサの位置付けに応じて、物体の表面の色を捕捉するステップを含むことができる。
さらなる実装では、物体の表面反射率を決定するステップは、捕捉された色を物体の表面反射率に転換するステップを含む。
別の側面では、物体の正確な色を捕捉するためのシステムは、それ自体が、コンピュータ実行可能命令を記憶するためのメモリと、メモリ内に記憶された命令を実行するための処理ユニットとを含む、少なくとも1つのコンピュータを含む。命令の実行は、既知のサイズを有するマーカーを使用して、デバイス(画像センサを有し得る)の複数の設定を較正することと、複数の物体の表面それぞれの色を測定することと、測定された色に基づいて、物体の表面反射率を決定することと、較正された設定、測定された表面色、および物体の表面反射率に基づいて、物体の表面色の変動を決定することとを含む、動作を実施するようにコンピュータを構成する。複数の表面は、皮膚の領域を含むことができ、本デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、またはゲーム機であることができる。マーカーは、既知の反射率を有することができる。
一実装では、本デバイスを較正することは、ユーザに、マーカーを実質的に白地上に配置するように指図することを含む。本デバイスを較正することは、実質的に白地の捕捉画像に基づいて、本デバイスの開口、感度、露光時間、およびホワイトバランスのうちの少なくとも1つを設定することを含むことができる。本デバイスを較正することはまた、デバイスの画像センサと関連付けられる光を既知の輝度に設定することを含むことができる。さらに、本デバイスを較正することは、ユーザを相互作用的に誘導し、マーカーの表面から具体的な距離にデバイスの画像センサを位置付けることを含むことができる。さらに、本デバイスを較正することは、マーカーの表面から具体的な距離におけるデバイスの画像センサの位置付けに応じて、本デバイスの設定のうちの少なくとも1つをロックすることを含むことができる。本デバイスの設定は、自動露光、自動集点および/または自動ホワイトバランスであることができる。本デバイスのロックされた設定は、物体の表面のそれぞれの色を測定する間、適用されることができる。
別の実装では、物体の表面の色を測定することは、ユーザに、物体の表面に近接してマーカーを配置するように指図することを含む。物体の表面の色を測定することはまた、ユーザを相互作用的に誘導し、相互に対してデバイスの画像センサおよび物体を位置付け、較正標的に合致させることを含むことができる。相互作用誘導は、音声指図を含むことができる。物体の表面の色を測定することはさらに、マーカーから具体的な距離におけるデバイスの画像センサの位置付けに応じて、物体の表面の色を捕捉することを含むことができる。
さらなる実装では、物体の表面反射率を決定することは、捕捉された色を物体の表面反射率に転換することを含む。
本発明の他の側面および利点は、実施例にすぎず、それらの全てが本発明の原理を例証する、以下の図面、詳細な説明、および請求項から明白になるであろう。
本発明のより完全な認識およびその多くの付随する利点は、それが、付随の図面に関連して考慮されるとき、以下の詳細な説明に参照することによってより深く理解されるようになるにつれて、容易に取得されるであろう。図面では、同一参照特徴は、概して、異なる図全体を通して、同一の部分を指す。さらに、図面は、必ずしも、縮尺通りではなく、代わりに、概して、本発明の原理を例証するように強調されている。
図1は、本発明の実装による、最適化された外用剤をユーザに提供するための例示的方法のフローチャートである。 図2は、本発明の実装による、最適化された外用剤をユーザに提供するための例示的システムの高レベルアーキテクチャ図である。 図3A−3Dは、本発明の実装による、画像センサを伴うデバイスを使用する、皮膚色を捕捉するための例示的方法のフローチャートである。 図3A−3Dは、本発明の実装による、画像センサを伴うデバイスを使用する、皮膚色を捕捉するための例示的方法のフローチャートである。 図3A−3Dは、本発明の実装による、画像センサを伴うデバイスを使用する、皮膚色を捕捉するための例示的方法のフローチャートである。 図3A−3Dは、本発明の実装による、画像センサを伴うデバイスを使用する、皮膚色を捕捉するための例示的方法のフローチャートである。 図4A−4Eは、本発明の実装による、顔領域を含有する画像を分析するための例示的方法のフローチャートである。 図4A−4Eは、本発明の実装による、顔領域を含有する画像を分析するための例示的方法のフローチャートである。 図4A−4Eは、本発明の実装による、顔領域を含有する画像を分析するための例示的方法のフローチャートである。 図4A−4Eは、本発明の実装による、顔領域を含有する画像を分析するための例示的方法のフローチャートである。 図4A−4Eは、本発明の実装による、顔領域を含有する画像を分析するための例示的方法のフローチャートである。
(詳細な説明)
本明細書に説明されるのは、例えば、携帯電話、タブレット、ウェブカメラ、デジタルカメラ、ゲーム機、テレビ、スマートグラス、および画像センサを有する他の消費者または専門家用デバイスで撮影される写真に適用される画像分析技術を使用して、特定の個々の特徴のために最適化された外用剤を具体化かつ調合するためのシステムおよび方法の種々の実装である。
(最適化美容保護的外用剤)
一実装では、「OAPTA」と省略される、「最適化美容保護的外用剤」と本明細書に称される、カスタム外用剤のための仕様を生成させるシステムが、提供される。OAPTAは、「ユーザ」と本明細書に称される具体的な個人のクライアントの必要性および特徴のために調合される。OAPTAは、可能性として考えられる成分のセットを含むことができる。セットは、所与のユーザのほとんどの必要性を満たすために、十分に多いことができる。いくつかの事例では、少数の成分のみが、ユーザのためにOAPTAの具体的な調合において使用される。OAPTAの成分(OAPTA成分セット)は、限定ではないが、
1.外用基剤、水、エマルション、ゲル、ガム
2.保湿剤
3.紫外線(UV)濾過剤
4.不透過(隠蔽)剤
5.色制御剤
6.反射(光沢、艶消し、乳白光)制御剤
7.抗炎症剤(例えば、アロエ等)
8.保護剤(例えば、ビタミンE等)
を含むことができる。
(OAPTAサービス)
図1を参照すると、一実装では、OAPTAは、以下の高レベルステップを使用して、ユーザに提供される。簡潔性および明確性のために、OAPTAをユーザに提供する全てのステップの集合は、本明細書において、「サービス」と称されるであろう。ステップ102では、ユーザは、例えば、本システムへアクセスを提供するユーザ名およびパスワードを使用して、識別される。ユーザが本システムを事前に使用していなかった場合、ユーザは、新しいアカウントをセットアップするために、登録に進むことができる(ステップ104)。ユーザの詳細(例えば、名前、住所等)は、次いで、ユーザデータベース150内に記憶されることができる。いったんユーザが本システムによって識別されると(例えば、ログインされる)、データが、ユーザの必要性を決定するために、収集されることができる(ステップ106)(例えば、ユーザが所望の化粧品を示すことを可能にする、ユーザが任意のアレルギーを規定することを可能にする、皮膚画像を捕捉する等)。データ収集ステップは、直接対面での専門家の相談等の専門家サービスを使用して、実施されることができ(ステップ108)、または、代替として、消費者デバイス(例えば、携帯電話、タブレット、または他のデバイス)のアプリケーションを使用して、写真を撮影することによって、ユーザ自身によって実施されることができ(ステップ110)、これは、次いで、色精度、品質、および他の特性に関して、写真を自動的に有効にするであろう(ステップ112)。専門家サービスおよび/またはデバイスアプリケーションによって捕捉される情報は、後の参照および再使用のためにユーザデータベース150内に記憶されることができる。
データ収集(または、事前に収集されたデータへの参照)後、ステップ114は、OAPTAの成分が上記に説明されるもの等の構成要素を使用して具体化される、OAPTA仕様を提供する。ステップ116では、OAPTA仕様に基づいて、OAPTAを調合かつ/または製造するための命令が、生成される。ユーザが、アプリケーションを使用して、OAPTAを生成させる場合、アプリケーションは、作成されたカスタム製品を表示することができ(ステップ118)、ユーザが、製品をショッピングカート内に入れ(ステップ120)、それを購入する(ステップ122)ことを可能にする。生成された調合命令は、次いで、OAPTAを混ぜ合わせる、または調合に合致する事前に作製されたOAPTAを選択するために、使用されることができる(ステップ124)。OAPTAは、次いで、ユーザに送達されることができ(ステップ126)、フィードバックが、随意に、ユーザの必要性が満たされたかどうかを決定するために、収集されることができる(ステップ128)。
(OAPTAシステム)
一実装では、OAPTAをユーザに提供するシステム200が、成分およびサービスのセットで構成される。システム200は、システム200における種々のOAPTAサービスによる使用のために上記に説明されるもの等の共有OAPTA成分セット210を含むことができる。少なくとも1つのOAPTA参照サービス220は、参照使用の収集およびOAPTAメタデータ230の構築のために、OAPTAの作成を促進することができる。OAPTA参照サービス220は、OAPTA生産サービス240と同一の様式でユーザデータを収集し、付加的ユーザデータを収集し、最適なOAPTA仕様を調合することができる。
OAPTAメタデータ240は、OAPTA生産サービス240から収集されたユーザデータのOAPTA参照サービス220によって生成されたOAPTA仕様へのマップピングを可能にする形態で、OAPTA参照サービス220から収集されたユーザデータの集合体である。少なくとも1つのOAPTA生産サービス240は、少なくとも1つのOAPTA参照サービス220によって生成されたOAPTAメタデータ230を使用して、OAPTA仕様の作成を提供する。OAPTAシステムフィードバック250は、OAPTA成分セット210を修正または変更する、ならびに/あるいはOAPTA生産サービス240の仕様、調合、および混ぜ合わせ260を修正するために、少なくとも1つのOAPTA参照サービス220および少なくとも1つのOAPTA生産サービス240からOAPTAフィードバックの収集を提供する。
(共有OAPTA成分セット)
共有OAPTA成分セット210は、下記に説明されるように具体化されることができ、さらに、共有OAPTA成分セット210は、同様に、本明細書に説明されるOAPTAシステム内で機能する種々の好適な様式で、具体化されることができることを認識されたい。皮膚科医、エステティシャン、および化粧品カラリストから成る群は、本明細書では、「OAPTA専門家群」と称される。一実装では、共有OAPTA成分セット210は、OAPTA専門家群によって具体化される。共有OAPTA成分セット210は、最初に、完全セットとして、次いで、相互に併用され得る、これらの成分を示す関連のセットとして具体化されることができる。例えば、着色剤のセットが、具体的な外用基剤を用いてのみ使用可能であると具体化されることができる、またはより不透過度を提供するために、ともに作用する成分の群が、ともに使用されると、最も効果的であると示されることができる。同様に、あるアレルギーを伴うユーザに最良であるこれらの項目の群は、識別かつタグ付けされることができる。
成分のこの最初のマップピングは、OAPTA生産サービス240の仕様記述法のためにデータを提供し、本明細書では、「仕様ヒント」と称されるであろう。一実装では、仕様ヒントは、無向グラフとして表され、これは、最小のスパニング木のセットに変換される。どの成分がともに使用されることができるかを発見するために、無向グラフを評価するよりも、最小のスパニング木を横断する方がより高速であることを認識されたい。この変換の後に、共有OAPTA成分セット210における単一の項目が、仕様ヒントを構成する複数のスパニング木によって参照されることができる。最初の作成の後に、仕様ヒントは、OAPTAシステムフィードバック250によって更新または発見され、かつOAPTA専門家群によって修正されることができる。
(OAPTA参照サービス)
OAPTA参照サービス220は、共有OAPTA成分セット210が具体化された後に、構築されることができる。OAPTA参照サービス220は、OAPTA生産サービス240を構築するために必要とされるOAPTAメタデータ230を作る。一実装では、OAPTA参照サービス220は、専門家サービスとして構成される。別の実装では、OAPTA参照サービス220は、オンラインビジネスおよび小売店として構成される。専門家サービスとしてのOAPTA参照サービス220の実装は、下記の説明における実施例として使用される。
(参照ユーザ識別)
専門家サービスとして、OAPTA参照サービス220は、ユーザ識別を管理するために、最良の実践を使用することができる。これに加えて、また、参照サービス220が、匿名であり、ユーザを識別しない形式で、ユーザデータを収集かつ記憶することを可能にし、OAPTAメタデータ230を構築するために使用され得る、個人情報保護方針および情報使用方針を実装することができる。合意もまた、システム200の生産成分のユーザが、類似するOAPTA製品の必要性を有する具体的な参照ユーザ(有名人等)を識別し得るように、いくつかの考慮点に基づいて、OAPTAシステム200によって使用されるデータのために行われることができる。
(参照ユーザデータ収集)
OAPTA参照サービス220は、OAPTA生産サービス240と同一のデータ収集を使用することができる。加えて、このデータは、OAPTA専門家群によって具体化されるような収集方法で拡張されることができる。
(一般的サービスデータ収集)
一実装では、サービスデータ収集は、類似する特徴を有し、類似する情報収集およびメディアディスプレイ特性を有する様式において製造されたモバイルデバイスのセット上でアプリケーションを使用する。モバイルアプリケーションは、データを収集するために、ユーザに一連のステップを踏ませることができる。例えば、アプリケーションは、具体的な必要性またはアレルギーを有しているかどうかをユーザに質問することができる。アプリケーションは、どのステップを次に実施するのか、ユーザに命令するビデオを示すことができる、および/またはモバイルゲームのコンテキストを使用し、データを取得かつ最適化することができる。モバイルデバイスは、一致データを各収集から提供するために、選択されることができ、アプリケーションは、構築されることができる。一致画像データ収集は、以下の方法の1つまたは複数のものを使用して、実施されることができる。
1.一実施例では、既知の特徴を伴う製造されたトークンまたはマーカー(例えば、新しいドル紙幣、新しい25セント硬貨、または製造され、ユーザに送信される、マーカーの一部)が、使用される。モバイルデバイスアプリケーションが、ユーザに、マーカー単独の一部および/またはユーザの皮膚に隣接するマーカーの写真を撮影するように命令することができる。画像は、OAPTAサービス(使用されるマーカーに基づいて較正される)に送信され、必要なデータは、画像から生成される。
2.別の実施例では、参照色チャートが、ユーザデバイス画面上に投影され、ユーザは、同一フレーム内に皮膚と参照色チャートとの両方を捕捉する鏡内の写真を撮影するように命令される。画像は、OAPTAサービス(使用されるマーカーに基づいて較正される)に送信され、必要なデータは、画像から生成される。
3.さらなるデータ収集実施例では、モバイルデバイスの内部フラッシュが、光源として使用され、ユーザは、具体的な様式で皮膚の写真を撮影するように命令される。画像は、OAPTAサービス(焦点距離を含む、本デバイスからのフラッシュおよびExifデータに基づいて較正される)に送信され、必要なデータは、画像から生成される。
4.別の実施例では、OAPTA製品を発送するために使用される包装が、モバイルデバイスを保持し、遮光体を提供し、ユーザの皮膚からの具体的な距離を画定する様式において設計される。ユーザは、具体的な様式で皮膚の写真を撮影するように命令される。画像は、OAPTAデータ収集サービス(焦点距離を含む、本デバイスからのフラッシュおよびエグジフデータに基づいて較正される)に送信され、必要なデータは、画像から生成される
5.さらに別の実施例では、画像が、ソフトウェアがカメラを制御することを可能にする、モバイルデバイスのアプリケーションによって捕捉されることができる。本デバイス上で実行するソフトウェアは、本デバイス上に常駐するフラッシュまたは光のみを使用するように、本デバイスを設定することができる、および/または、また、画像が撮影される時間まで、本デバイス上で顔検出を使用することができる。画像は、例えば、ユーザの顔までの距離が既知の距離の範囲内にある、および/またはユーザの顔が中心に置かれ、合焦されるとき、撮影されることができる。モバイルデバイス上で実行するソフトウェアはまた、リアルタイムビデオ捕捉を使用し、周辺光(フラッシュを使用しない)の量を決定することができ、音声またはテキストプロンプトを使用し、ユーザに光を変更する方法を相互作用的に示唆することができる。デジタル写真がフラッシュで撮影される前に、ビデオモードで検出される周辺光に関する情報が、処理のために、画像とともに送信されることができる。加えて、1つは、周辺光を伴い、1つは、フラッシュを伴う、2つの画像が、迅速に連続して撮影されることができる。
ここで、モバイルデバイス上のカメラおよび光を使用して正確な皮膚色を捕捉するステップが、さらに詳細に説明されるであろう。本発明の技術は、主に、正確な皮膚色を捕捉することに関して説明されるが、特に、比色計を使用するであろう状況において、他の用途も可能であることを認識されたい。図3Aは、モバイルデバイスまたは画像センサを伴う他のデバイスを使用して、皮膚色を捕捉するためのプロセスの一実装を描写する。ステップ310では、本デバイスは、白または実質的に白地上に既知のサイズのマーカーを使用して、較正される。ステップ330では、本システムは、マーカーに隣接する物体の表面(例えば、皮膚領域)の色を測定する。ステップ350では、既知のサイズの物体の色が、測定され、ステップ370では、本システムは、ステップ330および/またはステップ350において見出される輝度に基づいて、物体の表面の色の変動を測定する。
ここで図3Bを参照すると、デバイス較正ステップ310が、さらに詳細に示される。いくつかの実装では、本デバイスを較正するステップは、既知のサイズおよび既知の反射率のソフトウェア検出可能物体(「マーカー」)が白または実質的に白地上に配置される、設定を要求する。この設定は、製造されることができ、例えば、製品包装の一部である、または皮膚ケア製品等の包装された製品内に含まれることができる。代替として、この設定は、コピー機/プリンタ用紙の2つのシート等の既知の特性を伴う白地または実質的に白地上に、コイン等の一般的物体または周知の特性を有する物体を配置することによって作られることができる。較正のために使用される距離は、周辺光の影響を低減させるために、測定される表面に十分に近接して決定されることができる。
ステップ312では、本デバイス上のソフトウェアアプリケーションが、ユーザ設定に較正のために使用される設定を配置または構築するように指図する。ソフトウェアは、本デバイス上のカメラのための具体的なビデオまたは画像捕捉モードを設定し、カメラと関連付けられる光を既知の輝度に設定することができる(ステップ314)。本デバイス上のソフトウェアは、視野上のマーカーの捕捉画像を相互作用的に示すことができ(ステップ316)、マーカーおよびハイライトを検出する、またはユーザのためにマーカーの位置の輪郭を描くことができる(ステップ318)。いくつかの実装では、マーカーの位置は、ソフトウェアが白地を使用し、本デバイスの開口、感度、露光時間、およびホワイトバランスを設定するようにオフセットされる。
ステップ320では、ソフトウェアは、具体的な距離に位置付けられる本デバイスのカメラをもたらすであろう、マーカーのための所望のサイズおよび位置を示す、または強調する。このサイズおよび位置は、本明細書では、「較正標的」と称される。ソフトウェアは、ユーザに、強調されたマーカーを較正標的と合致させるように相互作用的に指図することができる(ステップ322)。ユーザが、マーカーを較正標的と合致させるように本デバイスを位置付けるとき、ソフトウェアは、本デバイスに、自動露光、自動集点、および自動ホワイトバランスをロックさせることができる(ステップ324)。このロックは、開口、感度、シャッター速度、集点、およびホワイトバランスを既知の反射率を伴う表面に対して事前決定された距離に効果的に較正する。設定の白色点(および他のデータ)は、後続のセッションを較正するために、記録かつ使用されることができる(ステップ326)。
ここで図3Cを参照すると、隣接表面色測定ステップ330が、さらに詳細に示される。一実装では、物体の色を測定するステップは、本デバイスのカメラから物体の表面の表面までの距離が設定される、または少なくとも把握されることを必要とする。物体サイズが固定されない場合、これは、較正ステップにおいて使用される同一のもののマーカーを測定される表面に隣接して配置することによって、行われることができる。
ステップ332では、本デバイス上のソフトウェアは、ユーザに、マーカーを測定される表面に隣接して、またはその上に配置するように指図する。ステップ334では、ソフトウェアは、較正ステップ310からロックされた設定を維持または再作成する。ソフトウェアは、物体に隣接するマーカーの捕捉画像を相互作用的に示し(ステップ336)、積分かつ測定される物体の表面積の輪郭(すなわち、「見本」)を示すステップ(ステップ338)を含むことができる。ステップ340では、ソフトウェアは、見本の中で見出された色を積分し、相互作用的に見出された色を示すことができる。ソフトウェアはまた、マーカーを検出し、相互作用的に、ユーザのためにマーカーの位置を強調する、またはその輪郭を描くことができる(ステップ342)。マーカーの位置は、見本が白色点を較正するために使用される捕捉画像の領域に合致するように、オフセットされることができる。
ステップ344では、ソフトウェアは、ユーザに、強調されたマーカーを較正標的と合致させるように相互作用的に指図する。ユーザが、マーカーを較正標的と合致させるように本デバイスを位置付けるとき、ソフトウェアは、物体の生色値として見本の積分された色を記録することができる(ステップ346)。ソフトウェアは、既知の技術を使用し、見出されたホワイトバランスおよび本デバイスの特徴に関する記憶されたデータを適用させ、見出された物体の生色値を物体の表面反射率に転換することができる(ステップ348)。
ここで図3Dを参照すると、物体色測定ステップ350が、さらに詳細に示される。測定される物体が既知のサイズまたは既知のサイズの特徴を有する場合、これらの特徴のサイズは、測定される物体までの本デバイスのカメラの距離を決定するために使用されることができる。例えば、皮膚色を測定する際、ユーザの手首の幅またはユーザの瞳孔間距離が、ユーザの皮膚までの本デバイスのカメラの距離を検出するために使用されることができる。
ステップ352では、本デバイス上のソフトウェアは、ユーザに、カメラを物体(例えば、手首、顔、頬、前額、または他の皮膚領域)に向けるように、および物体をある位置に保持し、ディスプレイ上の輪郭に合致させるように、指図する。ステップ354では、ソフトウェアは、較正ステップ310からロックされた設定を維持または再作成する。ソフトウェアは、手首または他の物体の捕捉画像を相互作用的に示すことができ、見出された手首の幅を強調する(ステップ356)。ソフトウェアはさらに、積分かつ測定される物体の表面積の輪郭(すなわち、見本)を示すことができる(ステップ358)。ステップ360では、ソフトウェアは、見本の中で見出された色を積分し、見出された色をユーザに相互作用的に示すことができる。
ソフトウェアは、マーカーを検出し、ユーザのために相互作用的に手首の位置を強調する、またはその輪郭を描くことができ(ステップ362)、また、較正距離を合致させるために、手首の標的位置を相互作用的に強調する、またはその輪郭を描くことができる(ステップ364)。ソフトウェアはさらに、ユーザに、強調されたマーカーを較正標的と合致させるように相互作用的に指図することができる(ステップ366)。ユーザが、手首を手首の標的と合致させるように本デバイスを位置付けるとき、ソフトウェアは、手首の生色値として見本の積分された色を記録することができる(ステップ368)。ステップ370では、ソフトウェアは、既知の技術を使用し、見出されたホワイトバランスおよび本デバイスの特徴に関する記憶されたデータを適用させ、見出された手首の生色値を物体の表面反射率に転換することができる。
ここで図3Aに戻り、ステップ370を参照すると、物体の表面色の変動は、物体の全体の反射率が把握され、本デバイスが較正されていて、物体の色の一部が把握されるとき、測定されることができる。例えば、人の内側かつ外側の手首の色が把握され、人の前額の色が瞳孔間距離を使用して検出される場合、皮膚の色合いの変動は、積分された反射率が既知の値に合致するように、本デバイスを位置付けることによって測定されることができる。
(顔領域検出)
一実装では、本システムは、ユーザのためにカスタム外用剤を調合するステップの一部として、ユーザの顔またはユーザの顔の一部を含有する画像に、処理を実施する。図4Aに示されるように、顔領域検出が、画像に実施され(ステップ400)、較正された色および反射率情報が、提供される(ステップ420)。色区画化(ステップ440)、顔領域色割当(ステップ460)、および最終顔領域色較正(ステップ480)もまた、下記にさらに説明されるように、実施されることができる。
いくつかの実装では、いったん画像がOAPTAデータ収集サービスによって受信されると、較正された色および反射率情報を提供するために処理される。較正プロセスを補助するために、顔領域検出プロセス(ステップ400)が、使用されることができる。例えば、オープンソースおよび他の技術が、デジタル写真における顔、目、口、および鼻の位置を検出するために存在する。参照のために、Haar Cascade Classifierが、顔の特徴を検出するために構築された訓練セットと併用されることができる。この機能性を提供するために使用され得る、1つのソフトウェアパッケージおよび関連付けられた訓練セットが、OpenCV(opencv.org)において見出される。
上記に説明されるもの等の好適な手順によって決定された顔の特徴の位置を使用して、既存のオープンソースおよび他の技術が、デジタル写真における別々の顔の特徴の位置を検出するために使用されることができる。参照のために、大規模な訓練セットとともに開発された動的形状モデルが、使用されることができる。この機能性を証明するために使用され得る、1つのソフトウェアパッケージおよび関連付けられたデータは、stasm libraryである。
したがって、上記に決定される別々の顔の特徴点は、多角形領域のセットに組み立てられることができる。一実装では、顔は、77つの認識される特徴点を含むが、任意の好適な数の特徴点および領域が、使用されることができる。認識される領域は、限定ではないが、
・顔(全ての領域を含む)
・前額
・右頬
・左頬
・鼻
・鼻梁
・口(両方の唇を含む)
・顎
・右眉
・左眉
・右目
・左目
・上唇
・下唇
を含むことができる。
(色較正)
図4Bは、さらに詳細に、ステップ420、すなわち、捕捉画像を使用して、較正された色および反射率情報を提供するための方法の一実装を描写する。ステップ422では、画像は、較正であり、マーカーは、使用される場合、認識かつマスクされる。画像は、YUV色空間に変換され(ステップ424)、UV画像成分の2Dヒストグラムが、構築される(ステップ426)。続くステップ428では、2D区画化が、ハイライト、体色、およびスポット色を表す色のセットを見出すために、UVヒストグラムに実施される。Y画像成分の輝度ヒストグラムが、構築され(ステップ430)、1D区画化が、体色の反射率、ハイライト反射の振幅(光沢度)、および影輝度を表す輝度セットを見出すために、輝度ヒストグラムに実施される(ステップ432)。次いで、ステップ434では、較正されたn次元ベクトルが、組み合わせられたUVおよび輝度セットを使用して、構築される。このベクトルは、以下、「n色ベクトル」と称される。留意すべきことは、n色ベクトルは、皮膚光沢度および色の変動を表すデータ(斑点)を含有することができる。
別の実装では、デジタル写真が、少なくとも部分的に、JPEG圧縮において見出されるIFDタグまたは交換可能画像ファイル形式(Exif)データ等のデジタル写真に埋め込まれたデータに基づいて、較正されることができる。写真を撮影するために使用される本デバイスの特徴は、色を事前に較正するために、使用されることができる。カメラからユーザの顔まで距離は、本明細書に説明されるもの等、顔の特徴検出によって見出される眼間距離によって決定されることができる。輝度、フラッシュ特徴等のデジタル写真に埋め込まれた撮影データは、画像の輝度を調節するために、カメラからの距離と組み合わせられることができる。さらに、周辺光情報または周辺光画像等の、撮影時に本デバイス上に常駐するソフトウェアによって送信される付加的データが、周辺光のために、正確に着色するために使用されることができる。
(色区画化)
いくつかの実装では、色区画化は、デジタル写真の処理の一部として実施される。色区画化を実施するための方法の一実装(ステップ440)が、図4Cに示される。ステップ442では、デジタル写真は、皮膚の色合いを識別するために必要とされる分解能に合致するより小さいサイズに再サンプリングされる。サイズは、主要な顔領域の寸法によって決定されることができ、例えば、サイズは、新しいサンプルの高さ=(画像高さ*128)/sqrt(画素単位における顔領域の面積)として計算されることができる。この再サンプリングされた写真は、以下、「区画化画像」と称される。
区画化画像は、例えば、RGB表現から皮膚の色合い主成分表現に皮膚色を転換する3×3マトリクス転換を使用して、色空間に変換されることができる(ステップ444)。皮膚の色合い主成分空間は、本明細書では、「STPCA」と称されるであろう。この転換は、マッチングデバイス(例えば、特定の携帯電話)を用いて、種々のユーザによって撮影されるデジタル写真から皮膚の色合いの多数のRGB色に、主成分分析を実施することによって見出されることができる。この画像は、「PCA区画化画像」と称されるであろう。主成分分析は、ベクトルのセットの次元性を低下させる周知の方法である。
PCA区画化画像の主成分チャネル(チャネル0)は、バンドパスフィルタ等の付加的フィルタを適用することによって、区画化のために準備される(ステップ446)。ステップ448では、区画化は、分岐点転換等の周知の技術を使用することによって実施されることができる。結果として生じる画像は、本明細書では、「区画化標識画像」と称される。次いで、各区画化標識画像領域内のPCA区画化画像チャネル0の最明画素が、STPCA値を各区画化標識領域に割り当てるために使用されることができる(ステップ450)。
(顔領域色割当)
ここで図4Dを参照すると、顔領域の描写を前提として、領域のために皮膚の色合いを決定するための一実装(すなわち、ステップ460)は、以下のとおりである。ステップ462では、領域マスクが、例えば、黒色背景上の白色多角形として領域を描くことによって、顔領域のために生成される。上記に説明される色区画化プロセスによって作られる区画化標識画像は、「顔領域標識画像」を作るために、領域マスクによってマスクされる(ステップ464)。次いで、ステップ466では、顔領域標識画像内の区画化標識領域は、面積によって、かつ影および鏡面ハイライトを表すSTPCA値から標識領域の割り当てられたSTPCA値の距離を最大化することによって、グレード分けされる。次いで、最良のグレードを伴う、区画化標識領域に関するSTPCA値は、「顔領域色」として具体化される(ステップ468)。
(最終顔領域色較正および付加的データ)
最終顔領域色較正(ステップ480)が、図4Eに示されるように、以下のステップを使用して、実施されることができる。ステップ482では、目のための顔領域色が、決定され、割り当てられ、特に、目の強膜のためにグレーレベルが、決定される。ステップ484では、目領域内の鏡面反射の区画化は、フラッシュが点灯されたかどうか、および他の点の光源が存在したかどうかを決定するために使用されることができる(下記のさらなる説明参照)。鏡面反射サブ領域は、顔領域毎に検出され、「光沢度」値が、全体の領域サイズに対するそのサイズに基づいて、顔領域毎に決定される(ステップ486)。目のための光沢度計量もまた、他の領域を較正するために使用されることができる。
STPCA値、グレーレベル、および光沢度値の最終転換が、中間形態ではなく、化粧品製品を製造するために使用される物質特徴に、直接転換されることができる(ステップ488)。さらに、RGBまたはLAB色空間へのSTPCAの転換が、ユーザのための可視化のために実施されることができる。これらは、グレーレベルおよび光沢度値によって調節される元のPCAマトリクスの修正されたバージョンを使用して、実施されることができる。
上記に言及されるように、顔領域色較正は、目領域内の鏡面反射の評価に基づいて、光源(カメラフラッシュ等の既知の源以外の)の有無および色を決定するステップを伴うことができる。一実装では、このプロセスは、以下のステップを含む。
1.デジタル写真から赤色チャネルを減算するステップ
2.高周波数の比較的小さい画素数(例えば、およそ2画素)および低周波数のより大きい画素数(例えば、およそ5または6画素)のバンドパスフィルタを用いて、細部を除去するステップ
3.ヒストグラムを結果に実施し、ヒストグラムが有する、画素集合の99パーセントにおける閾値を用いて、それによって、最高輝度部の全てを決定するステップ
4.光のためのマスクを作成するために、約20画素だけ最高輝度部を拡張するステップ
5.別のバンドパスフィルタを高周波の約10画素および低周波数の約20画素において結果と生じる画像に適用し、より広い特徴を有する画像をもたらし、目の虹彩を引き出すステップを含むステップ
6.発見されたハイライトを用いて、約10画素だけ目の暗い部分を拡張し、虹彩の逆または目の暗い部分の交差点をもたらすステップ
7.最初の入力を用いて目の中の輝点(すなわち、光の反射)を閾値化するステップ
8.結果と生じる点を使用し、入力画像の元の色をマスクし、これまで未知であった光源が存在するかどうか決定するステップ
9.任意の発見された未知の光源を減算し、色較正するステップ
を含む。
(参照サービス専用ユーザデータ収集)
一般的サービスデータ収集は、参照OAPTA仕様においてOAPTA専門家群を補助する付加的データ収集によって拡張されることができる。一実装では、このデータは、
1.可視光、IR、およびUV色分光学的データ
2.双方向反射率データ
3.具体的な顔の皮膚部位の顕微鏡写真
4.Raman分光光度計、質量分光光度計、または他の器具を使用する、表皮油または残留物の分析
5.インタビューによる一般的サービスデータ収集によって提供される拡張データ
のうちの1つまたは複数のものを含む。
(参照OAPTA仕様)
OAPTA専門家群は、参照ユーザデータ収集に基づいて、ユーザのためのカスタムOAPTAを行う際、使用される成分および量を具体化することができる。仕様および参照ユーザデータは、OAPTAメタデータ230へのエントリを作成するためにコンパイルされることができる。
(参照OAPTA調合)
OAPTA専門家群は、成分を組み合わせ、OAPTA製品を作製するために使用される順序および方法を具体化する、命令のセットを提供することができる。この命令のセットは、OAPTAメタデータ230への現在のエントリに追加されることができる。
(参照OAPTA混ぜ合わせ)
一実装では、OAPTA製品は、OAPTA調合260に基づいて、手動で混ぜ合わせられる。別の実装では、調合命令および共有OAPTA成分セット210の精査が、調合命令に基づいて、OAPTA製品を自動的に混ぜ合わせるであろう、デバイスを構築するために使用される。
(参照OAPTA送達)
一実装では、OAPTA製品は、ユーザの敷地と同一の場所において混ぜ合わせられた後に、かつ本システムのユーザの使用の間、そこに送達される。別の実装では、OAPTA製品は、別の場所において混ぜ合わせられ、ユーザに発送される。
(参照OAPTA収集)
一実装では、収集は、専門家サービスを介した請求書を通して達成される。別の実装では、支払情報は、一般的サービスデータ収集の一部として収集され、支払は、OAPTA送達で収集される。
(参照OAPTAフィードバック)
一実装では、ユーザフィードバックが、OAPTA製品が送達かつ試験された後のインタビューを通して収集される。別の実装では、フィードバック情報が、一般的サービスデータ収集のために使用されるモバイルアプリケーションによって収集される。
(OAPTAメタデータ)
一実装では、OAPTAメタデータ230は、
1.共通サービスデータ
a.ユーザID
b.地理的領域
c.性別
d.生年月日
e.日付
f.組み合わせられたベクトル
i.紫外線放射暴露
ii.アレルギーベクトル
iii.n色ベクトル
2.参照具体的データ
a.皮膚色スペクトル
b.双方向反射率データ
c.具体的な顔の皮膚部位の顕微鏡写真
d.皮膚表面油指標
3.参照仕様
4.参照調合命令
5.仕様ヒントにおいて見出されるスパニング木のためのタグ
のデータフィールドのうちの1つまたは複数のものを含む。
組み合わせられたベクトルは、n空間内の点として考えられることができる。各成分の大きさが、システム全体にわたるその有意性に対して正規化される。
いくつかの実装では、参照データは、例えば、既知のOAPTAが正確に調合されことができる皮膚色、反射率、アレルギー、および/または本明細書に参照される他のデータに関する定義された値を含む、1つまたは複数のグランドトゥルースデータセットを含むことができる。言い換えれば、グランドトゥルースデータセットにおける具体的な値のセットに関して、これらの値のために最適化された事前に定義された外用剤が存在する可能性がある。事前に定義された外用剤はまた、競合他社の商業的提供物等の既存の製品に類似する、またはそれと同一である可能性がある。したがって、ユーザのために最適なOAPTAを決定するための1つのプロセスは、グランドトゥルースデータセット値を用いて、ユーザの捕捉皮膚データの相対的近接性を決定し、近接性における最も近いデータセット値を選択することであり得る。したがって、これらの最も近い値に対応するOAPTAまたは既存の製品は、ユーザのために選択された一意の化合物であることができる。
(OAPTA生産サービス)
OAPTA生産サービス240は、十分な数の記録がOAPTAメタデータ230に収集され、参照サービスOAPTA混ぜ合わせ手段が自動化された後に、構成されることができる。
(生産ユーザ識別)
OAPTA生産サービス240は、ユーザが、モバイルアプリケーションを購入し、初めてアプリケーションを起動するとき、ユーザ識別を作成し、かつそれを管理し始める。サービスは、ユーザデータを保持するためにデータストアを作成し、ユーザ識別に基づいてデータの読み出しを提供する。ユーザ識別はまた、発送および請求書の情報を含有することができる。
(生産ユーザデータ収集)
OAPTA生産サービス240は、OAPTA参照サービス220に関して前述に説明される一般的サービスデータ収集を使用することができる。所与のセッションのためのユーザの一般的サービスデータが、生産ユーザ識別を用いて記憶される。
(生産OAPTA仕様および調合)
OAPTA生産サービス240は、仕様を合成するOAPTA参照サービス220によって生成された、OAPTAメタデータ230を使用する。例えば、上記に説明されるように集められ、処理される顔の画像データに基づいて、特定のユーザの顔色は、(例えば、実際の参照ユーザ、グランドトゥルースデータセット等に基づいて)化粧品調合がすでに定義された既存の参照顔色に合致されることができる。アレルギー等のユーザに一意である特性が、特定の調合がユーザと互換性があるであろうかどうかを決定する際、検討されることができる。本システムによって導出された新しい調合が、後の使用のための参照として保存されることができる。
一実装では、OAPTA製品を処理かつ注文するために、本システムは、ユーザの生産ユーザ識別にリンクされるユーザの現在の一般的サービスデータを取得し、OAPTAメタデータ230における一般的サービスデータの組み合わせられたベクトルに対する最も近い合致を決定する。組み合わせられたベクトルと最も近い合致との間の距離があまりに離れている場合、ユーザは、参照ユーザとなるように促されることを所望するかどうかどうかクエリが行われ、現在の注文を終了することができる。
本システムは、したがって、第1の合致のスパニング木タグによってフィルタされる次の最も近い合致を特定することができ、幾何学的代数または特異値分解を使用し、超平面を説明する第3のフィルタ合致点を見出すことができる。組み合わせられたベクトルと超平面の表面との間の距離があまりに離れている場合、ユーザは、参照ユーザとなるように促されることを所望するかどうかどうかクエリが行われ、現在の注文を終了することができる。見出された参照点毎に、混合値が決定され、仕様が、最も近い合致に共通する成分毎に混合値を追加することによって構築される。最終的に、最も近い合致のOAPTAメタデータからの調合が、ユーザに適した調合として選択される。
(生産OAPTA混ぜ合わせ)
本システムは、本明細書に説明されるOAPTA参照サービス220の実装によって具体化される、自動化混ぜ合わせ方法を使用することができる。一実装では、これは、共有リソースである。別の実装では、類似する自動化機器を伴う複数の場所が存在し、ユーザの地理的場所に最も近い場所が、選ばれる。
OAPTA製品は、ユーザが、カスタム調合が決定されることを可能にする、本明細書に説明されるステップを通して進んだ後に、要求に応じて混ぜ合わせられることができる。加えて、または代替として、OAPTA製品は、調合から送達までのより高速のターンアラウンド時間を提供するために、事前に混ぜ合わせられることができる(例えば、最も一般的調合が、混ぜ合わせられ、かつ保管されることができる)。いくつかの実装では、本システムによって決定された調合は、他のベンダおよびブランドからの既存の製品にマッピングされる。例えば、調合、成分、色、および/または他の製品の他の既知の特性に基づいて、本システムは、ユーザの調合を他の製品と比較し、最も類似する、または類似度の閾値(例えば、75%、80%、90%等)を満たすものを決定することができる。一実施例として、本システムは、ユーザのファンデーションがArmaniファンデーションに88%合致し、L’Orealファンデーションに82%合致することを決定することができる。本システムはまた、ユーザのカスタム調合に加えて、またはその代替として、他の合致された製品をユーザに表示し、ユーザがそれらを購入することを可能にすることができる。
(製品OAPTA送達、収集、およびフィードバック)
OAPTA製品は、OAPTA製品が混ぜ合わせられ、および/または貯蔵され得る、自動化された混ぜ合わせられた場所、倉庫、小売店、または他の場所からユーザに発送されることができる。ユーザは、本システムに利用可能である生産ユーザ識別情報を使用して、発送に応じて、請求されることができる。一実装では、ユーザは、一般的サービスデータ収集の役割を果たすモバイルアプリケーションを使用して、フィードバックおよび他のデータを提供することが可能である。
(OAPTAシステムフィードバック)
一実装では、OAPTAシステム200は、生産OAPTAフィードバック250の精査を促進し、任意の重大なフィードバックをOAPTAメタデータ230の一般的サービスデータと組み合わせられたベクトル空間の間隙と比較するように構成される。システム200は、空間があまりにまばらである場合、解からの許容可能最大距離を調節し、生産ユーザを参照ユーザにアップグレードし、モデルの間隙を埋めることができる。
OAPTAシステム200の実装は、適切なハードウェアまたはソフトウェアを使用することができ、例えば、OAPTAシステム200は、Microsoft Windows(登録商標)オペレーティングシステム、Apple OS X(R)オペレーティングシステム、Apple iOS(R)プラットフォーム、Google AndroidTMプラットフォーム、Linux(登録商標)オペレーティングシステム、およびUNIX(登録商標)オペレーティングシステム等の他の変形例等のオペレーティングシステムを起動することが可能である、システム上で実行することができる。
説明される機能性のいくつかまたは全ては、ユーザデバイス上のソフトウェアおよび/またはハードウェアにおいて実装されることができる。ユーザデバイスは、限定ではないが、本明細書に説明される機能性を実行することができる汎用目的のコンピュータまたは特殊目的のハードウェアデバイスとして動作される、スマートフォン、スマートウォッチ、スマートグラス、タブレットコンピュータ、ポータブルコンピュータ、テレビ、ゲーム用デバイス、音楽プレーヤ、携帯電話、ラップトップ、小型電卓、スマートまたはダム端末、ネットワークコンピュータ、携帯情報端末、ワイヤレスデバイス、情報機器、ワークステーション、ミニコンピュータ、メインフレームコンピュータ、あるいは他のコンピューティングデバイスを含むことができる。例えば、ソフトウェアは、処理ユニット、システムメモリ、およびシステムメモリを処理ユニットに含む種々のシステム構成要素を結合するシステムバスを含む、コンピュータの形態において汎用目的のコンピューティングデバイス上に実装されることができる。
加えて、または代替として、機能性のいくつかまたは全ては、遠隔で、クラウドにおいて、またはサービス型ソフトウェアを介して、実施されることができる。例えば、マッチング機能は、上記に説明されるように、ユーザデバイスと通信する、1つまたは複数の遠隔サーバあるいは他のデバイス上に実施されることができる。遠隔機能性は、十分なメモリ、データストレージ、および処理能力を有し、サーバクラスオペレーティングシステム(例えば、オペレーティングシステムのOracle(R)Solaris(R)、GNU/Linux(登録商標)、およびMicrosoft(R)Windows(登録商標)family)を起動する、サーバクラスコンピュータ上で実行することができる。
本システムは、メモリ内に記憶され、プロセッサ上に実行される、複数のソフトウェア処理モジュールを含むことができる。例証として、プログラムモジュールは、プロセッサまたは複数のプロセッサが命令を実行することを可能にするために、機械語またはオブジェクトコードに変換される、1つまたは複数の好適なプログラミング言語の形態であることができる。ソフトウェアは、好適なプログラミング言語またはフレームワークにおいて実装される、独立型アプリケーションの形態であることができる。
本明細書に説明される技術の方法ステップは、入力データに作用し、出力を生成することによって機能を実施するために、1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラマブルプロセッサによって実施されることができる。方法ステップはまた、特殊目的の論理回路、例えば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途集積回路)によって実施されることができ、装置が、それとして実装されることができる。モジュールは、その機能性を実装するコンピュータプログラムおよび/またはプロセッサ/特殊回路の部分を指すことができる。
コンピュータプログラムの実行のために好適なプロセッサは、実施例として、汎用および特殊目的のマイクロプロセッサの両方を含む。概して、プロセッサは、読取専用メモリまたはランダムアクセスメモリあるいはそれら両方から命令およびデータを受信するであろう。コンピュータの不可欠要素は、命令を実行するためのプロセッサと、命令およびデータを記憶するための1つまたは複数のメモリデバイスとである。コンピュータプログラム命令およびデータを具現化するために好適である情報担体は、例示的半導体メモリデバイスとして、例えば、EPROM、EEPROM、およびフラッシュメモリデバイス、磁気ディスク(例えば、内蔵ハードディスクまたはリムーバルディスク)、光磁気ディスク、ならびにCD−ROMおよびDVD−ROMディスクを含む、不揮発性メモリの全ての形態を含む。1つまたは複数のメモリは、メディアアセット(例えば、オーディオ、ビデオ、グラフィックス、インターフェース要素、および/または他のメディアファイル)、構成ファイル、ならびに/またはプロセッサによって実行されるとき、モジュール、エンジン、および本明細書に説明される他の構成要素を形成し、その構成要素と関連付けられる機能性を実施する、命令を記憶することができる。プロセッサおよびメモリは、特殊目的の論理回路によって補完され、またはそれに組み込まれることができる。
種々の実装では、ユーザデバイスは、本明細書に説明される機能性の実行を促進する、ウェブブラウザ、ネイティブアプリケーション、またはそれら両方を含む。ウェブブラウザは、本デバイスが、ウェブページ要求とともに、(例えば、サーバから)ウェブページまたはダウンロード可能プログラム、アプレット、あるいはドキュメントを要求することを可能にする。ウェブページの一実施例は、表示、実行、再生、処理、ストリーミング、および/または記憶されることができ、かつ他のウェブページへのリンクまたはポインタを含有することができる、コンピュータ実行可能または解釈可能情報、グラフィックス、サウンド、テキスト、および/あるいはビデオを含む、データファイルである。一実装では、本デバイスのユーザは、サーバからウェブページを手動で要求する。代替として、本デバイスは、ウェブブラウザを用いて自動的に要求を行う。商業的に利用可能であるウェブブラウザソフトウェアの実施例は、Microsoft(R)Internet Explorer(R)、Mozilla(R)Firefox(R)、およびApple(R)Safari(R)を含む。
いくつかの実装では、ユーザデバイスは、クライアントソフトウェアを含む。クライアントソフトウェアは、機能性を本明細書に説明される特徴の実装および実行を提供する本デバイスに提供する。クライアントソフトウェアは、種々の形態で実装されることができ、例えば、ネイティブアプリケーション、ウェブページ、ウィジェット、および/またはJava(登録商標)、JavaScript(登録商標)、.Net、Silverlight、Flash、ならびに/あるいは本デバイスにダウンロードされ、ウェブブラウザと併せて実行する、他のアプレットまたはプラグインの形態であることができる。クライアントソフトウェアおよびウェブブラウザは、単一のクライアントサーバインターフェースの一部であることができ、例えば、クライアントソフトウェアは、ウェブブラウザあるいは別のフレームワークまたはオペレーティングシステムへのプラグインとして実装されることができる。限定ではないが、ウィジェットフレームワークおよびアプレット技術を含む、他の好適なクライアントソフトウェアアーキテクチャもまた、クライアントソフトウェアとともに採用されることができる。
通信ネットワークが、デバイスを1つまたは複数のサーバと、および/または相互に接続することができる。通信は、例えば、標準的電話線、LAN、またはWANリンク(例えば、T1、T3、56kb、X.25)、ブロードバンド接続(ISDN、フレームリレー、ATM)、ワイヤレスリンク(802.11(Wi−Fi)、Bluetooth(登録商標)、GSM(登録商標)、CDMA等)等の媒体を経由して行うことができる。他の通信媒体も、可能である。ネットワークは、TCP/IPプロトコル通信およびウェブブラウザによって行われるHTTP/HTTPS要求を搬送することができ、クライアントとサーバとの間の接続は、そのようなTCP/IPネットワークを経由して通信されることができる。他の通信プロトコルも、可能である。
本システムはまた、タスクが通信ネットワークを通してリンクされる遠隔処理デバイスによって実施される、分散型コンピューティング環境において実践されることができる。分散型コンピューティング環境では、プログラムモジュールは、メモリストレージデバイスを含むローカルと遠隔コンピュータストレージ媒体との両方に位置することができる。本明細書に説明されるもの以外のタイプのシステムハードウェアおよびソフトウェアもまた、本デバイスの容量およびデータ処理能力の要求の量に応じて、使用されることができる。本システムはまた、上記に言及されるもの等のバーチャルオペレーティングシステムを実行する1つまたは複数のバーチャルマシーン上に実装され、本明細書に説明されるもの等のハードウェアを有する1つまたは複数のコンピュータ上で動作することができる。
ある場合には、関係または他の構造データベースは、例えば、処理をするためのデータを記憶するデータベース管理システムとして、そのような機能性を提供することができる。データベースの実施例は、ORACLE Corp.(Redwood Shores,California)によってもたらされるMySQLデータベースサーバまたはOracleデータベースサーバ、PostgreSQL Global Development Group(Berkeley,California)によるPostgreSQLデータベースサーバ、あるいはIBMによってもたらされるDB2データベースサーバを含む。
また、本システムおよび方法の実装は、1つまたは複数の製造品上またはその中に具現化される1つまたは複数のコンピュータ可読プログラムとして提供され得ることに留意されたい。プログラム命令は、人工的に生成された伝搬信号、例えば、データ処理装置による実行のために、伝送のための情報を好適な受信機装置にエンコードするために生成される、機械的に生成された電気、光学、または電磁気信号上にエンコードされることができる。コンピュータストレージ媒体は、コンピュータ可読ストレージデバイス、コンピュータ可読ストレージ基板、ランダムまたはシリアルアクセスメモリアレイまたはデバイス、あるいはそれらのうちの1つまたは複数のものの組み合わせである、またはそれらの中に含まれることができる。さらに、コンピュータストレージ媒体は、伝搬信号ではないが、コンピュータストレージ媒体は、人工的に生成された伝搬信号内にエンコードされるコンピュータプログラム命令のソースまたはリンク先であることができる。コンピュータストレージ媒体はまた、1つまたは複数の別個の物理的な構成要素あるいは媒体(例えば、複数のCD、ディスク、または他のストレージデバイス)である、またはその中に含まれることができる。
本発明のある実装が、上記に説明された。しかしながら、本発明は、これらの実装に限定されず、本明細書に明示的に説明されたものへの追加および修正もまた本発明の範囲内に含まれることが意図されることを明示的に留意されたい。さらに、本発明の精神および範囲から逸脱することなく、そのような組み合わせまたは順列が本明細書において明示的に行われなかった場合でも、本明細書に説明される種々の実装の特徴が、相互に排他的ではなかった、種々の組み合わせおよび順列において存在することができることを理解されたい。実際に、本明細書に説明されたものの変形例、修正、および他の実装が、本発明の精神および範囲から逸脱することなく、当業者に想起されるであろう。したがって、本発明は、前述の例証的説明によってのみ定義されない。

Claims (74)

  1. カスタム化粧品調合を決定する方法であって、前記方法は、
    既知の光および色特性を用いて、皮膚領域の画像を捕捉するようにユーザを誘導することと、
    較正された皮膚色情報を提供するように前記画像を処理することと、
    前記較正された皮膚色情報に基づいて、前記ユーザのためにカスタム化粧品調合を自動的に決定することと
    を含む、方法。
  2. 前記皮膚領域画像は、画像センサを含むデバイスから受信される、請求項1に記載の方法。
  3. 前記デバイスの画像センサを使用して、複数の皮膚領域画像の捕捉を通じて前記ユーザを相互作用的に誘導することをさらに含む、請求項2に記載の方法。
  4. 前記デバイスの画像センサを使用して、マーカーの画像の捕捉を通じて前記ユーザを相互作用的に誘導することをさらに含み、前記皮膚領域画像は、前記捕捉されたマーカー画像に少なくとも部分的に基づいて、処理される、請求項2に記載の方法。
  5. 前記デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、およびゲーム機から成る群から選択される、請求項2に記載の方法。
  6. 前記皮膚領域画像は、前記デバイスおよび前記画像センサのうちの少なくとも1つの特性を識別する埋め込み型データを含み、さらに、前記皮膚領域画像は、前記埋め込み型データに少なくとも部分的に基づいて、処理される、請求項2に記載の方法。
  7. 前記カスタム化粧品調合を自動的に決定することは、前記較正された皮膚色情報を参照ユーザに合致させることを含み、前記参照ユーザは、前記参照ユーザと関連付けられた事前に決定された化粧品調合を有する、請求項1に記載の方法。
  8. 前記カスタム化粧品調合の自動決定は、化粧品成分に対するアレルギーのユーザによる指示に少なくとも部分的に基づく、請求項1に記載の方法。
  9. 前記カスタム化粧品調合に基づいて、外用剤を混ぜ合わせることをさらに含む、請求項1に記載の方法。
  10. 前記外用剤を前記ユーザに送達することをさらに含む、請求項9に記載の方法。
  11. 前記ユーザが前記カスタム化粧品調合に基づいて混ぜ合わせられた外用剤を購入することを可能にすることをさらに含む、請求項1に記載の方法。
  12. 前記皮膚領域は、前記ユーザの顔領域を含む、請求項1に記載の方法。
  13. カスタム化粧品調合を決定するためのシステムであって、前記システムは、
    コンピュータ実行可能命令を記憶するためのメモリと、前記メモリ内に記憶された前記命令を実行するための処理ユニットとを備える少なくとも1つのコンピュータを備え、前記命令の実行は、
    既知の光および色特性を用いて、皮膚領域の画像を捕捉するようにユーザを誘導することと、
    較正された皮膚色情報を提供するように前記画像を処理することと、
    前記較正された皮膚色情報に基づいて、前記ユーザのためにカスタム化粧品調合を自動的に決定することと
    を含む動作を実施するように前記コンピュータを構成する、システム。
  14. 前記皮膚領域画像は、画像センサを備えるデバイスから受信される、請求項13に記載のシステム。
  15. 前記動作はさらに、前記デバイスの画像センサを使用して、複数の皮膚領域画像の捕捉を通じて前記ユーザを相互作用的に誘導することを含む、請求項14に記載のシステム。
  16. 前記動作はさらに、前記デバイスの画像センサを使用して、マーカーの画像の捕捉を通じて前記ユーザを相互作用的に誘導することを含み、さらに、前記皮膚領域画像は、前記捕捉されたマーカー画像に少なくとも部分的に基づいて、処理される、請求項14に記載のシステム。
  17. 前記デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、およびゲーム機から成る群から選択される、請求項14に記載のシステム。
  18. 前記皮膚領域画像は、前記デバイスおよび前記画像センサのうちの少なくとも1つの特性を識別する埋め込み型データを備え、さらに、前記皮膚領域画像は、前記埋め込み型データに少なくとも部分的に基づいて、処理される、請求項14に記載のシステム。
  19. 前記カスタム化粧品調合を自動的に決定することは、前記較正された皮膚色情報を参照ユーザに合致させることを含み、前記参照ユーザは、前記参照ユーザと関連付けられた事前に決定された化粧品調合を有する、請求項13に記載のシステム。
  20. 前記カスタム化粧品調合の自動決定は、化粧品成分に対するアレルギーのユーザによる指示に少なくとも部分的に基づく、請求項13に記載のシステム。
  21. 前記動作はさらに、前記ユーザが前記カスタム化粧品調合に基づいて混ぜ合わせられた外用剤を購入することを可能にすることを含む、請求項13に記載のシステム。
  22. 前記皮膚領域は、前記ユーザの顔領域を備える、請求項13に記載のシステム。
  23. カスタム化粧品調合を決定する方法であって、前記方法は、
    画像センサを有するデバイスを使用して、1つまたは複数の画像の捕捉を通じてユーザを相互作用的に誘導することであって、各画像は、前記ユーザの皮膚領域を含む、ことと、
    較正された皮膚色情報を提供するように前記皮膚領域画像を処理することと、
    前記較正された皮膚色情報をグランドトゥルースデータセットと比較することにより、前記グランドトゥルースデータセットにおける最も近い既知の値のセットを識別することと、
    前記比較に基づいて、前記ユーザのためにカスタム化粧品調合を自動的に決定することであって、前記カスタム化粧品調合は、
    (i)前記最も近い既知の値のセットに対する、較正された皮膚色情報の相対的近接性に基づいて導出される一意の化合物と、
    (ii)既存の化粧品製品と
    のうちの少なくとも1つを含む、ことと
    を含む、方法。
  24. 前記皮膚領域画像を処理することは、前記皮膚領域画像のうちの少なくとも1つに対して、
    前記少なくとも1つの皮膚領域画像内の複数の顔領域を検出することと、
    皮膚の色合いに基づいて、前記顔領域を区画化することと、
    皮膚の色合い、影、および鏡面ハイライトのうちの少なくとも1つに基づいて、色を各顔領域区画に割り当てることと
    を含む、請求項23に記載の方法。
  25. 前記皮膚領域画像のうちの少なくとも1つと関連付けられる周辺光情報を受信することをさらに含み、前記少なくとも1つの皮膚領域画像は、前記周辺光情報に少なくとも部分的に基づいて、処理される、請求項23に記載の方法。
  26. 前記デバイスの画像センサを使用して、マーカーの画像の捕捉を通じて前記ユーザを相互作用的に誘導することをさらに備え、前記皮膚領域画像は、前記マーカー画像に少なくとも部分的に基づいて、処理される、請求項23に記載の方法。
  27. 前記マーカー画像の捕捉の成功に基づいて、前記デバイスの画像センサの現在の設定を記憶することをさらに含む、請求項26に記載の方法。
  28. 前記デバイスの画像センサ設定は、露光、集点、およびホワイトバランスのうちの少なくとも1つを含む、請求項27に記載の方法。
  29. 前記皮膚領域画像は、前記記憶された画像センサ設定に基づいて、処理される、請求項27に記載の方法。
  30. 前記皮膚領域画像を処理することは、未知の光源を補償することを含む、請求項23に記載の方法。
  31. 前記皮膚領域は、手首、前額、左頬、右頬、および顔全体から成る群から選択される、請求項23に記載の方法。
  32. 前記ユーザが前記既存の化粧品製品を購入することを可能にすることをさらに含む、請求項23に記載の方法。
  33. 前記デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、およびゲーム機から成る群から選択される、請求項23に記載の方法。
  34. カスタム化粧品調合を決定するためのシステムであって、前記システムは、
    コンピュータ実行可能命令を記憶するためのメモリと、前記メモリ内に記憶された前記命令を実行するための処理ユニットとを備える少なくとも1つのコンピュータを備え、前記命令の実行は、
    画像センサを有するデバイスを使用して、1つまたは複数の画像の捕捉を通じてユーザを相互作用的に誘導することであって、各画像は、前記ユーザの皮膚領域を含む、ことと、
    較正された皮膚色情報を提供するように前記皮膚領域画像を処理することと、
    前記較正された皮膚色情報をグランドトゥルースデータセットと比較することにより、前記グランドトゥルースデータセットにおける最も近い既知の値のセットを識別することと、
    前記比較に基づいて、前記ユーザのためにカスタム化粧品調合を自動的に決定することであって、前記カスタム化粧品調合は、
    (i)前記最も近い既知の値のセットに対する、較正された皮膚色情報の相対的近接性に基づいて導出される一意の化合物と、
    (ii)既存の化粧品製品と
    のうちの少なくとも1つを備える、ことと
    を含む動作を実施するように前記コンピュータを構成する、システム。
  35. 前記皮膚領域画像を処理することは、前記皮膚領域画像のうちの少なくとも1つに対して、
    前記少なくとも1つの皮膚領域画像内の複数の顔領域を検出することと、
    皮膚の色合いに基づいて、前記顔領域を区画化することと、
    皮膚の色合い、影、および鏡面ハイライトのうちの少なくとも1つに基づいて、色を各顔領域区画に割り当てることと
    を含む、請求項34に記載のシステム。
  36. 前記動作はさらに、前記皮膚領域画像のうちの少なくとも1つと関連付けられる周辺光情報を受信することを含み、さらに、前記少なくとも1つの皮膚領域画像は、前記周辺光情報に少なくとも部分的に基づいて、処理される、請求項34に記載のシステム。
  37. 前記動作はさらに、前記デバイスの画像センサを使用して、マーカーの画像の捕捉を通じて前記ユーザを相互作用的に誘導することを含み、前記皮膚領域画像は、前記マーカー画像に少なくとも部分的に基づいて、処理される、請求項34に記載のシステム。
  38. 前記動作はさらに、前記マーカー画像の捕捉の成功に基づいて、前記デバイスの画像センサの現在の設定を記憶することを含む、請求項37に記載のシステム。
  39. 前記デバイスの画像センサ設定は、露光、集点、およびホワイトバランスのうちの少なくとも1つを含む、請求項38に記載のシステム。
  40. 前記皮膚領域画像は、前記記憶された画像センサ設定に基づいて、処理される、請求項38に記載のシステム。
  41. 前記皮膚領域画像を処理することは、未知の光源を補償することを含む、請求項34に記載のシステム。
  42. 前記皮膚領域は、手首、前額、左頬、右頬、および顔全体から成る群から選択される、請求項34に記載のシステム。
  43. 前記動作はさらに、前記ユーザが前記既存の化粧品製品を購入することを可能にすることを含む、請求項34に記載のシステム。
  44. 前記デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、およびゲーム機から成る群から選択される、請求項34に記載のシステム。
  45. 画像センサを有するデバイスを使用して、物体の正確な色を捕捉する方法であって、前記方法は、
    既知のサイズを有するマーカーを使用して、前記デバイスの複数の設定を較正することと、
    前記物体の複数の表面のそれぞれの色を測定することと、
    前記測定された色に基づいて、前記物体の表面反射率を決定することと、
    前記較正された設定、前記測定された表面色、および前記物体の表面反射率に基づいて、前記物体の表面色の変動を決定することと
    を含む、方法。
  46. 前記複数の表面は、皮膚の領域を含む、請求項45に記載の方法。
  47. 前記デバイスは、携帯電話、タブレット、デジタルカメラ、ウェブカメラ、スマートグラス、テレビ、およびゲーム機から成る群から選択される、請求項45に記載の方法。
  48. 前記マーカーは、既知の反射率を備える、請求項45に記載の方法。
  49. 前記デバイスを較正することは、ユーザに、前記マーカーを実質的白地上に配置するように指図することを含む、請求項45に記載の方法。
  50. 前記デバイスを較正することは、前記実質的白地の捕捉画像に基づいて、前記デバイスの開口、感度、露光時間、およびホワイトバランスのうちの少なくとも1つを設定することを含む、請求項49に記載の方法。
  51. 前記デバイスを較正することは、前記デバイスの画像センサと関連付けられる光を既知の輝度に設定することを含む、請求項45に記載の方法。
  52. 前記デバイスを較正することは、前記マーカーの表面から特定の距離に前記デバイスの画像センサを位置付けるようにユーザを相互作用的に誘導することを含む、請求項45に記載の方法。
  53. 前記デバイスを較正することは、前記マーカーの表面から前記特定の距離における前記デバイスの画像センサの位置付けに応じて、前記デバイスの設定のうちの少なくとも1つをロックすることを含む、請求項52に記載の方法。
  54. 前記デバイスの設定は、自動露光、自動集点、および自動ホワイトバランスから成る群から選択される、請求項53に記載の方法。
  55. 前記デバイスの前記ロックされた設定は、前記物体の表面のそれぞれの色を測定する間、適用される、請求項53に記載の方法。
  56. 前記物体の表面の色を測定することは、ユーザに、前記物体の表面に近接して前記マーカーを配置するように指図することを含む、請求項45に記載の方法。
  57. 前記物体の表面の色を測定することは、ユーザを相互作用的に誘導し、前記デバイスの画像センサおよび前記物体を相互に対して位置付け、較正標的に合致させることを含む、請求項45に記載の方法。
  58. 前記相互作用誘導は、音声指図を含む、請求項57に記載の方法。
  59. 前記物体の表面の色を測定することは、前記マーカーから特定の距離における前記デバイスの画像センサの位置付けに応じて、前記物体の表面の色を捕捉することを含む、請求項45に記載の方法。
  60. 前記物体の表面反射率を決定することは、前記捕捉された色を前記物体の表面反射率に転換することを含む、請求項59に記載の方法。
  61. 物体の正確な色を捕捉するためのシステムであって、前記システムは、
    コンピュータ実行可能命令を記憶するためのメモリと、前記メモリ内に記憶された前記命令を実行するための処理ユニットとを備える少なくとも1つのコンピュータを備え、前記命令の実行は、
    既知のサイズを有するマーカーを使用して、デバイスの複数の設定を較正することであって、前記デバイスは、画像センサを有する、ことと、
    前記物体の複数の表面のそれぞれの色を測定することと、
    前記測定された色に基づいて、前記物体の表面反射率を決定することと、
    前記較正された設定、前記測定された表面色、および前記物体の表面反射率に基づいて、前記物体の表面色の変動を決定することと
    を含む動作を実施するように前記コンピュータを構成する、システム。
  62. 前記複数の表面は、皮膚の領域を含む、請求項61に記載のシステム。
  63. 前記マーカーは、既知の反射率を備える、請求項61に記載のシステム。
  64. 前記デバイスを較正することは、ユーザに、前記マーカーを実質的白地上に配置するように指図することを含む、請求項61に記載のシステム。
  65. 前記デバイスを較正することは、前記実質的白地の捕捉画像に基づいて、前記デバイスの開口、感度、露光時間、およびホワイトバランスのうちの少なくとも1つを設定することを含む、請求項64に記載のシステム。
  66. 前記デバイスを較正することは、前記デバイスの画像センサと関連付けられる光を既知の輝度に設定することを含む、請求項61に記載のシステム。
  67. 前記デバイスを較正することは、前記マーカーの表面から特定の距離に前記デバイスの画像センサを位置付けるようにユーザを相互作用的に誘導することを含む、請求項61に記載のシステム。
  68. 前記デバイスを較正することは、前記マーカーの表面から前記特定の距離における前記デバイスの画像センサの位置付けに応じて、前記デバイスの設定のうちの少なくとも1つをロックすることを含む、請求項67に記載のシステム。
  69. 前記デバイスの設定は、自動露光、自動集点、および自動ホワイトバランスから成る群から選択される、請求項68に記載のシステム。
  70. 前記デバイスの前記ロックされた設定は、前記物体の表面のそれぞれの色を測定する間、適用される、請求項68に記載のシステム。
  71. 前記物体の表面の色を測定することは、ユーザに、前記物体の表面に近接して前記マーカーを配置するように指図することを含む、請求項61に記載のシステム。
  72. 前記物体の表面の色を測定することは、ユーザを相互作用的に誘導し、前記デバイスの画像センサおよび前記物体を相互に対して位置付け、較正標的に合致させることを含む、請求項61に記載のシステム。
  73. 前記物体の表面の色を測定することは、前記マーカーから特定の距離における前記デバイスの画像センサの位置付けに応じて、前記物体の表面の色を捕捉することを含む、請求項61に記載のシステム。
  74. 前記物体の表面反射率を決定することは、前記捕捉された色を前記物体の表面反射率に転換することを含む、請求項73に記載のシステム。
JP2016502845A 2013-03-15 2014-03-14 カスタム外用剤を具体化および調合するためのシステムおよび方法 Active JP6960734B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361788619P 2013-03-15 2013-03-15
US61/788,619 2013-03-15
US201361866245P 2013-08-15 2013-08-15
US61/866,245 2013-08-15
PCT/US2014/028611 WO2014144275A2 (en) 2013-03-15 2014-03-14 Systems and methods for specifying and formulating customized topical agents

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018163463A Division JP7108501B2 (ja) 2013-03-15 2018-08-31 カスタム外用剤を具体化および調合するためのシステムおよび方法

Publications (3)

Publication Number Publication Date
JP2016523574A true JP2016523574A (ja) 2016-08-12
JP2016523574A5 JP2016523574A5 (ja) 2017-04-20
JP6960734B2 JP6960734B2 (ja) 2021-11-05

Family

ID=50732287

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016502845A Active JP6960734B2 (ja) 2013-03-15 2014-03-14 カスタム外用剤を具体化および調合するためのシステムおよび方法
JP2018163463A Active JP7108501B2 (ja) 2013-03-15 2018-08-31 カスタム外用剤を具体化および調合するためのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018163463A Active JP7108501B2 (ja) 2013-03-15 2018-08-31 カスタム外用剤を具体化および調合するためのシステムおよび方法

Country Status (5)

Country Link
US (5) US8933994B2 (ja)
EP (1) EP2972155B1 (ja)
JP (2) JP6960734B2 (ja)
CN (2) CN109527779A (ja)
WO (1) WO2014144275A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020500611A (ja) * 2016-12-01 2020-01-16 エルジー ハウスホールド アンド ヘルスケア リミテッド カスタマイズ化粧品提供システム及びその動作方法
JP2020511444A (ja) * 2017-03-07 2020-04-16 シセイドウ アメリカズ コーポレイション カスタム局所薬剤を調整するためのシステムおよび方法
CN111989554A (zh) * 2018-03-28 2020-11-24 皇家飞利浦有限公司 在非受控环境中评估牙齿色调的方法和系统
JP7418633B2 (ja) 2016-04-22 2024-01-19 フィットスキン インコーポレイテッド 電子装置を用いた皮膚分析のためのシステムおよび方法

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8933994B2 (en) 2013-03-15 2015-01-13 Skin Republic, Inc. Systems and methods for specifying and formulating customized topical agents
US20160100789A1 (en) * 2014-10-13 2016-04-14 National Central University Computer-aided diagnosis system and computer-aided diagnosis method
US10219737B2 (en) 2014-12-11 2019-03-05 Skin Depth Inc. Topical product dispensing tool
FR3046360B1 (fr) * 2016-01-05 2018-02-16 Ac&B Procede et dispositif avec interface pour la fabrication d'un produit personnalise
AU2017217455C1 (en) 2016-02-08 2019-01-17 Sephora USA Inc. Apparatus and method for formulation and dispensing of visually customized cosmetics
CN106530361A (zh) * 2016-11-16 2017-03-22 上海市东方医院 彩色人脸图像的颜色校正方法
JP6720845B2 (ja) * 2016-12-02 2020-07-08 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP7161473B2 (ja) 2016-12-02 2022-10-26 株式会社 資生堂 カスタマイズされた局所用剤を製造するためのシステム、方法および装置
DE102016225656A1 (de) * 2016-12-20 2018-06-21 Henkel Ag & Co. Kgaa Kamera zur Haaranalyse mit Kalibiervorrichtung
GB201702008D0 (en) 2017-02-07 2017-03-22 Anthropics Tech Ltd A method of matching colours
KR102297301B1 (ko) * 2017-05-31 2021-09-06 더 프록터 앤드 갬블 캄파니 겉보기 피부 나이를 결정하기 위한 시스템 및 방법
CN111066060A (zh) 2017-07-13 2020-04-24 资生堂美洲公司 虚拟面部化妆去除和模拟、快速面部检测和地标跟踪
CN107248108A (zh) * 2017-07-14 2017-10-13 美酷伟业网络科技成都有限公司 一种o2o的连锁电子商务系统
US10627342B2 (en) * 2017-07-21 2020-04-21 Wisys Technology Foundation, Inc. Colorimeter attachment for smart phone
WO2019023225A1 (en) 2017-07-25 2019-01-31 Blee. Llc SYSTEM AND DEVICE FOR CUSTOMIZING COSMETIC PRODUCTS
CN109508587A (zh) * 2017-09-15 2019-03-22 丽宝大数据股份有限公司 身体信息分析装置及其底妆分析方法
CN108230331A (zh) * 2017-09-30 2018-06-29 深圳市商汤科技有限公司 图像处理方法和装置、电子设备、计算机存储介质
CN108308833A (zh) * 2018-01-29 2018-07-24 上海康斐信息技术有限公司 一种智能卸妆仪的卸妆检测方法及系统
WO2019148116A1 (en) * 2018-01-29 2019-08-01 Atolla Skin Health, Inc. Systems and methods for formulating personalized skincare products
CN108460716B (zh) * 2018-01-30 2022-05-10 大连工业大学 专色印刷图像数字水印方法及系统
US10719729B2 (en) 2018-06-06 2020-07-21 Perfect Corp. Systems and methods for generating skin tone profiles
CN110570476A (zh) * 2018-06-06 2019-12-13 英属开曼群岛商玩美股份有限公司 执行于计算设备的系统、方法及存储媒体
US10575623B2 (en) 2018-06-29 2020-03-03 Sephora USA, Inc. Color capture system and device
JP7453956B2 (ja) * 2018-07-13 2024-03-21 株式会社 資生堂 カスタム外用薬を調整するためのシステムおよび方法
US10715774B2 (en) 2018-07-23 2020-07-14 Microsoft Technology Licensing, Llc Color conversion for ambient-adaptive digital content
EP3905920B1 (en) 2019-01-03 2022-11-02 The Procter & Gamble Company Personalized skin care system
CN113557716B (zh) * 2019-03-13 2023-11-10 莱雅公司 用于将包括毛发颜色变化的数字内容投影到用户的头部,面部或身体上的系统,设备和方法
CN114174783A (zh) * 2019-04-09 2022-03-11 资生堂株式会社 用于创建具有改进的图像捕获的局部制剂的系统和方法
US11348334B1 (en) 2019-06-30 2022-05-31 George Douglas MacEwen Methods and systems for skin color matching using an imaging device and a controlled light source
US11250632B2 (en) * 2019-11-22 2022-02-15 Google Llc High quality AR cosmetics simulation via image filtering techniques
DE102020203189A1 (de) 2020-03-12 2021-09-16 Beiersdorf Aktiengesellschaft Verfahren zur Produktempfehlung
GB2614152A (en) 2020-08-19 2023-06-28 Blee Llc System and device for customization of cosmetics
CN113655734A (zh) * 2021-08-17 2021-11-16 广州美思生物技术有限公司 基于定制控制设备的生活用品的定制控制方法及装置
TWI786956B (zh) * 2021-11-22 2022-12-11 視鏡科技股份有限公司 線上眼鏡試配的處理系統與方法
WO2023121779A2 (en) * 2021-12-22 2023-06-29 Alp Stories, Inc. Rapid product formulation and efficient mass-customization
WO2023160616A1 (en) * 2022-02-25 2023-08-31 Basf Se A hydrogel composition for preparing customized mask pack
CN117064346B (zh) * 2023-10-18 2023-12-29 深圳市宗匠科技有限公司 智能皮肤护理方法、设备和介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030215471A1 (en) * 2001-01-31 2003-11-20 Wilmott James M. Surfactant free topical compositions and method for rapid preparation thereof
JP2006106951A (ja) * 2004-10-01 2006-04-20 Dainippon Printing Co Ltd 化粧品管理システム
JP2010086036A (ja) * 2008-09-29 2010-04-15 Fujifilm Corp 診断装置及び診断方法
US20110211047A1 (en) * 2009-03-27 2011-09-01 Rajeshwar Chhibber Methods and Systems for Imaging and Modeling Skin Using Polarized Lighting
JP2012128597A (ja) * 2010-12-14 2012-07-05 Canon Inc 情報処理装置、情報処理方法、およびそのプログラム
JP2012518457A (ja) * 2009-02-23 2012-08-16 ロレアル 処理対象ゾーンへの画像の投射を含む化粧的な処理方法

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS539588A (en) * 1976-07-15 1978-01-28 Dainippon Screen Mfg Method of discriminating color
US5249263A (en) 1989-06-16 1993-09-28 International Business Machines Corporation Color palette display interface for a computer-based image editor
US5315508A (en) 1992-09-03 1994-05-24 Monarch Marking System Label generating and data tracking system for processing purchase orders
US5903465A (en) 1993-08-23 1999-05-11 Elizabeth Arden Company Method and apparatus for customizing cosmetic products
US5648915A (en) * 1995-11-20 1997-07-15 Triangle Research & Development Corporation Soft tissue damage assessment system
US6177093B1 (en) 1999-03-17 2001-01-23 Color Access, Inc. Method and system for color customizing cosmetic mass products
US6510366B1 (en) 1999-04-23 2003-01-21 Elizabeth Arden Company, Division Of Conopco, Inc. Apparatus and method for customizing cosmetic products
TW511040B (en) 1999-07-07 2002-11-21 Fd Man Inc Color cosmetic selection system
US6516245B1 (en) 2000-05-31 2003-02-04 The Procter & Gamble Company Method for providing personalized cosmetics
US6666216B2 (en) 2000-07-24 2003-12-23 L'oreal S.A. Device for applying a product to a surface
US10755286B2 (en) 2000-08-24 2020-08-25 Facecake Marketing Technologies, Inc. Targeted marketing system and method
US7337127B1 (en) 2000-08-24 2008-02-26 Facecake Marketing Technologies, Inc. Targeted marketing system and method
US9064344B2 (en) 2009-03-01 2015-06-23 Facecake Technologies, Inc. Image transformation systems and methods
JP2002094868A (ja) * 2000-09-20 2002-03-29 Fuji Photo Optical Co Ltd リモコン雲台システム
US20020049643A1 (en) 2000-09-27 2002-04-25 Church Diana L. On-line ingredient exchange system and method
JP2002131135A (ja) 2000-10-20 2002-05-09 Kao Corp 基準色票およびメイクシミュレーション装置
FR2817745B1 (fr) 2000-12-08 2003-03-28 Oreal Nuancier et procede de fabrication
US7324668B2 (en) 2001-10-01 2008-01-29 L'oreal S.A. Feature extraction in beauty analysis
US7634103B2 (en) 2001-10-01 2009-12-15 L'oreal S.A. Analysis using a three-dimensional facial image
US7437344B2 (en) 2001-10-01 2008-10-14 L'oreal S.A. Use of artificial intelligence in providing beauty advice
US6761697B2 (en) 2001-10-01 2004-07-13 L'oreal Sa Methods and systems for predicting and/or tracking changes in external body conditions
FR2840686B1 (fr) 2002-06-10 2008-11-14 Oreal Procede pour determiner l'aptitude a diffuser et/ou a absorber la lumiere d'un produit cosmetique
JP3954533B2 (ja) 2003-06-17 2007-08-08 株式会社モリテックス 肌観察装置
DE602005018380D1 (de) 2004-08-30 2010-01-28 Sigrid Heuer Kosmetische hautfarbenbestimmung und farbmischvorrichtung
FR2877073B1 (fr) 2004-10-22 2007-01-26 Oreal Dispositif permettant l'observation du visage
US20070253987A1 (en) * 2004-11-01 2007-11-01 Wozniak Mark E Novel pigments for wrinkle-hiding cosmetic applications
DK2343692T3 (en) 2004-11-08 2017-10-09 Cosmetic Tech Llc Automated dosing device for custom cosmetics
JP2006254309A (ja) 2005-03-14 2006-09-21 Fuji Photo Film Co Ltd 撮影システム
FR2883154B1 (fr) * 2005-03-15 2008-02-08 Oreal Dispositif de mesure du teint
US7634108B2 (en) * 2006-02-14 2009-12-15 Microsoft Corp. Automated face enhancement
US20100329995A1 (en) * 2006-02-21 2010-12-30 Ventria Bioscience Compositions containing lactoferrin, and methods of using same to promote growth of skin cells
GB2451050B (en) 2006-05-05 2011-08-31 Parham Aarabi Method, system and computer program product for automatic and semiautomatic modification of digital images of faces
US8620038B2 (en) 2006-05-05 2013-12-31 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
US8660319B2 (en) 2006-05-05 2014-02-25 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
CN100493441C (zh) * 2006-07-24 2009-06-03 许越 一种检测护肤品对皮肤刺激强度的方法与装置
EP2131697B1 (en) 2007-03-08 2012-09-12 Hewlett-Packard Development Company, L.P. Method and system for recommending a product based upon skin color estimated from an image
US20090231356A1 (en) 2008-03-17 2009-09-17 Photometria, Inc. Graphical user interface for selection of options from option groups and methods relating to same
US8425477B2 (en) 2008-09-16 2013-04-23 Elc Management Llc Method and system for providing targeted and individualized delivery of cosmetic actives
FR2933581B1 (fr) 2008-07-10 2011-12-02 Oreal Procede de maquillage et dispositif pour la mise en oeuvre d'un tel procede
WO2010036732A1 (en) * 2008-09-25 2010-04-01 Zeltiq Aesthetics, Inc. Treatment planning systems and methods for body contouring applications
KR20100056280A (ko) 2008-11-19 2010-05-27 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
US8725560B2 (en) 2009-02-02 2014-05-13 Modiface Inc. Method and system for simulated product evaluation via personalizing advertisements based on portrait images
US8373859B2 (en) 2009-03-27 2013-02-12 Brightex Bio-Photonics Llc Methods and systems for imaging skin using polarized lighting
US8498456B2 (en) 2009-07-13 2013-07-30 Stylecaster, Inc. Method and system for applying cosmetic and/or accessorial enhancements to digital images
US9602793B2 (en) * 2009-12-09 2017-03-21 Imagination Technologies Limited Skin tone detection in a digital camera
GB0922603D0 (en) 2009-12-24 2010-02-10 Touch Emas Ltd Skin colour determining apparatus and method
US8550818B2 (en) 2010-05-21 2013-10-08 Photometria, Inc. System and method for providing and modifying a personalized face chart
WO2012030984A2 (en) 2010-08-31 2012-03-08 Living Proof, Inc. Skin compositions and methods of use thereof
US8933944B2 (en) 2010-10-13 2015-01-13 Boston Scientific Neuromodulation Corporation External controller for an implantable medical device with dual microcontrollers for improved graphics rendering
CN103458872A (zh) 2010-12-30 2013-12-18 玫琳凯有限公司 多功能化妆品组合物
FR2969915B1 (fr) 2011-01-04 2014-01-03 Ergylink Systeme et procede pour analyser au moins une caracteristique de la peau
US8791999B2 (en) * 2011-01-21 2014-07-29 Apple Inc. Systems and methods for display calibration
JP2012181688A (ja) 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
EP2731072A4 (en) 2011-07-07 2015-03-25 Kao Corp FINGER-PRINTED PRINT ANALYSIS METHOD, COSMETIC CONSULTATION METHOD, AND FACE IMAGE GENERATION METHOD
US9007588B1 (en) 2011-08-25 2015-04-14 L'oreal Cosmetic blending machine for foundation, concealer, tinted moisturizer, primer, skin care products, nail polish, blush, hair dye, lipstick and other products
US8593634B1 (en) 2012-06-15 2013-11-26 Larry Y Igarashi Custom cosmetic blending machine
US8830468B2 (en) 2012-09-17 2014-09-09 Larry Y Igarashi Custom cosmetic blending machine with handheld colorimeter
US8564778B1 (en) 2011-08-25 2013-10-22 Larry Y Igarashi Custom cosmetic blending machine
EP3678054A1 (en) 2011-08-31 2020-07-08 Zazzle Inc. Product options framework and accessories
US8804122B2 (en) * 2011-09-22 2014-08-12 Brightex Bio-Photonics Llc Systems and methods for determining a surface profile using a plurality of light sources
US8634648B2 (en) 2011-12-07 2014-01-21 Elwha Llc Reporting informational data indicative of a possible non-imaged portion of a skin
US9118876B2 (en) 2012-03-30 2015-08-25 Verizon Patent And Licensing Inc. Automatic skin tone calibration for camera images
US9449412B1 (en) 2012-05-22 2016-09-20 Image Metrics Limited Adaptive, calibrated simulation of cosmetic products on consumer devices
US9460462B1 (en) 2012-05-22 2016-10-04 Image Metrics Limited Monetization using video-based simulation of cosmetic products
US8693768B1 (en) 2012-07-10 2014-04-08 Lisa LaForgia Cosmetic base matching system
EP2953090A4 (en) 2013-02-01 2016-05-25 Panasonic Ip Man Co Ltd MAKEUP AID, MAKEUP AID, MAKEUP ASSISTANCE AND MAKEUP ASSISTANCE
US8933994B2 (en) 2013-03-15 2015-01-13 Skin Republic, Inc. Systems and methods for specifying and formulating customized topical agents
US9064279B1 (en) 2013-05-22 2015-06-23 Sephora USA, Inc. System for cosmetics matching based on skin tone
EP3000386B1 (en) 2013-06-28 2021-01-20 Panasonic Intellectual Property Corporation of America Skin function evaluation device and skin evaluation method
EP3040939B1 (en) 2013-08-30 2018-10-10 Panasonic Intellectual Property Management Co., Ltd. Makeup support device, makeup support method, and makeup support program
KR102242460B1 (ko) 2013-09-19 2021-04-21 로레알 표면의 색상 및 스펙트럼의 측정 및 범주화를 위한 시스템 및 방법
US20160239187A1 (en) 2013-10-13 2016-08-18 Inuitive Ltd. Hands on computerized emulation of make up
FR3014675A1 (fr) 2013-12-12 2015-06-19 Oreal Procede d'evaluation d'au moins un signe clinique du visage
FR3015872B1 (fr) 2013-12-27 2017-03-24 Oreal Dispositif de maquillage comportant une pluralite d'encres cosmetiques
US9760935B2 (en) 2014-05-20 2017-09-12 Modiface Inc. Method, system and computer program product for generating recommendations for products and treatments
US20160027087A1 (en) 2014-07-22 2016-01-28 Colormodules Inc. Methods for providing targeted notifications for color matched consumer products and devices thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030215471A1 (en) * 2001-01-31 2003-11-20 Wilmott James M. Surfactant free topical compositions and method for rapid preparation thereof
JP2006106951A (ja) * 2004-10-01 2006-04-20 Dainippon Printing Co Ltd 化粧品管理システム
JP2010086036A (ja) * 2008-09-29 2010-04-15 Fujifilm Corp 診断装置及び診断方法
JP2012518457A (ja) * 2009-02-23 2012-08-16 ロレアル 処理対象ゾーンへの画像の投射を含む化粧的な処理方法
US20110211047A1 (en) * 2009-03-27 2011-09-01 Rajeshwar Chhibber Methods and Systems for Imaging and Modeling Skin Using Polarized Lighting
JP2012128597A (ja) * 2010-12-14 2012-07-05 Canon Inc 情報処理装置、情報処理方法、およびそのプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418633B2 (ja) 2016-04-22 2024-01-19 フィットスキン インコーポレイテッド 電子装置を用いた皮膚分析のためのシステムおよび方法
JP2020500611A (ja) * 2016-12-01 2020-01-16 エルジー ハウスホールド アンド ヘルスケア リミテッド カスタマイズ化粧品提供システム及びその動作方法
US11742089B2 (en) 2016-12-01 2023-08-29 Lg Household & Health Care Ltd. Customized cosmetics provision system and operating method thereof
JP2020511444A (ja) * 2017-03-07 2020-04-16 シセイドウ アメリカズ コーポレイション カスタム局所薬剤を調整するためのシステムおよび方法
JP7308753B2 (ja) 2017-03-07 2023-07-14 株式会社 資生堂 カスタム局所薬剤を調整するためのシステムおよび方法
CN111989554A (zh) * 2018-03-28 2020-11-24 皇家飞利浦有限公司 在非受控环境中评估牙齿色调的方法和系统
JP2021519415A (ja) * 2018-03-28 2021-08-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 制御されていない環境において歯のシェードを評価する方法及びシステム
JP7477456B2 (ja) 2018-03-28 2024-05-01 コーニンクレッカ フィリップス エヌ ヴェ 制御されていない環境において歯のシェードを評価する方法及びシステム

Also Published As

Publication number Publication date
EP2972155B1 (en) 2023-08-23
US10321748B2 (en) 2019-06-18
US8933994B2 (en) 2015-01-13
US20190350345A1 (en) 2019-11-21
CN109527779A (zh) 2019-03-29
JP7108501B2 (ja) 2022-07-28
CN105209870A (zh) 2015-12-30
CN105209870B (zh) 2018-11-20
JP2019000680A (ja) 2019-01-10
US20140267783A1 (en) 2014-09-18
US9122918B2 (en) 2015-09-01
US11445803B2 (en) 2022-09-20
US20140267664A1 (en) 2014-09-18
US9122919B2 (en) 2015-09-01
EP2972155A2 (en) 2016-01-20
WO2014144275A3 (en) 2014-11-20
WO2014144275A2 (en) 2014-09-18
US20160174690A1 (en) 2016-06-23
JP6960734B2 (ja) 2021-11-05
US20140267665A1 (en) 2014-09-18

Similar Documents

Publication Publication Date Title
JP7108501B2 (ja) カスタム外用剤を具体化および調合するためのシステムおよび方法
JP7308753B2 (ja) カスタム局所薬剤を調整するためのシステムおよび方法
JP7453956B2 (ja) カスタム外用薬を調整するためのシステムおよび方法
US9445087B2 (en) Systems, devices, and methods for providing products and consultations
US20220344044A1 (en) User-customized skin diagnosis system and method
JP6295229B2 (ja) 表面状態撮影表示システムおよび表面状態撮影表示方法
US8260010B2 (en) Systems and methods for analyzing skin conditions of people using digital images
US8861863B2 (en) Method and system for analyzing lip conditions using digital images
US20220026276A1 (en) System and Method for Creation of Topical Agents with Improved Image Capture
KR20200008484A (ko) 피부 진단을 통한 화장품 추천 시스템
WO2021075215A1 (ja) 皮膚外用剤の塗布支援を行うための方法およびシステム
KR20230006238A (ko) 사용자 맞춤형 피부 진단 사용자 단말 및 방법
WO2021138477A1 (en) Image process systems for skin condition detection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190408

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190408

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20190425

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190523

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190708

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20190709

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190816

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20190820

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191112

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191112

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20191203

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200519

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200526

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200821

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200924

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210330

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210413

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210421

C30 Protocol of an oral hearing

Free format text: JAPANESE INTERMEDIATE CODE: C30

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210727

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210727

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20210728

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210824

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210928

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211012

R150 Certificate of patent or registration of utility model

Ref document number: 6960734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150