JP7407115B2 - Machine performing facial health and beauty assistant - Google Patents
Machine performing facial health and beauty assistant Download PDFInfo
- Publication number
- JP7407115B2 JP7407115B2 JP2020536683A JP2020536683A JP7407115B2 JP 7407115 B2 JP7407115 B2 JP 7407115B2 JP 2020536683 A JP2020536683 A JP 2020536683A JP 2020536683 A JP2020536683 A JP 2020536683A JP 7407115 B2 JP7407115 B2 JP 7407115B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- facial skin
- machine learning
- image
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001815 facial effect Effects 0.000 title claims description 67
- 230000003796 beauty Effects 0.000 title description 8
- 230000036541 health Effects 0.000 title description 8
- 238000010801 machine learning Methods 0.000 claims description 57
- 238000000034 method Methods 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 26
- 238000004891 communication Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 10
- 239000000047 product Substances 0.000 description 19
- 238000004458 analytical method Methods 0.000 description 12
- 206010040954 Skin wrinkling Diseases 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 206010000496 acne Diseases 0.000 description 5
- 230000037303 wrinkles Effects 0.000 description 5
- 208000002874 Acne Vulgaris Diseases 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 239000011148 porous material Substances 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000036571 hydration Effects 0.000 description 3
- 238000006703 hydration reaction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000007665 sagging Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000002537 cosmetic Substances 0.000 description 2
- 239000006071 cream Substances 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010039580 Scar Diseases 0.000 description 1
- 206010064127 Solar lentigo Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 239000004480 active ingredient Substances 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 235000020805 dietary restrictions Nutrition 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000005414 inactive ingredient Substances 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
- G06F18/41—Interactive pattern learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D2044/007—Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
関連出願の相互参照
本出願は、その各々の全体の内容が参照によって本明細書に組み込まれる、両方が2018年1月5日に出願された米国仮特許出願第62/614,001号及び米国仮特許出願第62/614,080号に関連し、それらの利益を主張する。
CROSS-REFERENCE TO RELATED APPLICATIONS This application refers to U.S. Provisional Patent Application No. 62/614,001, both filed January 5, 2018, and U.S. Relating to and claiming the benefit of Provisional Patent Application No. 62/614,080.
健康及び美容産業は、それらの製品及びサービスによる消費者経験を改善する技術における進歩を活用する。特定のウェブサイトは今日では、例えば、モバイルデバイスを通じて提供される人間の顔の特徴(目、頬、鼻、唇、顎など)を特定する顔認識技術を利用する。そのようなコンピュータビジョン技術は、特に、特定の消費者へのカスタマイズが関与する、機械学習の全能力を取り入れることができていない。すなわち、1つには、従来の健康及び美容ポータルは、人間の臨床医によって推薦されるのとは反対に、それによって養生法が機械によって推薦される機構を欠いている。実施形態では、養生法は、人間ユーザの健康及び/または美容を改善することが意図された体系的計画または活動指針である。顔面健康及び美容の領域では、養生法は、特定のクレンザにより皮膚を洗浄すること、及び特定のクリームを塗布すること、特定のダイエットの制約を遵守すること、睡眠習慣を変更することなどを含むことがある。 The health and beauty industry takes advantage of advances in technology that improve the consumer experience with their products and services. Certain websites now make use of facial recognition technology that identifies human facial features (eyes, cheeks, nose, lips, chin, etc.) provided through mobile devices, for example. Such computer vision technologies have not been able to embrace the full power of machine learning, especially where customization to specific consumers is involved. That is, for one, traditional health and beauty portals lack a mechanism whereby regimens are recommended by a machine, as opposed to being recommended by a human clinician. In embodiments, a regimen is a systematic plan or course of action intended to improve the health and/or beauty of a human user. In the area of facial health and beauty, regimens include cleaning the skin with certain cleansers and applying certain creams, observing certain dietary restrictions, changing sleeping habits, etc. Sometimes.
従来の健康及び美容ポータルはまた、推薦された養生法の有効性を観察するためなど、それによってユーザの皮膚を経時に追跡することができる機構を欠いている。それらは、十分な情報の説明及び助言を欠き、男及び女に対して別個に目標とされず、特定の状態を検出する際に誤判定に悩まされる(例えば、髪がしわとして誤認される)。データ分析を通じて健康及び/または美容養生法を推薦すると共に、データ分析によってその養生法を通じた個々のユーザの進行を追跡する能力は、機械上でまだ実現されていない。 Traditional health and beauty portals also lack a mechanism by which a user's skin can be tracked over time, such as to monitor the effectiveness of recommended regimens. They lack well-informed explanations and advice, are not targeted separately for men and women, and suffer from false positives when detecting certain conditions (e.g. hair misidentified as wrinkles). . The ability to recommend a health and/or beauty regimen through data analysis and to track an individual user's progress through that regimen through data analysis has not yet been realized on a machine.
ユーザの顔面皮膚を表す1つ以上の画像がユーザから1つ以上の処理回路によって受け付けられる。実施形態では、1つ以上のメモリ回路に記憶された機械学習モデルは、顔面皮膚特性を分類し、重要な物体を識別し、美容傾向を判定するなどのために画像に適用される。実施形態では、分類された顔面皮膚特性に基づいて、養生法推薦がユーザに提供される。 One or more images representing the user's facial skin are received from the user by one or more processing circuits. In embodiments, machine learning models stored in one or more memory circuits are applied to images to classify facial skin characteristics, identify objects of interest, determine cosmetic trends, etc. In embodiments, regimen recommendations are provided to the user based on the classified facial skin characteristics.
実施形態では、機械学習モデルを記憶するように構成された1つ以上のメモリ回路と、ユーザの顔面皮膚を表す少なくとも1つの画像をユーザから受け付け、顔面皮膚特性を分類するよう機械学習モデルを画像に適用し、分類された顔面皮膚特性に基づいて、ユーザへの養生法推薦を生成する、ように構成された1つ以上の処理回路と、を含むシステムが提供される。 In embodiments, one or more memory circuits configured to store a machine learning model and at least one image representative of facial skin of a user are received from a user, and the machine learning model is configured to store the machine learning model in the image to classify facial skin characteristics. and one or more processing circuits configured to generate regimen recommendations to a user based on the classified facial skin characteristics.
実施形態では、1つ以上の処理回路は、ユーザの顔面皮膚を表す別の画像をユーザから受け付け、顔面皮膚特性を分類するよう機械学習モデルを別の画像に適用し、別の画像の分類された顔面皮膚特性に基づいて、ユーザへの養生法推薦を更新する、ように更に構成されている。 In embodiments, the one or more processing circuits receive from a user another image representing facial skin of the user, apply a machine learning model to the other image to classify facial skin characteristics, and apply a machine learning model to the other image to classify facial skin characteristics. The method is further configured to update regimen recommendations to the user based on the determined facial skin characteristics.
実施形態では、1つ以上の処理回路は、ユーザの顔面皮膚がシミュレートされた未来の状態に進行するよう画像を処理するように更に構成されている。 In embodiments, the one or more processing circuits are further configured to process the image such that the user's facial skin progresses to a simulated future state.
実施形態では、シミュレートされた未来の状態は、養生法がユーザによって遵守されるときのユーザの顔面皮膚のシミュレートされた未来の状態である。 In embodiments, the simulated future state is a simulated future state of the user's facial skin when the regimen is followed by the user.
実施形態では、1つ以上の処理回路は、通信ネットワークを通じて通信可能に結合されたクライアントプラットフォーム及びサービスプラットフォームに物理的に分離される。 In embodiments, one or more processing circuits are physically separated into a client platform and a service platform that are communicatively coupled through a communications network.
実施形態では、1つ以上の処理回路は、それに提供される訓練画像から顔面皮膚特性を分類する入力を複数のユーザから受け付け、受け付けた入力を使用してモデルを訓練する、ように更に構成されている。 In embodiments, the one or more processing circuits are further configured to accept input from a plurality of users to classify facial skin characteristics from training images provided to it and to train a model using the received inputs. ing.
実施形態では、ユーザの顔面皮膚を表す少なくとも1つの画像をユーザから受け付けることと、顔面皮膚特性を分類するよう機械学習モデルを画像に適用することと、分類された顔面皮膚特性に基づいて、ユーザへの養生法推薦を生成することと、を含む方法が提供される。 Embodiments include receiving from a user at least one image representative of the user's facial skin, applying a machine learning model to the image to classify facial skin characteristics, and generating a user image based on the classified facial skin characteristics. A method is provided that includes: generating a regimen recommendation for a patient.
実施形態では、ユーザの顔面皮膚を表す少なくとも1つの画像を受け付ける処理回路と、受け付けた画像を機械学習モデルに伝達し、養生法推薦を機械学習モデルから受信する通信回路と、養生法推薦をユーザに提示するユーザインタフェース回路と、を含む装置が提供される。 In embodiments, a processing circuit receives at least one image representing facial skin of a user, a communication circuit communicates the received image to a machine learning model and receives a regimen recommendation from the machine learning model, and a communication circuit receives the regimen recommendation from the user. An apparatus is provided that includes a user interface circuit for presenting a user interface circuit.
実施形態では、処理回路は、ユーザの顔面皮膚を表す別の画像が予め定義されたスケジュールに従って必要とされることをユーザに警告し、ユーザの顔面皮膚を表す別の画像をユーザから受け付ける、ように更に構成され、通信回路は、別の画像を機械学習モデルに伝達し、更新された養生法推薦を機械学習モデルから受信するように更に構成され、ユーザインタフェース回路は、更新された養生法推薦をユーザに提示するように更に構成されている。 In embodiments, the processing circuitry is configured to alert the user that another image representing the user's facial skin is required according to a predefined schedule, and to accept from the user another image representing the user's facial skin. further configured to communicate the another image to the machine learning model and receive an updated regimen recommendation from the machine learning model, the user interface circuit further configured to communicate the updated regimen recommendation to the machine learning model; is further configured to present to the user.
実施形態では、ユーザインタフェース回路は、人間の顔の画像をユーザに提示するように更に構成され、処理回路は、ユーザインタフェース回路を通じて、それに提供される画像から顔面皮膚特性を分類する入力をユーザから受け付けるように更に構成され、通信インタフェース回路は、ユーザ入力を訓練データとして機械学習モデルに伝達するように更に構成されている。 In embodiments, the user interface circuit is further configured to present an image of a human face to the user, and the processing circuit receives input from the user, through the user interface circuit, to classify facial skin characteristics from the image provided to it. The communication interface circuit is further configured to receive, and the communication interface circuit is further configured to communicate user input as training data to the machine learning model.
実施形態では、ユーザインタフェース回路は、それによって顔面皮膚特性が予め定められた尺度上で評価されるユーザ制御を提示するように更に構成されている。 In embodiments, the user interface circuit is further configured to present user controls by which facial skin characteristics are evaluated on a predetermined scale.
実施形態では、ユーザからそれに画像を提供するよう処理回路に通信可能に結合されたカメラを更に含む。 Embodiments further include a camera communicatively coupled to the processing circuit to provide images thereto from a user.
実施形態では、カメラ、処理回路、ユーザインタフェース回路、及び通信回路は、スマートフォンの構成要素である。 In embodiments, the camera, processing circuitry, user interface circuitry, and communication circuitry are components of a smartphone.
実施形態では、ユーザの顔面皮膚を表す少なくとも1つの画像を受け付けることと、受け付けた画像を機械学習モデルに伝達することと、養生法推薦を機械学習モデルから受信することと、養生法推薦をユーザに提示することと、を含む方法が提供される。 Embodiments include receiving at least one image representative of facial skin of a user, communicating the received image to a machine learning model, receiving regimen recommendations from the machine learning model, and transmitting regimen recommendations to the user. A method is provided that includes:
本発明概念は、添付図面を参照して本明細書で説明される、それらの特定の実施形態を通じて最良に説明され、添付図面では、同一の参照符号が全体を通じて同一の特徴を指す。発明(invention)という用語は、本明細書で使用されるとき、以下で説明される実施形態の根底にある発明概念を暗示することを意図しており、単に実施形態自体を意図しているわけではないことを理解されよう。更に、一般的発明概念は、以下で説明される例示的な実施形態に限定されず、以下の説明は、そのような認識において読まれるべきであることを理解されよう。 The inventive concepts are best explained through the specific embodiments thereof, which are herein described with reference to the accompanying drawings, in which like reference numerals refer to like features throughout. The term invention, as used herein, is intended to allude to the inventive concept underlying the embodiments described below, and not merely to the embodiments themselves. It will be understood that this is not the case. Furthermore, it will be understood that the general inventive concept is not limited to the exemplary embodiments described below, and the following description should be read with such an understanding.
加えて、例示的(exemplary)という単語は、「実施例、例、または例示としての役目を果たす(serving as an example,instance or illustration)」を意味するとして本明細書で使用される。例示であるとして本明細書で指定される構造、プロセス、設計、技術などのいずれかの実施形態は、他のそのような実施形態に対して好ましいまたは有利であるとして必ずしも解釈されない。例示的であるとして本明細書で示される実施例の特定の品質も適応度も意図されず、推定もされない。 Additionally, the word exemplary is used herein to mean "serving as an example, instance or illustration." Any embodiment of a structure, process, design, technique, etc. specified herein as exemplary is not necessarily to be construed as preferred or advantageous over other such embodiments. No particular quality or suitability of the embodiments shown herein as illustrative is intended or assumed.
説明
図1は、例示的な顔面健康及び美容アシスタント(FHBA)システム100の概略ブロック図であり、FHBAシステム100は、ネットワーク130を通じて通信可能に結合されたFHBAクライアントプラットフォーム110及びFHBAサービスプラットフォーム120を含む。一実施形態では、FHBAクライアントプラットフォーム110は、スマートフォン、タブレットコンピュータ、または他のモバイルコンピューティングデバイスであるが、本発明は、それに限定されない。図1に例示されるように、例示的なFHBAクライアントプラットフォーム110は、それらの上でFHBAクライアントインタフェース150を実装することができる、プロセッサ112、メモリ114、カメラ115、ユーザインタフェース116、及び通信インタフェース118を含む。FHBAクライアントインタフェース150は、一次ポータルを提供し、一次ポータルを通じて、ユーザは、FHBAシステム100にアクセスする。
DESCRIPTION FIG. 1 is a schematic block diagram of an exemplary facial health and beauty assistant (FHBA) system 100 that includes an FHBA
本発明の一実施形態では、FHBAサービスプラットフォーム120は、各々がプロセッサ122、メモリ124、ユーザインタフェース126、及び通信インタフェースを含む、1つ以上のサーバコンピュータを含む。FHBAサービスプラットフォーム120のそれらのリソースは、FHBAサービスインタフェース152、機械学習ロジック154、及び記憶メモリ156を実装するために利用されてもよい。記憶メモリ156は、発明を具体化するための十分な量の揮発性及び永続的メモリを表す。記憶メモリ156は更に、莫大な量の符号化された人間の知識と共に、単一のユーザのプライベートプロファイルに対する空間を包含してもよい。記憶メモリ156は更に、1つ以上のプロセッサ122によって実行されるとき、発明の実施形態のためのいくつかのタスクまたは手順を実行するプロセッサ命令を記憶してもよい。記憶メモリ156は更に、ユーザに対して特定の養生法を規定し、養生法の下でユーザの進行を追跡するよう機械学習ロジック154により動作可能であるユーザモデル(係数、重み、プロセッサ命令など)を記憶してもよい。
In one embodiment of the invention, FHBA
例示的なFHBAサービスインタフェース152は、それによってFHBAサービスへのネットワークアクセスが促進及び制御の両方がされるインフラストラクチャを設ける。FHBAクライアントインタフェース150及びFHBAサービスインタフェース152は、それに対して通信インタフェース118及び通信インタフェース128が構築され、またはそうでなければ構成される、シグナリング及びデータ伝送プロトコルを使用して適切な通信リンク145を介して通信する。FHBAサービスインタフェース156は、適切なインターネットホスティングサービスと共に、承認されたユーザのみのアクセスを可能にし、ユーザのプライベートデータを保護する認証及び他のセキュリティ機構を実装してもよい。加えて、FHBAサービスインタフェース152は、例えば、機械学習ロジック154とのFHBAクライアントインタフェース150の通信を利用可能にするアプリケーションプログラミングインタフェース(API)を実現することができる。当業者は、本発明と共に使用することができる他のフロントエンドサービスを認識するであろう。
The example FHBA
機械学習ロジック154は、そのように明示的にプログラミングされることなく、データから学習し、データに関して予測を行う発明の実施形態のためのインフラストラクチャを設ける。特定の実施形態では、機械学習ロジック154は、以下に説明されるように、1つ以上の畳み込みニューラルネットワーク(CNN)、オープンソースデータセットを使用して訓練することができるモデル、またはクラウドソース型データセットを実装する。それらに限定されないが、決定木学習、アソシエーションルール学習、人工ニューラルネットワーク、ディープラーニング、帰納論理プログラミング、サポートベクトルマシン、クラスタリング、ベイジアンネットワーク、強化学習、表現学習、類似性及び距離学習、スパース辞書学習、遺伝的アルゴリズム、ルールに基づく機械学習、並びに学習分類器を含む、他の機械学習技術が本発明と共に使用されてもよい。それらの全てが参照によって本明細書に組み込まれる、米国特許第8,442,321号、米国特許第9,015,083号、米国特許第9,536,293号、米国特許第9,324,022号、及び米国特許出願公開第2014/0376819号明細書において説明される追加の技術が本発明と共に使用されてもよい。以下に続く説明では、機械学習ロジックが畳み込みニューラルネットワークを実装するが、本発明はそれに限定されないことが想定される。人工知能における当業者は、その精神及び意図した範囲から逸脱することなく、本発明と共に使用することができる多数の技術を認識するであろう。
発明の実施形態は、FHBAクライアントプラットフォーム110上でカメラ116によって撮られたユーザの画像に基づいて、ユーザに対する様々な養生法を判定する。特定の実施形態では、ユーザの顔の画像は好ましくは、経時的に一貫した一様な照明の条件下で取得される。この目的のため、及び図1を参照して、発明の実施形態は、環状照明器142によって囲まれた鏡面144を含むミラーデバイス140を設ける。この構成は、照明の時間的に一定の基準を定義することを意図している。発明がこのように具体化されるとき、ユーザの顔の画像における時間的に変化する特性がより容易に認識及びラベル付けされる。
Embodiments of the invention determine various regimens for the user based on images of the user taken by
図2は、それによって発明の実施形態を用いて対話の例を説明することができるフローチャートである。図2の対話は、設計が単純であり、限定することを何ら意図していない。図2の説明は、図1に例示された構成の機能性を例示することを意図している。図2を参照して説明される特徴を超えて、発明の更なる特徴が以下で議論される。 FIG. 2 is a flowchart by which example interactions may be described using embodiments of the invention. The interaction of FIG. 2 is simple in design and is not intended to be limiting in any way. The description of FIG. 2 is intended to illustrate the functionality of the configuration illustrated in FIG. Beyond the features described with reference to FIG. 2, further features of the invention are discussed below.
動作210では、ユーザは、FHBAクライアントプラットフォーム110のカメラ116などによって、ユーザの顔の画像を生成してもよい。これは、上記議論された照明の基準によりまたは照明の基準なしに達成されてもよい。動作215では、ユーザの画像は、FHBAサービスプラットフォーム120に送信される。これは、通信リンク145を実現するようFHBAクライアントプラットフォーム110とFHBAサービスプラットフォーム120との間で共有される適切な通信プロトコルによって達成されてもよい。
In
動作220では、画像からユーザの皮膚を分析するよう画像分析及び機械学習が行われる。機械学習ロジック154は、とりわけ、見た目年齢、すなわち、ユーザの顔の視覚的な外観から推定されるユーザの主観的な年齢、顔面皮膚のトーンの均一性(できもの、年齢による染み/日焼けによる染み、ニキビの跡、及び他の欠陥があるか)、目の下のむくみ、目の周りのくま、まぶた/口角における全体的なトーンの垂れ下がり、小じわ、及び目の赤みにおいて見られるストレスの存在、粉ふき、皮膚の剥がれ、くすみ、及び小じわを欠くことを示す、ふくよかまたはなめらかと称されることが多い水和レベル、輝き-理想が適度な量の輝きである非線形パラメータ、毛穴の状態-毛穴の少ない外観が、健康的、若い、及び平坦な皮膚の触感をもたらすので望ましい、赤い/赤く腫れた吹出物及び傷によって特徴付けられるようなニキビの存在、分析を通じて発見することができる皮膚におけるしわ、ひだ、畝、または折り目の存在、たるみ、すなわち、弾力性の減少によって生じる柔らかい組織の垂れ下がった外観の存在、並びに人間の目の外周に特に位置するカラスの足跡、分岐するしわの存在、を判定する分析を実行してもよい。皮膚の他の状態は、機械学習ロジック154によって判定されてもよい。分析の更なる詳細は、以下で提供される。分析が完了すると、動作225において判定されるように、処理200は、分析結果及び規定された養生法(製品及びルーチン)、並びに/または養生法への更新がFHBAクライアントインタフェース150を介してユーザに送信される、動作220に遷移してもよい。
In
動作225では、分析が完了したかどうかが判定され、その肯定判定に応答して、処理200は、動作230において、FHBAサービスインタフェース152が推薦された養生法または養生法への更新をFHBAクライアントインタフェース150に送信する、動作230に遷移してもよい。ユーザは、動作235において示されたような養生法に従ってもよく、動作240では、新たなインターバルが開始したかどうかが判定される。そうである場合、処理200は、動作210から繰り返す。FHBAクライアントインタフェース150は、FHBAクライアントプラットフォーム110に搭載されたカレンダ及びタイマ(GPSも)にアクセスすると共に、ネットワーク130上で、ネットワークアクセス可能カレンダにアクセスしてもよい。したがって、例えば、週に1回、FHBAクライアントインタフェース150は、ユーザの顔の写真を撮ることをユーザに思い出させてもよく、すなわち、新たなインターバルをユーザに思い出させてもよい。経時的に、FHBAシステム100は、各々のインターバルにおいて撮られた画像から、推薦された養生法が作用しているかどうかを判定することができ、そうでない場合、FHBAシステム100は、養生法を改訂してもよく、例えば、製品を変更し、更なるライフスタイルの変更を推薦し、医者の予約を行うなどしてもよい。
In
図3は、例示的なFHBAクライアントインタフェース150とFHBAサービスプラットフォーム120のサービスとの間のデータフローの図である。図3では、図において不必要な過密を避けるために、FHBAサービスインタフェース152が省略されていることを留意されるべきである。しかしながら、関連する分野における当業者は、図3に表されるデータフローを制御及び促進するFHBAサービスインタフェース152の動作を認識するであろう。
FIG. 3 is a diagram of data flow between an example
図3に例示されるように、機械学習ロジック154は、皮膚アナライザ330、顔面外観進行ジェネレータ335、及び養生法推薦ジェネレータ340を含んでもよく、ユーザアカウントデータベース310及び製品データベース320に通信可能に結合されてもよい。機械学習ロジック154は、養生法を推薦し、養生法の下でのユーザの進行を追跡するよう、機械学習モデル370を訓練及び利用してもよい。機械学習における当業者が証明するように、訓練は、特徴のセット、例えば、見た目年齢、均一性、ストレス、水和性、輝き、毛穴、ニキビ、しわ、たるみ、カラスの足跡などを選択すること、及びそれらの特徴の存在または突出度を反映する画像データにラベルを割り当てることを伴ってもよい。ラベルを割り当てることは、主題の専門家によって、または以下に説明されるようにクラウドソース型データを通じて実行されてもよい。割り当てられたラベルを正解と見なして、機械学習ロジック154は、経時的に変化することがある、テスト画像に特徴が存在する程度を予測するようモデル370を構成してもよい。本発明は、二値モデル、マルチクラス分類モデル、回帰モデルなどを含むことができる特定のモデル表現に限定されない。
As illustrated in FIG. 3,
例示的なユーザアカウントデータベース310は、安全な方式においてFHBAシステム100の全てのユーザのデータを包含する。これは、ユーザプロファイルデータ、各々のユーザについての現在及び過去のユーザ写真357、各々のユーザについての現在及び過去の皮膚分析358、並びに各々のユーザについての現在及び過去の製品推薦362と現在及び過去のルーチン推薦364を含む。
The exemplary
例示的な製品データベース320は、養生法において使用することができる異なる製品のデータを包含する。製品データベース320は、製品名、活性及び非活性含有物、ラベル情報、並びに推薦された使用などを反映する記録を包含してもよい。特定の実施形態では、製品入力354として例示されるように、ユーザ(及び、FHBAシステム100の他のユーザ)は、異なる製品に関するフィードバックを提供してもよく、製品データベース320に存在しない製品を入力してもよい。本発明は、製品データベース320に入力することができる特定の製品に限定されない。
皮膚アナライザ330は、モデル370を通じて機械学習技術を使用して、ユーザの顔の像から様々な皮膚状態またはアーチファクトを分類するように構築、またはそうでなければ構成される。特定の実施形態では、ユーザの顔の写真画像352は、分析のために皮膚アナライザ330に提供される。皮膚アナライザ330は、分析の前に入力画像をクロッピングし、回転し、登録し、及びフィルタリングすることを含む画像前処理機構を実装してもよい。いずれかのそのような前処理の後、皮膚アナライザ330は、ユーザの顔面皮膚の特性を特定、識別、及び分類するようモデル370を入力画像357に適用してもよい。
顔面外観進行ジェネレータ335は、ユーザの顔が未来のいずれかの時にどのように見えるかを描くようユーザの顔面画像に対して動作してもよい。そのような進行は、年齢進行技術を展開することができる、年齢によるもの、または、養生法への遵守から生じる外観によるものであってもよい。進行した画像356は、FHBAクライアントインタフェース150を通じてユーザに提供されてもよい。
Facial
養生法推薦ジェネレータ340は、養生法を処方することに向けて皮膚アナライザ430からユーザに取得された分析結果358に対して動作してもよい。モデル370は、どの製品及びルーチン(処置、化粧及びライフスタイルの推薦など)が皮膚分析において識別された顔面皮膚特性に関してユーザの目標を満たすのに効果的であるかを予測するよう訓練されてもよい。養生法推薦ジェネレータ340は、モデル370対して符号化された知識に基づいて、例えば、製品データベース320へのクエリとして皮膚アナライザ330の分析結果358をフォーマットしてもよい。それに応答して、製品データベース320は、製品データ及びメタデータ366を返してもよく、製品推薦362及びルーチン推薦364は、FHBAクライアントインタフェース150に提供されてもよい。
The
上記示されたように、モデル370の訓練は、専門家によって画像データをラベル付けすることによって達成されてもよい。しかしながら、専門家の代わりに、発明の特定の実施形態は、クラウドソース型データを訓練データとして利用する。図4は、発明のそのような実施形態の図である。訓練の間、ユーザ410は、訓練画像のセット420を提示され、訓練画像のセット420に対して、顔面皮膚特性及び/または顔面特徴を特徴付けるよう問われる。一実施形態では、それによりユーザが特徴の重大性または突出度を評価することができる適切な尺度(例えば、整数1~10)が構築される。例えば、ユーザ410の各々は(経時的に)、多数の顔面画像を提示され、画像内の人の特徴及び/または皮膚特性に関する質問のセットを一通り説明される。尺度(1~10)を使用して、各々のユーザ410は、特徴の各々(例えば、見た目年齢、均一性、ストレス、水和性、輝き、毛穴、ニキビ、しわ、たるみ、カラスの足跡など)の突出度を評価するよう問われる。質問への回答は、機械言語ロジック154を訓練するために使用されるラベルとしての役目を果たしてもよい。
As indicated above, training of
図5を参照して、ユーザインタフェース118としてタッチスクリーン510を有するスマートフォンの形式の例示的なFHBAクライアントプラットフォーム110が例示される。例示的なFHBAクライアントインタフェース150は、図1を参照して議論されたようなFHBAクライアントプラットフォーム110の計算リソース上で実装される。FHBAクライアントインタフェース150は、画像領域520に人間の顔の写真を提示してもよく、テキスト142を介して、「1~10の尺度上で、この人のカラスの足跡の存在をどのように評価するか?について、『1』は、『見えない』を意味し、『10』は、『突出して存在する』を意味する」を提示してもよい。ユーザがその評価を入力することを可能にする適切なユーザインタフェース制御144(図5に例示されるスライダ制御)がFHBAクライアントインタフェース150上で実装されてもよい。
Referring to FIG. 5, an exemplary
図6は、それにより本発明を具体化することができるクラウドソース型訓練処理600のフローチャートである。動作610では、訓練画像がFHBAクライアントインタフェース150に提供されてもよい。訓練画像のセット420は、関心の皮膚特性の例示的な実施例を含むとして事前選択されていてもよい。動作620では、ユーザは、第1の質問を提供され、動作630において回答(評価)を待つ。そのような回答は、例えば、「1~10の尺度上で、このモデルのニキビをどのように評価するか?について、『1』は、『見えない』であり、『10』は、『非常に突出している』である」であってもよい。ユーザが質問に回答したとき、動作630において判定されるように、ユーザの回答は、動作640において機械学習ロジック154の機械訓練に適切なラベルにフォーマットされてもよい。動作650では、現在表示されている画像に関連する全ての質問が回答されたかどうかが判定される。そうでない場合、処理600は、次の質問が提示される、動作620に再度遷移する。全ての質問が回答された場合、動作650において判定されるように、全ての訓練画像が提示されたかどうかが動作560において判定される。そうでない場合、処理600は、次の訓練画像が提示される、動作610に再度遷移する。全ての訓練画像が提示された場合、動作660において判定されるように、ラベル付けされた画像は、動作670においてモデル370を訓練するために使用されてもよい。
FIG. 6 is a flowchart of a
処理600における全ての繰り返し、例えば、動作620及び650において次の質問を提示すること、並びに/または動作610及び660において次の画像を提示することは、いずれかの1つのシッティングにおいて実行される必要はない。例えば、ユーザは、単一の質問を一度に回答することを促されてもよく(例えば、ユーザがログオンする都度)、時間をかけてのみ全ての質問及び画像がいずれかの1人のユーザに提示される。代わりに、ユーザは、単一のシッティングにおいて全ての画像についての全ての質問を回答するように選択されてもよい。大多数のユーザ及び/または顔面画像にわたって、多くのラベルが訓練モデル370に対して生成されてもよく、そのような訓練の根底にある統計的傾向は、人間の専門家の統計的傾向とは反対にパブリックビューを反映する。
All iterations in
図7は、上記議論されたクラウドソース型訓練に従った実施例のテスト動作を例示する。テスト画像710、すなわち、ユーザの自身の画像は、機械学習ロジック154に提示されてもよく、機械学習ロジック154は、クラウドソース型データ720に対して訓練されたモデルごとに画像を分析する。図に例示されるように、機械学習ロジック154は、調査された人の内の80%が、722において示されるように、突出度の観点で、ユーザのカラスの足跡を10のうち7であると評価すると推定する。したがって、機械学習ロジック154は、7という重大度スコアに基づいて、養生法を推薦してもよい(例えば、カラスの足跡に対して特に考案され、塗布の指示を推薦されたクリーム)。
FIG. 7 illustrates the testing operation of an embodiment according to the crowdsourced training discussed above.
当業者によって認識されるように、本発明の態様は、システム、方法、またはコンピュータプログラム製品として具体化されてもよい。したがって、本発明の態様は、全てが本明細書で全体的に「回路」、「モジュール」、または「システム」と称されてもよい、全体的にハードウェアの実施形態、全体的にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、またはソフトウェア及びハードウェア態様を組み合わせた実施形態の形式を取ってもよい。更に、本発明の態様は、そこで具体化されたコンピュータ可読プログラムコードを有する1つ以上のコンピュータ可読媒体(複数可)において具体化されたコンピュータプログラム製品の形式を取ってもよい。 As will be appreciated by those skilled in the art, aspects of the invention may be embodied as a system, method, or computer program product. Accordingly, aspects of the invention may be implemented in an entirely hardware embodiment, an entirely software embodiment, all of which may be referred to herein as a "circuit," "module," or "system." It may take the form of an embodiment (including firmware, resident software, microcode, etc.) or an embodiment combining software and hardware aspects. Furthermore, aspects of the invention may take the form of a computer program product embodied in one or more computer readable medium(s) having computer readable program code embodied thereon.
1つ以上のコンピュータ可読媒体(複数可)のいずれかの組み合わせが利用されてもよい。コンピュータ可読媒体は、例えば、それらに限定されないが、電機、磁気、光学、電磁気、赤外線、もしくは半導体システム、装置、もしくはデバイス、または上述したもののいずれかの適切な組み合わせであってもよい。コンピュータ可読記憶媒体のより特定の実施例(非包括的なリスト)は、1つ以上の配線を有する電機接続、ポータブルコンピュータディスケット、ハードディスク、ソリッドステートディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プルグラマブルリードオンリメモリ(EPROMもしくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリメモリ(CD-ROM)、光学式記憶装置、磁気記憶装置、相変化メモリ記憶装置、または上述したもののいずれかの適切な組み合わせを含む。この明細書のコンテキストでは、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスによる使用またはそれらと関連した使用のためのプログラムを包含または記憶することができるいずれかの有形媒体であってもよい。 Any combination of one or more computer readable media(s) may be utilized. The computer readable medium may be, for example, but not limited to, an electrical, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device, or any suitable combination of the above. More specific examples (non-exhaustive list) of computer-readable storage media include an electrical connection having one or more wires, a portable computer diskette, a hard disk, a solid-state disk, a random access memory (RAM), a read-only memory ( ROM), erasable programmable read-only memory (EPROM or flash memory), fiber optics, portable compact disk read-only memory (CD-ROM), optical storage, magnetic storage, phase change memory storage, or any of the above. including any appropriate combination of the following: In the context of this specification, a computer-readable storage medium is any tangible medium capable of containing or storing a program for use by or in connection with an instruction execution system, apparatus, or device. good.
本発明の態様のための動作を実施するコンピュータプログラムコードは、1つ以上のプログラミング言語、例えば、Java、Smalltalk、もしくはC++などのオブジェクト指向プログラミング言語、または「C」プログラミング言語もしくは同様のプログラミング言語などの従来の手続型プログラミング言語のいずれかの組み合わせにおいて記述されてもよい。プログラムコードは、ユーザのコンピュータ上で全体的に、ユーザのコンピュータ上で部分的に、スタンドアロンソフトウェアパッケージとして、ユーザのコンピュータ上で部分的及びリモートコンピュータ上で部分的に、またはリモートコンピュータもしくはサーバ上で全体的に実行してもよい。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)もしくはワイドエリアネットワーク(WAN)を含むいずれかのタイプのネットワークを通じてユーザのコンピュータに接続されてもよく、または外部コンピュータへの接続が行われてもよい(例えば、インターネットサービスプロバイダを使用してインターネットを通じて)。本発明の実施形態のコンピュータシステムに対するソフトウェアは、明細書に包含された機能的説明及び図において例示されたフローチャートに基づいて、コンピュータの分野における当業者によって開発されてもよいことを理解されよう。更に、様々な機能を実行するソフトウェアの本明細書におけるいずれかの言及は、ソフトウェア制御の下でそれらの機能を実行するコンピュータシステムまたはプロセッサを全体的に指す。 Computer program code implementing operations for aspects of the invention may be implemented in one or more programming languages, such as an object-oriented programming language such as Java, Smalltalk, or C++, or the "C" programming language or similar programming language. may be written in any combination of traditional procedural programming languages. The program code may be executed entirely on a user's computer, in part on a user's computer, as a stand-alone software package, partially on a user's computer and partially on a remote computer, or on a remote computer or server. It may be performed in its entirety. In the latter scenario, the remote computer may be connected to the user's computer through any type of network, including a local area network (LAN) or wide area network (WAN), or a connection to an external computer may be made. (e.g., over the Internet using an Internet service provider). It will be appreciated that software for the computer system of embodiments of the invention may be developed by one skilled in the computer arts based on the functional descriptions included in the specification and the flowcharts illustrated in the figures. Furthermore, any references herein to software performing various functions refer generally to a computer system or processor performing those functions under software control.
本発明の実施形態のコンピュータは代わりに、いずれかのタイプのハードウェア及び/または他の処理回路によって実装されてもよい。コンピュータシステムの様々な機能は、いずれかの数のソフトウェアモジュールまたはユニット、プロセシングまたはコンピュータシステム及び/または回路の間でいずれかの方式において分散されてもよく、コンピュータまたはプロセシングシステムは、相互にローカルまたはリモートに配置されてもよく、いずれかの適切な通信媒体(例えば、LAN、WAN、イントラネット、インターネット、ハードワイヤ、モデム接続、無線など)を介して通信してもよい。 Computers of embodiments of the invention may alternatively be implemented with any type of hardware and/or other processing circuitry. The various functions of a computer system may be distributed in any manner between any number of software modules or units, processing or computer systems and/or circuits, and the computers or processing systems may be local or It may be located remotely and may communicate via any suitable communication medium (eg, LAN, WAN, intranet, Internet, hardwired, modem connection, wireless, etc.).
上記実施例は、発明の実施形態の特定の機能性の例示であり、限定することを意図していない。確かに、他の機能性及び他のとり得る使用ケースが本開示をレビューすると当業者にとって明らかである。 The above examples are illustrative of particular functionality of embodiments of the invention and are not intended to be limiting. Indeed, other functionality and other possible use cases will be apparent to those skilled in the art upon reviewing this disclosure.
Claims (13)
ユーザの顔面皮膚を表す少なくとも1つの画像を前記ユーザから受け付け、
顔面皮膚特性を分類するよう前記機械学習モデルを前記画像に適用し、
前記分類された顔面皮膚特性に基づいて、前記ユーザへの製品推薦を含む養生法推薦を生成する、
ように構成された1つ以上の処理回路と、
前記養生法推薦に含まれる異なる製品のデータを含む製品データベースと、
を備え、
前記1つ以上の処理回路は、前記ユーザの顔面皮膚がシミュレートされた未来の状態に進行するよう前記画像を、年齢進行技術を用いることにより処理するように更に構成され、
前記1つ以上の処理回路は、
前記ユーザの顔面皮膚を表す別の画像が予め定義されたスケジュールに従って必要とされることを前記ユーザに警告し、
ユーザの顔面皮膚を表す別の画像を前記ユーザから受け付け、
顔面皮膚特性を分類するよう前記機械学習モデルを前記別の画像に適用し、
前記別の画像の前記分類された顔面皮膚特性に基づいて、前記ユーザへの前記養生法推薦を更新する、ように更に構成され、
前記製品データベースは、前記製品データベースに存在しない製品のデータをユーザから受け付けるように構成され、
前記シミュレートされた未来の状態は、前記養生法が前記ユーザによって遵守されるときの前記ユーザの顔面皮膚のシミュレートされた未来の状態である、システム。 one or more memory circuits configured to store the machine learning model;
receiving from the user at least one image representative of the user's facial skin;
applying the machine learning model to the image to classify facial skin characteristics;
generating regimen recommendations including product recommendations to the user based on the classified facial skin characteristics;
one or more processing circuits configured to;
a product database containing data of different products included in the regimen recommendation;
Equipped with
the one or more processing circuits are further configured to process the image using an age progression technique such that the user's facial skin progresses to a simulated future state;
The one or more processing circuits include:
alerting the user that another image representing the user's facial skin is required according to a predefined schedule;
receiving from the user another image representing the user's facial skin;
applying the machine learning model to the other image to classify facial skin characteristics;
further configured to update the regimen recommendation to the user based on the classified facial skin characteristics of the another image;
The product database is configured to receive data on products that do not exist in the product database from a user,
The system wherein the simulated future state is a simulated future state of the user's facial skin when the regimen is adhered to by the user.
提供される訓練画像から前記顔面皮膚特性を分類する入力を複数のユーザから受け付け、
前記受け付けた入力を使用して前記機械学習モデルを訓練する、
ように更に構成されている、請求項1に記載のシステム。 The one or more processing circuits include:
receiving input from a plurality of users for classifying the facial skin characteristics from provided training images;
training the machine learning model using the received input;
The system of claim 1, further configured to.
養生法推薦に含まれる異なる製品のデータを含む製品データベースに存在しない製品のデータをユーザから受け付けることと、
顔面皮膚特性を分類するよう機械学習モデルを前記画像に適用することと、
前記分類された顔面皮膚特性に基づいて、前記ユーザへの製品推薦を含む前記養生法推薦を生成することと、
前記ユーザの顔面皮膚がシミュレートされた未来の状態に進行するよう前記画像を、年齢進行技術を用いることにより処理することと、
前記ユーザの顔面皮膚を表す別の画像が予め定義されたスケジュールに従って必要とされることを前記ユーザに警告することと、
ユーザの顔面皮膚を表す別の画像を前記ユーザから受け付けることと、
顔面皮膚特性を分類するよう前記機械学習モデルを前記別の画像に適用することと、
前記別の画像の前記分類された顔面皮膚特性に基づいて、前記ユーザへの前記養生法推薦を更新することと、
を含み、
前記シミュレートされた未来の状態は、前記養生法が前記ユーザによって遵守されるときの前記ユーザの顔面皮膚のシミュレートされた未来の状態である、方法。 receiving from the user at least one image representative of the user's facial skin;
accepting data from a user for products that are not present in a product database that includes data for different products included in the regimen recommendation;
applying a machine learning model to the image to classify facial skin characteristics;
generating the regimen recommendations including product recommendations to the user based on the classified facial skin characteristics;
processing the image using an age progression technique such that the user's facial skin progresses to a simulated future state;
alerting the user that another image representing the user's facial skin is required according to a predefined schedule;
receiving from the user another image representing the user's facial skin;
applying the machine learning model to the other image to classify facial skin characteristics;
updating the regimen recommendation to the user based on the classified facial skin characteristics of the another image;
including;
The method, wherein the simulated future state is a simulated future state of the user's facial skin when the regimen is adhered to by the user.
前記受け付けた入力を使用して前記機械学習モデルを訓練することと、
を更に含む、請求項4に記載の方法。 receiving input from a plurality of users for classifying the facial skin characteristics from provided training images;
training the machine learning model using the received input;
5. The method of claim 4, further comprising:
前記受け付けた画像を機械学習モデルに伝達し、製品推薦を含む養生法推薦を前記機械学習モデルから受信する通信回路と、
前記養生法推薦を前記ユーザに提示するユーザインタフェース回路と、
前記養生法推薦に含まれる異なる製品のデータを含む製品データベースと、
を備え、
前記処理回路は、
前記ユーザの顔面皮膚を表す別の画像が予め定義されたスケジュールに従って必要とされることを前記ユーザに警告し、
前記ユーザの顔面皮膚を表す前記別の画像をユーザから受け付ける、ように更に構成され、
前記通信回路は、前記別の画像を前記機械学習モデルに伝達し、前記別の画像に適用された前記機械学習モデルから、前記養生法推薦が作用していない場合に更新された養生法推薦を受信するように更に構成され、
前記ユーザインタフェース回路は、前記更新された養生法推薦を前記ユーザに提示するように更に構成され、
前記製品データベースは、前記製品データベースに存在しない製品のデータをユーザから受け付けるように構成されている、装置。 a processing circuit that receives at least one image representing facial skin of a user;
a communication circuit that transmits the received image to a machine learning model and receives regimen recommendations including product recommendations from the machine learning model;
a user interface circuit for presenting the regimen recommendation to the user;
a product database containing data of different products included in the regimen recommendation;
Equipped with
The processing circuit includes:
alerting the user that another image representing the user's facial skin is required according to a predefined schedule;
further configured to receive from a user the another image representing facial skin of the user;
The communication circuit communicates the another image to the machine learning model and receives an updated regimen recommendation from the machine learning model applied to the another image if the regimen recommendation is not working. further configured to receive;
The user interface circuit is further configured to present the updated regimen recommendation to the user;
The product database is configured to receive data from a user on products that do not exist in the product database.
前記処理回路は、提供される前記画像から顔面皮膚特性を分類する入力を前記ユーザから前記ユーザインタフェース回路を通じて受け付けるように更に構成され、
前記通信回路は、前記ユーザ入力を訓練データとして前記機械学習モデルに伝達するように更に構成されている、
請求項6に記載の装置。 the user interface circuit is further configured to present an image of a human face to the user;
The processing circuit is further configured to receive input from the user through the user interface circuit to classify facial skin characteristics from the image provided;
The communication circuit is further configured to communicate the user input as training data to the machine learning model.
7. Apparatus according to claim 6.
養生法推薦に含まれる異なる製品のデータを含む製品データベースに存在しない製品のデータをユーザから受け付けることと、
前記受け付けた画像を機械学習モデルに伝達することと、
製品推薦を含む前記養生法推薦を前記機械学習モデルから受信することと、
前記養生法推薦を前記ユーザに提示することと、
前記ユーザの顔面皮膚を表す別の画像が予め定義されたスケジュールに従って必要とされることを前記ユーザに警告することと、
前記ユーザの顔面皮膚を表す前記別の画像をユーザから受け付けることと、
前記別の画像を前記機械学習モデルに伝達することと、
前記養生法推薦が作用していない場合には前記養生法推薦を更新することと、
更新された養生法推薦を、前記別の画像に適用された前記機械学習モデルから受信することと、
前記更新された養生法推薦を前記ユーザに提示することと、
を含む、方法。 accepting at least one image representing facial skin of a user;
accepting data from a user for products that are not present in a product database that includes data for different products included in the regimen recommendation;
transmitting the received image to a machine learning model;
receiving the regimen recommendations including product recommendations from the machine learning model;
presenting the regimen recommendation to the user;
alerting the user that another image representing the user's facial skin is required according to a predefined schedule;
receiving from a user the another image representing facial skin of the user;
communicating the another image to the machine learning model;
updating the regimen recommendation if the regimen recommendation is not working;
receiving an updated regimen recommendation from the machine learning model applied to the another image;
presenting the updated regimen recommendation to the user;
including methods.
提供される前記画像から顔面皮膚特性を分類する入力を前記ユーザから受け付けることと、
前記ユーザ入力を訓練データとして前記機械学習モデルに伝達することと、
を更に含む、請求項11に記載の方法。 presenting an image of a human face to the user;
accepting input from the user to classify facial skin characteristics from the provided image;
communicating the user input as training data to the machine learning model;
12. The method of claim 11, further comprising:
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862614080P | 2018-01-05 | 2018-01-05 | |
US201862614001P | 2018-01-05 | 2018-01-05 | |
US62/614,001 | 2018-01-05 | ||
US62/614,080 | 2018-01-05 | ||
PCT/US2019/012492 WO2019136354A1 (en) | 2018-01-05 | 2019-01-07 | Machine-implemented facial health and beauty assistant |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021510217A JP2021510217A (en) | 2021-04-15 |
JP7407115B2 true JP7407115B2 (en) | 2023-12-28 |
Family
ID=65433729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020536683A Active JP7407115B2 (en) | 2018-01-05 | 2019-01-07 | Machine performing facial health and beauty assistant |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3718050A1 (en) |
JP (1) | JP7407115B2 (en) |
KR (1) | KR102619221B1 (en) |
CN (1) | CN111868742A (en) |
WO (1) | WO2019136354A1 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11544845B2 (en) | 2020-07-02 | 2023-01-03 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a user's body before removing hair for determining a user-specific trapped hair value |
US11419540B2 (en) | 2020-07-02 | 2022-08-23 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a shaving stroke for determining pressure being applied to a user's skin |
US11801610B2 (en) | 2020-07-02 | 2023-10-31 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a hair growth direction value of the user's hair |
US11734823B2 (en) | 2020-07-02 | 2023-08-22 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a user-specific skin irritation value of the user's skin after removing hair |
US11890764B2 (en) | 2020-07-02 | 2024-02-06 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a hair density value of a user's hair |
US20220000417A1 (en) * | 2020-07-02 | 2022-01-06 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin laxity |
US11455747B2 (en) | 2020-07-02 | 2022-09-27 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a user-specific skin redness value of the user's skin after removing hair |
US11741606B2 (en) | 2020-07-02 | 2023-08-29 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a user's body after removing hair for determining a user-specific hair removal efficiency value |
WO2022069659A2 (en) * | 2020-09-30 | 2022-04-07 | Studies&Me A/S | A method and a system for determining severity of a skin condition |
KR102344700B1 (en) * | 2021-02-17 | 2021-12-31 | 주식회사 에프앤디파트너스 | Clinical imaging device |
EP4341851A1 (en) | 2021-05-20 | 2024-03-27 | ICA Aesthetic Navigation GmbH | Computer-based body part analysis methods and systems |
WO2024075109A1 (en) * | 2022-10-05 | 2024-04-11 | Facetrom Limited | Attractiveness determination system and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006142005A (en) | 2004-10-22 | 2006-06-08 | Shiseido Co Ltd | Skin condition diagnostic system and beauty counseling system |
JP2007133518A (en) | 2005-11-08 | 2007-05-31 | Shiseido Co Ltd | Cosmetic medical diagnostic method, cosmetic medical diagnostic program, and recording medium with its program recorded thereon |
JP2010534376A (en) | 2007-07-23 | 2010-11-04 | ザ プロクター アンド ギャンブル カンパニー | Method and apparatus for realistic simulation of wrinkle aging and deaging |
JP2016194892A (en) | 2015-04-01 | 2016-11-17 | みずほ情報総研株式会社 | Aging prediction system, aging prediction method, and aging prediction program |
US20170270593A1 (en) | 2016-03-21 | 2017-09-21 | The Procter & Gamble Company | Systems and Methods For Providing Customized Product Recommendations |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7437344B2 (en) * | 2001-10-01 | 2008-10-14 | L'oreal S.A. | Use of artificial intelligence in providing beauty advice |
US20030065589A1 (en) * | 2001-10-01 | 2003-04-03 | Daniella Giacchetti | Body image templates with pre-applied beauty products |
US20030064350A1 (en) * | 2001-10-01 | 2003-04-03 | Gilles Rubinstenn | Beauty advisory system and method |
US20070058858A1 (en) * | 2005-09-09 | 2007-03-15 | Michael Harville | Method and system for recommending a product based upon skin color estimated from an image |
KR100734849B1 (en) * | 2005-11-26 | 2007-07-03 | 한국전자통신연구원 | Method for recognizing face and apparatus thereof |
US20170330029A1 (en) * | 2010-06-07 | 2017-11-16 | Affectiva, Inc. | Computer based convolutional processing for image analysis |
TWI471117B (en) * | 2011-04-29 | 2015-02-01 | Nat Applied Res Laboratoires | Human facial skin roughness and wrinkle inspection based on smart phone |
US8442321B1 (en) | 2011-09-14 | 2013-05-14 | Google Inc. | Object recognition in images |
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
US9015083B1 (en) | 2012-03-23 | 2015-04-21 | Google Inc. | Distribution of parameter calculation for iterative optimization methods |
JP2014010750A (en) * | 2012-07-02 | 2014-01-20 | Nikon Corp | Timing determination device, timing determination system, timing determination method, and program for skin external preparation |
US9256963B2 (en) * | 2013-04-09 | 2016-02-09 | Elc Management Llc | Skin diagnostic and image processing systems, apparatus and articles |
US9754177B2 (en) | 2013-06-21 | 2017-09-05 | Microsoft Technology Licensing, Llc | Identifying objects within an image |
WO2015134665A1 (en) | 2014-03-04 | 2015-09-11 | SignalSense, Inc. | Classifying data with deep learning neural records incrementally refined through expert input |
US9760935B2 (en) * | 2014-05-20 | 2017-09-12 | Modiface Inc. | Method, system and computer program product for generating recommendations for products and treatments |
US9536293B2 (en) | 2014-07-30 | 2017-01-03 | Adobe Systems Incorporated | Image assessment using deep convolutional neural networks |
WO2016203461A1 (en) * | 2015-06-15 | 2016-12-22 | Haim Amir | Systems and methods for adaptive skin treatment |
US10002415B2 (en) * | 2016-04-12 | 2018-06-19 | Adobe Systems Incorporated | Utilizing deep learning for rating aesthetics of digital images |
TWI585711B (en) * | 2016-05-24 | 2017-06-01 | 泰金寶電通股份有限公司 | Method for obtaining care information, method for sharing care information, and electronic apparatus therefor |
CN107123027B (en) * | 2017-04-28 | 2021-06-01 | 广东工业大学 | Deep learning-based cosmetic recommendation method and system |
CN107437073A (en) * | 2017-07-19 | 2017-12-05 | 竹间智能科技(上海)有限公司 | Face skin quality analysis method and system based on deep learning with generation confrontation networking |
CN107480719B (en) * | 2017-08-17 | 2020-08-07 | 广东工业大学 | Skin care product recommendation method and system based on skin characteristic evaluation |
-
2019
- 2019-01-07 EP EP19705420.8A patent/EP3718050A1/en active Pending
- 2019-01-07 JP JP2020536683A patent/JP7407115B2/en active Active
- 2019-01-07 KR KR1020207019230A patent/KR102619221B1/en active IP Right Grant
- 2019-01-07 CN CN201980017228.2A patent/CN111868742A/en active Pending
- 2019-01-07 WO PCT/US2019/012492 patent/WO2019136354A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006142005A (en) | 2004-10-22 | 2006-06-08 | Shiseido Co Ltd | Skin condition diagnostic system and beauty counseling system |
JP2007133518A (en) | 2005-11-08 | 2007-05-31 | Shiseido Co Ltd | Cosmetic medical diagnostic method, cosmetic medical diagnostic program, and recording medium with its program recorded thereon |
JP2010534376A (en) | 2007-07-23 | 2010-11-04 | ザ プロクター アンド ギャンブル カンパニー | Method and apparatus for realistic simulation of wrinkle aging and deaging |
JP2016194892A (en) | 2015-04-01 | 2016-11-17 | みずほ情報総研株式会社 | Aging prediction system, aging prediction method, and aging prediction program |
US20170270593A1 (en) | 2016-03-21 | 2017-09-21 | The Procter & Gamble Company | Systems and Methods For Providing Customized Product Recommendations |
Also Published As
Publication number | Publication date |
---|---|
WO2019136354A1 (en) | 2019-07-11 |
JP2021510217A (en) | 2021-04-15 |
CN111868742A (en) | 2020-10-30 |
KR102619221B1 (en) | 2023-12-28 |
KR20200105480A (en) | 2020-09-07 |
EP3718050A1 (en) | 2020-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7407115B2 (en) | Machine performing facial health and beauty assistant | |
US11817004B2 (en) | Machine-implemented facial health and beauty assistant | |
US10943156B2 (en) | Machine-implemented facial health and beauty assistant | |
US11832958B2 (en) | Automatic image-based skin diagnostics using deep learning | |
JP7140848B2 (en) | System and method for hair coverage analysis | |
CN110709856B (en) | System and method for determining apparent skin age | |
US11055762B2 (en) | Systems and methods for providing customized product recommendations | |
EP3699811A1 (en) | Machine-implemented beauty assistant for predicting face aging | |
WO2019137538A1 (en) | Emotion representative image to derive health rating | |
JP7493532B2 (en) | Changing the appearance of the hair | |
US11455747B2 (en) | Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a user-specific skin redness value of the user's skin after removing hair | |
US20220164852A1 (en) | Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations | |
US20210118133A1 (en) | System, method, apparatus and computer program product for the detection and classification of different types of skin lesions | |
US11854188B2 (en) | Machine-implemented acne grading | |
US20240112492A1 (en) | Curl diagnosis system, apparatus, and method | |
CN111259695A (en) | Method and device for acquiring information | |
US20240108280A1 (en) | Systems, device, and methods for curly hair assessment and personalization | |
US20240112491A1 (en) | Crowdsourcing systems, device, and methods for curly hair characterization | |
López-Fernández et al. | Knowledge-Driven Dialogue and Visual Perception for Smart Orofacial Rehabilitation | |
CN117813661A (en) | Skin analysis system and method implementations | |
KR20240009440A (en) | Computer-based body part analysis methods and systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220104 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220922 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220922 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221011 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221018 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20221104 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20221108 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20221122 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230110 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20230131 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7407115 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |