JP7407115B2 - Machine performing facial health and beauty assistant - Google Patents

Machine performing facial health and beauty assistant Download PDF

Info

Publication number
JP7407115B2
JP7407115B2 JP2020536683A JP2020536683A JP7407115B2 JP 7407115 B2 JP7407115 B2 JP 7407115B2 JP 2020536683 A JP2020536683 A JP 2020536683A JP 2020536683 A JP2020536683 A JP 2020536683A JP 7407115 B2 JP7407115 B2 JP 7407115B2
Authority
JP
Japan
Prior art keywords
user
facial skin
machine learning
image
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020536683A
Other languages
Japanese (ja)
Other versions
JP2021510217A (en
Inventor
セリア ルドヴィンスキー,
フロラン ヴァルセシーニ,
ユアンチエ リー,
チーユアン ソン,
クリスティーン エル-ファクリ,
ヘマント ジョシ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LOreal SA filed Critical LOreal SA
Publication of JP2021510217A publication Critical patent/JP2021510217A/en
Application granted granted Critical
Publication of JP7407115B2 publication Critical patent/JP7407115B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

関連出願の相互参照
本出願は、その各々の全体の内容が参照によって本明細書に組み込まれる、両方が2018年1月5日に出願された米国仮特許出願第62/614,001号及び米国仮特許出願第62/614,080号に関連し、それらの利益を主張する。
CROSS-REFERENCE TO RELATED APPLICATIONS This application refers to U.S. Provisional Patent Application No. 62/614,001, both filed January 5, 2018, and U.S. Relating to and claiming the benefit of Provisional Patent Application No. 62/614,080.

健康及び美容産業は、それらの製品及びサービスによる消費者経験を改善する技術における進歩を活用する。特定のウェブサイトは今日では、例えば、モバイルデバイスを通じて提供される人間の顔の特徴(目、頬、鼻、唇、顎など)を特定する顔認識技術を利用する。そのようなコンピュータビジョン技術は、特に、特定の消費者へのカスタマイズが関与する、機械学習の全能力を取り入れることができていない。すなわち、1つには、従来の健康及び美容ポータルは、人間の臨床医によって推薦されるのとは反対に、それによって養生法が機械によって推薦される機構を欠いている。実施形態では、養生法は、人間ユーザの健康及び/または美容を改善することが意図された体系的計画または活動指針である。顔面健康及び美容の領域では、養生法は、特定のクレンザにより皮膚を洗浄すること、及び特定のクリームを塗布すること、特定のダイエットの制約を遵守すること、睡眠習慣を変更することなどを含むことがある。 The health and beauty industry takes advantage of advances in technology that improve the consumer experience with their products and services. Certain websites now make use of facial recognition technology that identifies human facial features (eyes, cheeks, nose, lips, chin, etc.) provided through mobile devices, for example. Such computer vision technologies have not been able to embrace the full power of machine learning, especially where customization to specific consumers is involved. That is, for one, traditional health and beauty portals lack a mechanism whereby regimens are recommended by a machine, as opposed to being recommended by a human clinician. In embodiments, a regimen is a systematic plan or course of action intended to improve the health and/or beauty of a human user. In the area of facial health and beauty, regimens include cleaning the skin with certain cleansers and applying certain creams, observing certain dietary restrictions, changing sleeping habits, etc. Sometimes.

従来の健康及び美容ポータルはまた、推薦された養生法の有効性を観察するためなど、それによってユーザの皮膚を経時に追跡することができる機構を欠いている。それらは、十分な情報の説明及び助言を欠き、男及び女に対して別個に目標とされず、特定の状態を検出する際に誤判定に悩まされる(例えば、髪がしわとして誤認される)。データ分析を通じて健康及び/または美容養生法を推薦すると共に、データ分析によってその養生法を通じた個々のユーザの進行を追跡する能力は、機械上でまだ実現されていない。 Traditional health and beauty portals also lack a mechanism by which a user's skin can be tracked over time, such as to monitor the effectiveness of recommended regimens. They lack well-informed explanations and advice, are not targeted separately for men and women, and suffer from false positives when detecting certain conditions (e.g. hair misidentified as wrinkles). . The ability to recommend a health and/or beauty regimen through data analysis and to track an individual user's progress through that regimen through data analysis has not yet been realized on a machine.

ユーザの顔面皮膚を表す1つ以上の画像がユーザから1つ以上の処理回路によって受け付けられる。実施形態では、1つ以上のメモリ回路に記憶された機械学習モデルは、顔面皮膚特性を分類し、重要な物体を識別し、美容傾向を判定するなどのために画像に適用される。実施形態では、分類された顔面皮膚特性に基づいて、養生法推薦がユーザに提供される。 One or more images representing the user's facial skin are received from the user by one or more processing circuits. In embodiments, machine learning models stored in one or more memory circuits are applied to images to classify facial skin characteristics, identify objects of interest, determine cosmetic trends, etc. In embodiments, regimen recommendations are provided to the user based on the classified facial skin characteristics.

実施形態では、機械学習モデルを記憶するように構成された1つ以上のメモリ回路と、ユーザの顔面皮膚を表す少なくとも1つの画像をユーザから受け付け、顔面皮膚特性を分類するよう機械学習モデルを画像に適用し、分類された顔面皮膚特性に基づいて、ユーザへの養生法推薦を生成する、ように構成された1つ以上の処理回路と、を含むシステムが提供される。 In embodiments, one or more memory circuits configured to store a machine learning model and at least one image representative of facial skin of a user are received from a user, and the machine learning model is configured to store the machine learning model in the image to classify facial skin characteristics. and one or more processing circuits configured to generate regimen recommendations to a user based on the classified facial skin characteristics.

実施形態では、1つ以上の処理回路は、ユーザの顔面皮膚を表す別の画像をユーザから受け付け、顔面皮膚特性を分類するよう機械学習モデルを別の画像に適用し、別の画像の分類された顔面皮膚特性に基づいて、ユーザへの養生法推薦を更新する、ように更に構成されている。 In embodiments, the one or more processing circuits receive from a user another image representing facial skin of the user, apply a machine learning model to the other image to classify facial skin characteristics, and apply a machine learning model to the other image to classify facial skin characteristics. The method is further configured to update regimen recommendations to the user based on the determined facial skin characteristics.

実施形態では、1つ以上の処理回路は、ユーザの顔面皮膚がシミュレートされた未来の状態に進行するよう画像を処理するように更に構成されている。 In embodiments, the one or more processing circuits are further configured to process the image such that the user's facial skin progresses to a simulated future state.

実施形態では、シミュレートされた未来の状態は、養生法がユーザによって遵守されるときのユーザの顔面皮膚のシミュレートされた未来の状態である。 In embodiments, the simulated future state is a simulated future state of the user's facial skin when the regimen is followed by the user.

実施形態では、1つ以上の処理回路は、通信ネットワークを通じて通信可能に結合されたクライアントプラットフォーム及びサービスプラットフォームに物理的に分離される。 In embodiments, one or more processing circuits are physically separated into a client platform and a service platform that are communicatively coupled through a communications network.

実施形態では、1つ以上の処理回路は、それに提供される訓練画像から顔面皮膚特性を分類する入力を複数のユーザから受け付け、受け付けた入力を使用してモデルを訓練する、ように更に構成されている。 In embodiments, the one or more processing circuits are further configured to accept input from a plurality of users to classify facial skin characteristics from training images provided to it and to train a model using the received inputs. ing.

実施形態では、ユーザの顔面皮膚を表す少なくとも1つの画像をユーザから受け付けることと、顔面皮膚特性を分類するよう機械学習モデルを画像に適用することと、分類された顔面皮膚特性に基づいて、ユーザへの養生法推薦を生成することと、を含む方法が提供される。 Embodiments include receiving from a user at least one image representative of the user's facial skin, applying a machine learning model to the image to classify facial skin characteristics, and generating a user image based on the classified facial skin characteristics. A method is provided that includes: generating a regimen recommendation for a patient.

実施形態では、ユーザの顔面皮膚を表す少なくとも1つの画像を受け付ける処理回路と、受け付けた画像を機械学習モデルに伝達し、養生法推薦を機械学習モデルから受信する通信回路と、養生法推薦をユーザに提示するユーザインタフェース回路と、を含む装置が提供される。 In embodiments, a processing circuit receives at least one image representing facial skin of a user, a communication circuit communicates the received image to a machine learning model and receives a regimen recommendation from the machine learning model, and a communication circuit receives the regimen recommendation from the user. An apparatus is provided that includes a user interface circuit for presenting a user interface circuit.

実施形態では、処理回路は、ユーザの顔面皮膚を表す別の画像が予め定義されたスケジュールに従って必要とされることをユーザに警告し、ユーザの顔面皮膚を表す別の画像をユーザから受け付ける、ように更に構成され、通信回路は、別の画像を機械学習モデルに伝達し、更新された養生法推薦を機械学習モデルから受信するように更に構成され、ユーザインタフェース回路は、更新された養生法推薦をユーザに提示するように更に構成されている。 In embodiments, the processing circuitry is configured to alert the user that another image representing the user's facial skin is required according to a predefined schedule, and to accept from the user another image representing the user's facial skin. further configured to communicate the another image to the machine learning model and receive an updated regimen recommendation from the machine learning model, the user interface circuit further configured to communicate the updated regimen recommendation to the machine learning model; is further configured to present to the user.

実施形態では、ユーザインタフェース回路は、人間の顔の画像をユーザに提示するように更に構成され、処理回路は、ユーザインタフェース回路を通じて、それに提供される画像から顔面皮膚特性を分類する入力をユーザから受け付けるように更に構成され、通信インタフェース回路は、ユーザ入力を訓練データとして機械学習モデルに伝達するように更に構成されている。 In embodiments, the user interface circuit is further configured to present an image of a human face to the user, and the processing circuit receives input from the user, through the user interface circuit, to classify facial skin characteristics from the image provided to it. The communication interface circuit is further configured to receive, and the communication interface circuit is further configured to communicate user input as training data to the machine learning model.

実施形態では、ユーザインタフェース回路は、それによって顔面皮膚特性が予め定められた尺度上で評価されるユーザ制御を提示するように更に構成されている。 In embodiments, the user interface circuit is further configured to present user controls by which facial skin characteristics are evaluated on a predetermined scale.

実施形態では、ユーザからそれに画像を提供するよう処理回路に通信可能に結合されたカメラを更に含む。 Embodiments further include a camera communicatively coupled to the processing circuit to provide images thereto from a user.

実施形態では、カメラ、処理回路、ユーザインタフェース回路、及び通信回路は、スマートフォンの構成要素である。 In embodiments, the camera, processing circuitry, user interface circuitry, and communication circuitry are components of a smartphone.

実施形態では、ユーザの顔面皮膚を表す少なくとも1つの画像を受け付けることと、受け付けた画像を機械学習モデルに伝達することと、養生法推薦を機械学習モデルから受信することと、養生法推薦をユーザに提示することと、を含む方法が提供される。 Embodiments include receiving at least one image representative of facial skin of a user, communicating the received image to a machine learning model, receiving regimen recommendations from the machine learning model, and transmitting regimen recommendations to the user. A method is provided that includes:

それによって本一般的発明概念を具体化することができる実施例のシステム構成の概略ブロック図である。1 is a schematic block diagram of an exemplary system configuration by which the present general inventive concept may be embodied; FIG. 本一般的発明概念の実施形態との単純なユーザ対話のフローチャートである。3 is a flowchart of a simple user interaction with an embodiment of the present general inventive concept; 本一般的発明概念の実施形態の実施例のデータフローの概略ブロック図である。1 is a schematic block diagram of data flow for an example embodiment of the present general inventive concept; FIG. 本一般的発明概念の実施形態に従った、機械学習モデルのクラウドソース型訓練のブロック図である。1 is a block diagram of crowdsourced training of machine learning models in accordance with an embodiment of the present general inventive concept; FIG. その上で本一般的発明概念を具体化することができる実施例のクライアントプラットフォームデバイスの図である。1 is a diagram of an example client platform device upon which the present general inventive concepts may be implemented; FIG. 本一般的発明概念の実施形態に従った、機械学習モデルの実施例のクラウドソース型訓練のフローチャートである。2 is a flowchart of crowdsourced training of an example machine learning model in accordance with an embodiment of the present general inventive concept; クラウドソース型機械学習モデル訓練に従った、テスト操作を例示する図である。FIG. 3 is a diagram illustrating a test operation according to crowdsourced machine learning model training.

本発明概念は、添付図面を参照して本明細書で説明される、それらの特定の実施形態を通じて最良に説明され、添付図面では、同一の参照符号が全体を通じて同一の特徴を指す。発明(invention)という用語は、本明細書で使用されるとき、以下で説明される実施形態の根底にある発明概念を暗示することを意図しており、単に実施形態自体を意図しているわけではないことを理解されよう。更に、一般的発明概念は、以下で説明される例示的な実施形態に限定されず、以下の説明は、そのような認識において読まれるべきであることを理解されよう。 The inventive concepts are best explained through the specific embodiments thereof, which are herein described with reference to the accompanying drawings, in which like reference numerals refer to like features throughout. The term invention, as used herein, is intended to allude to the inventive concept underlying the embodiments described below, and not merely to the embodiments themselves. It will be understood that this is not the case. Furthermore, it will be understood that the general inventive concept is not limited to the exemplary embodiments described below, and the following description should be read with such an understanding.

加えて、例示的(exemplary)という単語は、「実施例、例、または例示としての役目を果たす(serving as an example,instance or illustration)」を意味するとして本明細書で使用される。例示であるとして本明細書で指定される構造、プロセス、設計、技術などのいずれかの実施形態は、他のそのような実施形態に対して好ましいまたは有利であるとして必ずしも解釈されない。例示的であるとして本明細書で示される実施例の特定の品質も適応度も意図されず、推定もされない。 Additionally, the word exemplary is used herein to mean "serving as an example, instance or illustration." Any embodiment of a structure, process, design, technique, etc. specified herein as exemplary is not necessarily to be construed as preferred or advantageous over other such embodiments. No particular quality or suitability of the embodiments shown herein as illustrative is intended or assumed.

説明
図1は、例示的な顔面健康及び美容アシスタント(FHBA)システム100の概略ブロック図であり、FHBAシステム100は、ネットワーク130を通じて通信可能に結合されたFHBAクライアントプラットフォーム110及びFHBAサービスプラットフォーム120を含む。一実施形態では、FHBAクライアントプラットフォーム110は、スマートフォン、タブレットコンピュータ、または他のモバイルコンピューティングデバイスであるが、本発明は、それに限定されない。図1に例示されるように、例示的なFHBAクライアントプラットフォーム110は、それらの上でFHBAクライアントインタフェース150を実装することができる、プロセッサ112、メモリ114、カメラ115、ユーザインタフェース116、及び通信インタフェース118を含む。FHBAクライアントインタフェース150は、一次ポータルを提供し、一次ポータルを通じて、ユーザは、FHBAシステム100にアクセスする。
DESCRIPTION FIG. 1 is a schematic block diagram of an exemplary facial health and beauty assistant (FHBA) system 100 that includes an FHBA client platform 110 and a FHBA service platform 120 communicatively coupled through a network 130. . In one embodiment, FHBA client platform 110 is a smartphone, tablet computer, or other mobile computing device, although the invention is not limited thereto. As illustrated in FIG. 1, an example FHBA client platform 110 includes a processor 112, a memory 114, a camera 115, a user interface 116, and a communication interface 118 on which an FHBA client interface 150 may be implemented. including. FHBA client interface 150 provides a primary portal through which users access FHBA system 100.

本発明の一実施形態では、FHBAサービスプラットフォーム120は、各々がプロセッサ122、メモリ124、ユーザインタフェース126、及び通信インタフェースを含む、1つ以上のサーバコンピュータを含む。FHBAサービスプラットフォーム120のそれらのリソースは、FHBAサービスインタフェース152、機械学習ロジック154、及び記憶メモリ156を実装するために利用されてもよい。記憶メモリ156は、発明を具体化するための十分な量の揮発性及び永続的メモリを表す。記憶メモリ156は更に、莫大な量の符号化された人間の知識と共に、単一のユーザのプライベートプロファイルに対する空間を包含してもよい。記憶メモリ156は更に、1つ以上のプロセッサ122によって実行されるとき、発明の実施形態のためのいくつかのタスクまたは手順を実行するプロセッサ命令を記憶してもよい。記憶メモリ156は更に、ユーザに対して特定の養生法を規定し、養生法の下でユーザの進行を追跡するよう機械学習ロジック154により動作可能であるユーザモデル(係数、重み、プロセッサ命令など)を記憶してもよい。 In one embodiment of the invention, FHBA service platform 120 includes one or more server computers, each including a processor 122, memory 124, user interface 126, and communication interface. Those resources of FHBA service platform 120 may be utilized to implement FHBA service interface 152, machine learning logic 154, and storage memory 156. Storage memory 156 represents a sufficient amount of volatile and persistent memory to embody the invention. Storage memory 156 may further contain space for a single user's private profile, as well as a vast amount of encoded human knowledge. Storage memory 156 may further store processor instructions that, when executed by one or more processors 122, perform a number of tasks or procedures for embodiments of the invention. Storage memory 156 further includes a user model (coefficients, weights, processor instructions, etc.) operable by machine learning logic 154 to define a particular regimen for the user and track the user's progress under the regimen. may be memorized.

例示的なFHBAサービスインタフェース152は、それによってFHBAサービスへのネットワークアクセスが促進及び制御の両方がされるインフラストラクチャを設ける。FHBAクライアントインタフェース150及びFHBAサービスインタフェース152は、それに対して通信インタフェース118及び通信インタフェース128が構築され、またはそうでなければ構成される、シグナリング及びデータ伝送プロトコルを使用して適切な通信リンク145を介して通信する。FHBAサービスインタフェース156は、適切なインターネットホスティングサービスと共に、承認されたユーザのみのアクセスを可能にし、ユーザのプライベートデータを保護する認証及び他のセキュリティ機構を実装してもよい。加えて、FHBAサービスインタフェース152は、例えば、機械学習ロジック154とのFHBAクライアントインタフェース150の通信を利用可能にするアプリケーションプログラミングインタフェース(API)を実現することができる。当業者は、本発明と共に使用することができる他のフロントエンドサービスを認識するであろう。 The example FHBA service interface 152 provides an infrastructure by which network access to FHBA services is both facilitated and controlled. FHBA client interface 150 and FHBA service interface 152 communicate over appropriate communications links 145 using signaling and data transmission protocols to which communications interfaces 118 and 128 are constructed or otherwise configured. to communicate. FHBA service interface 156, along with appropriate Internet hosting services, may implement authentication and other security mechanisms to allow access only to authorized users and protect users' private data. Additionally, FHBA service interface 152 may implement an application programming interface (API) that enables FHBA client interface 150 to communicate with machine learning logic 154, for example. Those skilled in the art will recognize other front end services that can be used with the present invention.

機械学習ロジック154は、そのように明示的にプログラミングされることなく、データから学習し、データに関して予測を行う発明の実施形態のためのインフラストラクチャを設ける。特定の実施形態では、機械学習ロジック154は、以下に説明されるように、1つ以上の畳み込みニューラルネットワーク(CNN)、オープンソースデータセットを使用して訓練することができるモデル、またはクラウドソース型データセットを実装する。それらに限定されないが、決定木学習、アソシエーションルール学習、人工ニューラルネットワーク、ディープラーニング、帰納論理プログラミング、サポートベクトルマシン、クラスタリング、ベイジアンネットワーク、強化学習、表現学習、類似性及び距離学習、スパース辞書学習、遺伝的アルゴリズム、ルールに基づく機械学習、並びに学習分類器を含む、他の機械学習技術が本発明と共に使用されてもよい。それらの全てが参照によって本明細書に組み込まれる、米国特許第8,442,321号、米国特許第9,015,083号、米国特許第9,536,293号、米国特許第9,324,022号、及び米国特許出願公開第2014/0376819号明細書において説明される追加の技術が本発明と共に使用されてもよい。以下に続く説明では、機械学習ロジックが畳み込みニューラルネットワークを実装するが、本発明はそれに限定されないことが想定される。人工知能における当業者は、その精神及び意図した範囲から逸脱することなく、本発明と共に使用することができる多数の技術を認識するであろう。 Machine learning logic 154 provides an infrastructure for embodiments of the invention to learn from and make predictions about data without being explicitly programmed to do so. In certain embodiments, machine learning logic 154 includes one or more convolutional neural networks (CNNs), models that can be trained using open source datasets, or crowdsourced models, as described below. Implement the dataset. including but not limited to decision tree learning, association rule learning, artificial neural networks, deep learning, inductive logic programming, support vector machines, clustering, Bayesian networks, reinforcement learning, representation learning, similarity and distance learning, sparse dictionary learning, Other machine learning techniques may be used with the present invention, including genetic algorithms, rule-based machine learning, and learning classifiers. U.S. Patent No. 8,442,321, U.S. Patent No. 9,015,083, U.S. Patent No. 9,536,293, U.S. Patent No. 9,324, all of which are incorporated herein by reference. Additional techniques described in No. 022 and US Patent Application Publication No. 2014/0376819 may be used with the present invention. In the description that follows, it is assumed that the machine learning logic implements a convolutional neural network, but the invention is not so limited. Those skilled in the art of artificial intelligence will recognize numerous techniques that can be used with the present invention without departing from its spirit and intended scope.

発明の実施形態は、FHBAクライアントプラットフォーム110上でカメラ116によって撮られたユーザの画像に基づいて、ユーザに対する様々な養生法を判定する。特定の実施形態では、ユーザの顔の画像は好ましくは、経時的に一貫した一様な照明の条件下で取得される。この目的のため、及び図1を参照して、発明の実施形態は、環状照明器142によって囲まれた鏡面144を含むミラーデバイス140を設ける。この構成は、照明の時間的に一定の基準を定義することを意図している。発明がこのように具体化されるとき、ユーザの顔の画像における時間的に変化する特性がより容易に認識及びラベル付けされる。 Embodiments of the invention determine various regimens for the user based on images of the user taken by camera 116 on FHBA client platform 110. In certain embodiments, images of the user's face are preferably obtained under conditions of uniform illumination that is consistent over time. To this end, and with reference to FIG. 1, embodiments of the invention provide a mirror device 140 that includes a mirror surface 144 surrounded by an annular illuminator 142. This configuration is intended to define a temporally constant reference of illumination. When the invention is embodied in this manner, time-varying characteristics in images of a user's face are more easily recognized and labeled.

図2は、それによって発明の実施形態を用いて対話の例を説明することができるフローチャートである。図2の対話は、設計が単純であり、限定することを何ら意図していない。図2の説明は、図1に例示された構成の機能性を例示することを意図している。図2を参照して説明される特徴を超えて、発明の更なる特徴が以下で議論される。 FIG. 2 is a flowchart by which example interactions may be described using embodiments of the invention. The interaction of FIG. 2 is simple in design and is not intended to be limiting in any way. The description of FIG. 2 is intended to illustrate the functionality of the configuration illustrated in FIG. Beyond the features described with reference to FIG. 2, further features of the invention are discussed below.

動作210では、ユーザは、FHBAクライアントプラットフォーム110のカメラ116などによって、ユーザの顔の画像を生成してもよい。これは、上記議論された照明の基準によりまたは照明の基準なしに達成されてもよい。動作215では、ユーザの画像は、FHBAサービスプラットフォーム120に送信される。これは、通信リンク145を実現するようFHBAクライアントプラットフォーム110とFHBAサービスプラットフォーム120との間で共有される適切な通信プロトコルによって達成されてもよい。 In act 210, the user may generate an image of the user's face, such as by camera 116 of FHBA client platform 110. This may be accomplished with or without the lighting criteria discussed above. In act 215, the user's image is sent to the FHBA service platform 120. This may be accomplished by a suitable communication protocol shared between FHBA client platform 110 and FHBA service platform 120 to implement communication link 145.

動作220では、画像からユーザの皮膚を分析するよう画像分析及び機械学習が行われる。機械学習ロジック154は、とりわけ、見た目年齢、すなわち、ユーザの顔の視覚的な外観から推定されるユーザの主観的な年齢、顔面皮膚のトーンの均一性(できもの、年齢による染み/日焼けによる染み、ニキビの跡、及び他の欠陥があるか)、目の下のむくみ、目の周りのくま、まぶた/口角における全体的なトーンの垂れ下がり、小じわ、及び目の赤みにおいて見られるストレスの存在、粉ふき、皮膚の剥がれ、くすみ、及び小じわを欠くことを示す、ふくよかまたはなめらかと称されることが多い水和レベル、輝き-理想が適度な量の輝きである非線形パラメータ、毛穴の状態-毛穴の少ない外観が、健康的、若い、及び平坦な皮膚の触感をもたらすので望ましい、赤い/赤く腫れた吹出物及び傷によって特徴付けられるようなニキビの存在、分析を通じて発見することができる皮膚におけるしわ、ひだ、畝、または折り目の存在、たるみ、すなわち、弾力性の減少によって生じる柔らかい組織の垂れ下がった外観の存在、並びに人間の目の外周に特に位置するカラスの足跡、分岐するしわの存在、を判定する分析を実行してもよい。皮膚の他の状態は、機械学習ロジック154によって判定されてもよい。分析の更なる詳細は、以下で提供される。分析が完了すると、動作225において判定されるように、処理200は、分析結果及び規定された養生法(製品及びルーチン)、並びに/または養生法への更新がFHBAクライアントインタフェース150を介してユーザに送信される、動作220に遷移してもよい。 In operation 220, image analysis and machine learning is performed to analyze the user's skin from the image. The machine learning logic 154 includes, among other things, visual age, i.e., the user's subjective age as estimated from the visual appearance of the user's face, the uniformity of facial skin tone (bumps, age spots/sun spots), , acne scars, and other imperfections), puffiness under the eyes, dark circles around the eyes, overall drooping tone at the eyelids/corners of the mouth, fine lines, and the presence of stress as seen in the redness of the eyes, flakiness , hydration level, often referred to as plump or smooth, indicating the lack of peeling, dullness, and fine lines in the skin, radiance – a non-linear parameter where the ideal is a moderate amount of radiance, pore condition – fewer pores Presence of acne, wrinkles, folds in the skin, which can be discovered through analysis, as the appearance is characterized by red/red swollen pimples and blemishes, which is desirable as it gives a healthy, youthful and flat skin feel. Analysis to determine the presence of ridges or folds, the presence of sagging, i.e., the drooping appearance of soft tissues caused by decreased elasticity, as well as the presence of crow's feet, branching wrinkles, particularly located around the periphery of the human eye. may be executed. Other conditions of the skin may be determined by machine learning logic 154. Further details of the analysis are provided below. Once the analysis is complete, process 200 provides the analysis results and the prescribed regimen (products and routines) and/or updates to the regimen to the user via FHBA client interface 150, as determined in operation 225. The information may be transmitted to act 220.

動作225では、分析が完了したかどうかが判定され、その肯定判定に応答して、処理200は、動作230において、FHBAサービスインタフェース152が推薦された養生法または養生法への更新をFHBAクライアントインタフェース150に送信する、動作230に遷移してもよい。ユーザは、動作235において示されたような養生法に従ってもよく、動作240では、新たなインターバルが開始したかどうかが判定される。そうである場合、処理200は、動作210から繰り返す。FHBAクライアントインタフェース150は、FHBAクライアントプラットフォーム110に搭載されたカレンダ及びタイマ(GPSも)にアクセスすると共に、ネットワーク130上で、ネットワークアクセス可能カレンダにアクセスしてもよい。したがって、例えば、週に1回、FHBAクライアントインタフェース150は、ユーザの顔の写真を撮ることをユーザに思い出させてもよく、すなわち、新たなインターバルをユーザに思い出させてもよい。経時的に、FHBAシステム100は、各々のインターバルにおいて撮られた画像から、推薦された養生法が作用しているかどうかを判定することができ、そうでない場合、FHBAシステム100は、養生法を改訂してもよく、例えば、製品を変更し、更なるライフスタイルの変更を推薦し、医者の予約を行うなどしてもよい。 In act 225, it is determined whether the analysis is complete, and in response to the affirmative determination, process 200 causes FHBA service interface 152 to send the recommended regimen or updates to the regimen to FHBA client interface in act 230. 150, and may transition to act 230. The user may follow a regimen as shown in act 235, and in act 240 it is determined whether a new interval has begun. If so, process 200 repeats from operation 210. FHBA client interface 150 has access to a calendar and timer (also GPS) onboard FHBA client platform 110 and may access a network-accessible calendar over network 130. Thus, for example, once a week, the FHBA client interface 150 may remind the user to take a picture of the user's face, ie, remind the user of a new interval. Over time, the FHBA system 100 can determine from images taken at each interval whether the recommended regimen is working, and if not, the FHBA system 100 can revise the regimen. For example, it may change products, recommend further lifestyle changes, make doctor's appointments, etc.

図3は、例示的なFHBAクライアントインタフェース150とFHBAサービスプラットフォーム120のサービスとの間のデータフローの図である。図3では、図において不必要な過密を避けるために、FHBAサービスインタフェース152が省略されていることを留意されるべきである。しかしながら、関連する分野における当業者は、図3に表されるデータフローを制御及び促進するFHBAサービスインタフェース152の動作を認識するであろう。 FIG. 3 is a diagram of data flow between an example FHBA client interface 150 and services of FHBA service platform 120. It should be noted that in FIG. 3, the FHBA service interface 152 has been omitted to avoid unnecessary clutter in the diagram. However, those skilled in the relevant art will recognize the operation of the FHBA service interface 152 that controls and facilitates the data flow depicted in FIG.

図3に例示されるように、機械学習ロジック154は、皮膚アナライザ330、顔面外観進行ジェネレータ335、及び養生法推薦ジェネレータ340を含んでもよく、ユーザアカウントデータベース310及び製品データベース320に通信可能に結合されてもよい。機械学習ロジック154は、養生法を推薦し、養生法の下でのユーザの進行を追跡するよう、機械学習モデル370を訓練及び利用してもよい。機械学習における当業者が証明するように、訓練は、特徴のセット、例えば、見た目年齢、均一性、ストレス、水和性、輝き、毛穴、ニキビ、しわ、たるみ、カラスの足跡などを選択すること、及びそれらの特徴の存在または突出度を反映する画像データにラベルを割り当てることを伴ってもよい。ラベルを割り当てることは、主題の専門家によって、または以下に説明されるようにクラウドソース型データを通じて実行されてもよい。割り当てられたラベルを正解と見なして、機械学習ロジック154は、経時的に変化することがある、テスト画像に特徴が存在する程度を予測するようモデル370を構成してもよい。本発明は、二値モデル、マルチクラス分類モデル、回帰モデルなどを含むことができる特定のモデル表現に限定されない。 As illustrated in FIG. 3, machine learning logic 154 may include a skin analyzer 330, a facial appearance progression generator 335, and a regimen recommendation generator 340, and is communicatively coupled to a user account database 310 and a product database 320. You can. Machine learning logic 154 may train and utilize machine learning model 370 to recommend regimens and track the user's progress through the regimen. As those skilled in machine learning will attest, training involves selecting a set of features, e.g. appearance age, uniformity, stress, hydration, shine, pores, acne, wrinkles, sagging, crow's feet, etc. , and assigning labels to the image data that reflect the presence or prominence of those features. Assigning labels may be performed by subject matter experts or through crowd-sourced data as described below. Considering the assigned label as the correct answer, machine learning logic 154 may configure model 370 to predict the degree to which the feature is present in the test image, which may change over time. The invention is not limited to particular model representations, which may include binary models, multi-class classification models, regression models, and the like.

例示的なユーザアカウントデータベース310は、安全な方式においてFHBAシステム100の全てのユーザのデータを包含する。これは、ユーザプロファイルデータ、各々のユーザについての現在及び過去のユーザ写真357、各々のユーザについての現在及び過去の皮膚分析358、並びに各々のユーザについての現在及び過去の製品推薦362と現在及び過去のルーチン推薦364を含む。 The exemplary user account database 310 contains data for all users of the FHBA system 100 in a secure manner. This includes user profile data, current and past user photos 357 for each user, current and past skin analysis 358 for each user, and current and past product recommendations 362 for each user. routine recommendations 364.

例示的な製品データベース320は、養生法において使用することができる異なる製品のデータを包含する。製品データベース320は、製品名、活性及び非活性含有物、ラベル情報、並びに推薦された使用などを反映する記録を包含してもよい。特定の実施形態では、製品入力354として例示されるように、ユーザ(及び、FHBAシステム100の他のユーザ)は、異なる製品に関するフィードバックを提供してもよく、製品データベース320に存在しない製品を入力してもよい。本発明は、製品データベース320に入力することができる特定の製品に限定されない。 Exemplary product database 320 includes data for different products that can be used in a regimen. Product database 320 may include records reflecting product name, active and inactive ingredients, label information, recommended uses, and the like. In certain embodiments, users (and other users of FHBA system 100) may provide feedback regarding different products, as illustrated by product input 354, and may enter products that are not present in product database 320. You may. The present invention is not limited to specific products that can be entered into product database 320.

皮膚アナライザ330は、モデル370を通じて機械学習技術を使用して、ユーザの顔の像から様々な皮膚状態またはアーチファクトを分類するように構築、またはそうでなければ構成される。特定の実施形態では、ユーザの顔の写真画像352は、分析のために皮膚アナライザ330に提供される。皮膚アナライザ330は、分析の前に入力画像をクロッピングし、回転し、登録し、及びフィルタリングすることを含む画像前処理機構を実装してもよい。いずれかのそのような前処理の後、皮膚アナライザ330は、ユーザの顔面皮膚の特性を特定、識別、及び分類するようモデル370を入力画像357に適用してもよい。 Skin analyzer 330 is constructed or otherwise configured to classify various skin conditions or artifacts from the image of the user's face using machine learning techniques through model 370. In certain embodiments, a photographic image 352 of the user's face is provided to the skin analyzer 330 for analysis. Skin analyzer 330 may implement image pre-processing mechanisms including cropping, rotating, registering, and filtering the input image prior to analysis. After any such pre-processing, skin analyzer 330 may apply model 370 to input image 357 to identify, identify, and classify characteristics of the user's facial skin.

顔面外観進行ジェネレータ335は、ユーザの顔が未来のいずれかの時にどのように見えるかを描くようユーザの顔面画像に対して動作してもよい。そのような進行は、年齢進行技術を展開することができる、年齢によるもの、または、養生法への遵守から生じる外観によるものであってもよい。進行した画像356は、FHBAクライアントインタフェース150を通じてユーザに提供されてもよい。 Facial appearance progression generator 335 may operate on the user's facial image to depict what the user's face will look like at some time in the future. Such progression may be due to age, for which age progression techniques can be deployed, or to appearance resulting from compliance with a regimen. The advanced image 356 may be provided to the user through the FHBA client interface 150.

養生法推薦ジェネレータ340は、養生法を処方することに向けて皮膚アナライザ430からユーザに取得された分析結果358に対して動作してもよい。モデル370は、どの製品及びルーチン(処置、化粧及びライフスタイルの推薦など)が皮膚分析において識別された顔面皮膚特性に関してユーザの目標を満たすのに効果的であるかを予測するよう訓練されてもよい。養生法推薦ジェネレータ340は、モデル370対して符号化された知識に基づいて、例えば、製品データベース320へのクエリとして皮膚アナライザ330の分析結果358をフォーマットしてもよい。それに応答して、製品データベース320は、製品データ及びメタデータ366を返してもよく、製品推薦362及びルーチン推薦364は、FHBAクライアントインタフェース150に提供されてもよい。 The regimen recommendation generator 340 may operate on the analysis results 358 obtained from the skin analyzer 430 to the user toward prescribing a regimen. The model 370 may be trained to predict which products and routines (such as treatments, cosmetics and lifestyle recommendations) will be effective in meeting the user's goals with respect to facial skin characteristics identified in the skin analysis. good. The regimen recommendation generator 340 may format the analysis results 358 of the skin analyzer 330 as a query to the product database 320, for example, based on the knowledge encoded for the model 370. In response, product database 320 may return product data and metadata 366, and product recommendations 362 and routine recommendations 364 may be provided to FHBA client interface 150.

上記示されたように、モデル370の訓練は、専門家によって画像データをラベル付けすることによって達成されてもよい。しかしながら、専門家の代わりに、発明の特定の実施形態は、クラウドソース型データを訓練データとして利用する。図4は、発明のそのような実施形態の図である。訓練の間、ユーザ410は、訓練画像のセット420を提示され、訓練画像のセット420に対して、顔面皮膚特性及び/または顔面特徴を特徴付けるよう問われる。一実施形態では、それによりユーザが特徴の重大性または突出度を評価することができる適切な尺度(例えば、整数1~10)が構築される。例えば、ユーザ410の各々は(経時的に)、多数の顔面画像を提示され、画像内の人の特徴及び/または皮膚特性に関する質問のセットを一通り説明される。尺度(1~10)を使用して、各々のユーザ410は、特徴の各々(例えば、見た目年齢、均一性、ストレス、水和性、輝き、毛穴、ニキビ、しわ、たるみ、カラスの足跡など)の突出度を評価するよう問われる。質問への回答は、機械言語ロジック154を訓練するために使用されるラベルとしての役目を果たしてもよい。 As indicated above, training of model 370 may be accomplished by labeling image data by an expert. However, instead of experts, certain embodiments of the invention utilize crowdsourced data as training data. FIG. 4 is a diagram of such an embodiment of the invention. During training, the user 410 is presented with a set of training images 420 and asked to characterize facial skin properties and/or facial features for the set of training images 420. In one embodiment, a suitable scale (eg, an integer from 1 to 10) is constructed by which a user can rate the severity or salience of a feature. For example, each of the users 410 is presented (over time) with a number of facial images and walked through a set of questions regarding the features and/or skin characteristics of the person in the images. Using a scale (1-10), each user 410 can determine each of the characteristics (e.g., appearance age, evenness, stress, hydration, shine, pores, acne, wrinkles, sagging, crow's feet, etc.) asked to rate the prominence of Answers to questions may serve as labels used to train machine language logic 154.

図5を参照して、ユーザインタフェース118としてタッチスクリーン510を有するスマートフォンの形式の例示的なFHBAクライアントプラットフォーム110が例示される。例示的なFHBAクライアントインタフェース150は、図1を参照して議論されたようなFHBAクライアントプラットフォーム110の計算リソース上で実装される。FHBAクライアントインタフェース150は、画像領域520に人間の顔の写真を提示してもよく、テキスト142を介して、「1~10の尺度上で、この人のカラスの足跡の存在をどのように評価するか?について、『1』は、『見えない』を意味し、『10』は、『突出して存在する』を意味する」を提示してもよい。ユーザがその評価を入力することを可能にする適切なユーザインタフェース制御144(図5に例示されるスライダ制御)がFHBAクライアントインタフェース150上で実装されてもよい。 Referring to FIG. 5, an exemplary FHBA client platform 110 in the form of a smartphone having a touch screen 510 as the user interface 118 is illustrated. The example FHBA client interface 150 is implemented on the computational resources of the FHBA client platform 110 as discussed with reference to FIG. The FHBA client interface 150 may present a photograph of a human face in the image area 520 and, via text 142, ask, ``On a scale of 1 to 10, how would you rate the presence of crow's feet on this person?'' "1" means "not visible," and "10" means "prominently present." A suitable user interface control 144 (a slider control illustrated in FIG. 5) may be implemented on the FHBA client interface 150 to allow the user to enter his or her rating.

図6は、それにより本発明を具体化することができるクラウドソース型訓練処理600のフローチャートである。動作610では、訓練画像がFHBAクライアントインタフェース150に提供されてもよい。訓練画像のセット420は、関心の皮膚特性の例示的な実施例を含むとして事前選択されていてもよい。動作620では、ユーザは、第1の質問を提供され、動作630において回答(評価)を待つ。そのような回答は、例えば、「1~10の尺度上で、このモデルのニキビをどのように評価するか?について、『1』は、『見えない』であり、『10』は、『非常に突出している』である」であってもよい。ユーザが質問に回答したとき、動作630において判定されるように、ユーザの回答は、動作640において機械学習ロジック154の機械訓練に適切なラベルにフォーマットされてもよい。動作650では、現在表示されている画像に関連する全ての質問が回答されたかどうかが判定される。そうでない場合、処理600は、次の質問が提示される、動作620に再度遷移する。全ての質問が回答された場合、動作650において判定されるように、全ての訓練画像が提示されたかどうかが動作560において判定される。そうでない場合、処理600は、次の訓練画像が提示される、動作610に再度遷移する。全ての訓練画像が提示された場合、動作660において判定されるように、ラベル付けされた画像は、動作670においてモデル370を訓練するために使用されてもよい。 FIG. 6 is a flowchart of a crowdsourced training process 600 by which the present invention may be implemented. At operation 610, training images may be provided to the FHBA client interface 150. The set of training images 420 may be preselected as including exemplary examples of skin characteristics of interest. In act 620, the user is provided with a first question and waits for an answer (rating) in act 630. Such an answer could be, for example, ``On a scale of 1 to 10, how would you rate this model's acne?'' ``1'' is ``not visible,'' and ``10'' is ``very severe.'' It may also be 'prominent'. When the user answers the question, as determined in operation 630, the user's answer may be formatted into a label appropriate for machine training of machine learning logic 154 in operation 640. In operation 650, it is determined whether all questions associated with the currently displayed image have been answered. If not, the process 600 transitions again to operation 620 where the next question is posed. If all questions have been answered, as determined in act 650, it is determined in act 560 whether all training images have been presented. If not, the process 600 transitions again to operation 610 where the next training image is presented. If all training images have been presented, as determined in operation 660, the labeled images may be used to train model 370 in operation 670.

処理600における全ての繰り返し、例えば、動作620及び650において次の質問を提示すること、並びに/または動作610及び660において次の画像を提示することは、いずれかの1つのシッティングにおいて実行される必要はない。例えば、ユーザは、単一の質問を一度に回答することを促されてもよく(例えば、ユーザがログオンする都度)、時間をかけてのみ全ての質問及び画像がいずれかの1人のユーザに提示される。代わりに、ユーザは、単一のシッティングにおいて全ての画像についての全ての質問を回答するように選択されてもよい。大多数のユーザ及び/または顔面画像にわたって、多くのラベルが訓練モデル370に対して生成されてもよく、そのような訓練の根底にある統計的傾向は、人間の専門家の統計的傾向とは反対にパブリックビューを反映する。 All iterations in process 600, such as presenting the next question in acts 620 and 650 and/or presenting the next image in acts 610 and 660, need to be performed in any one sitting. There isn't. For example, a user may be prompted to answer a single question at once (e.g., each time the user logs on), and only over time will all questions and images be answered by any one user. Presented. Alternatively, the user may choose to answer all questions for all images in a single sitting. Many labels may be generated for the training model 370 over a large number of user and/or facial images, and the statistical trends underlying such training are different from those of human experts. On the contrary, it reflects the public view.

図7は、上記議論されたクラウドソース型訓練に従った実施例のテスト動作を例示する。テスト画像710、すなわち、ユーザの自身の画像は、機械学習ロジック154に提示されてもよく、機械学習ロジック154は、クラウドソース型データ720に対して訓練されたモデルごとに画像を分析する。図に例示されるように、機械学習ロジック154は、調査された人の内の80%が、722において示されるように、突出度の観点で、ユーザのカラスの足跡を10のうち7であると評価すると推定する。したがって、機械学習ロジック154は、7という重大度スコアに基づいて、養生法を推薦してもよい(例えば、カラスの足跡に対して特に考案され、塗布の指示を推薦されたクリーム)。 FIG. 7 illustrates the testing operation of an embodiment according to the crowdsourced training discussed above. Test images 710, ie, the user's own images, may be presented to machine learning logic 154, which analyzes the images for each model trained against crowdsourced data 720. As illustrated in the figure, the machine learning logic 154 determines that 80% of those surveyed rate the user's crow's feet 7 out of 10 in terms of prominence, as shown at 722. It is estimated that the evaluation is as follows. Accordingly, machine learning logic 154 may recommend a regimen (eg, a cream specifically formulated for crow's feet and recommend application instructions) based on a severity score of 7.

当業者によって認識されるように、本発明の態様は、システム、方法、またはコンピュータプログラム製品として具体化されてもよい。したがって、本発明の態様は、全てが本明細書で全体的に「回路」、「モジュール」、または「システム」と称されてもよい、全体的にハードウェアの実施形態、全体的にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、またはソフトウェア及びハードウェア態様を組み合わせた実施形態の形式を取ってもよい。更に、本発明の態様は、そこで具体化されたコンピュータ可読プログラムコードを有する1つ以上のコンピュータ可読媒体(複数可)において具体化されたコンピュータプログラム製品の形式を取ってもよい。 As will be appreciated by those skilled in the art, aspects of the invention may be embodied as a system, method, or computer program product. Accordingly, aspects of the invention may be implemented in an entirely hardware embodiment, an entirely software embodiment, all of which may be referred to herein as a "circuit," "module," or "system." It may take the form of an embodiment (including firmware, resident software, microcode, etc.) or an embodiment combining software and hardware aspects. Furthermore, aspects of the invention may take the form of a computer program product embodied in one or more computer readable medium(s) having computer readable program code embodied thereon.

1つ以上のコンピュータ可読媒体(複数可)のいずれかの組み合わせが利用されてもよい。コンピュータ可読媒体は、例えば、それらに限定されないが、電機、磁気、光学、電磁気、赤外線、もしくは半導体システム、装置、もしくはデバイス、または上述したもののいずれかの適切な組み合わせであってもよい。コンピュータ可読記憶媒体のより特定の実施例(非包括的なリスト)は、1つ以上の配線を有する電機接続、ポータブルコンピュータディスケット、ハードディスク、ソリッドステートディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プルグラマブルリードオンリメモリ(EPROMもしくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリメモリ(CD-ROM)、光学式記憶装置、磁気記憶装置、相変化メモリ記憶装置、または上述したもののいずれかの適切な組み合わせを含む。この明細書のコンテキストでは、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスによる使用またはそれらと関連した使用のためのプログラムを包含または記憶することができるいずれかの有形媒体であってもよい。 Any combination of one or more computer readable media(s) may be utilized. The computer readable medium may be, for example, but not limited to, an electrical, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device, or any suitable combination of the above. More specific examples (non-exhaustive list) of computer-readable storage media include an electrical connection having one or more wires, a portable computer diskette, a hard disk, a solid-state disk, a random access memory (RAM), a read-only memory ( ROM), erasable programmable read-only memory (EPROM or flash memory), fiber optics, portable compact disk read-only memory (CD-ROM), optical storage, magnetic storage, phase change memory storage, or any of the above. including any appropriate combination of the following: In the context of this specification, a computer-readable storage medium is any tangible medium capable of containing or storing a program for use by or in connection with an instruction execution system, apparatus, or device. good.

本発明の態様のための動作を実施するコンピュータプログラムコードは、1つ以上のプログラミング言語、例えば、Java、Smalltalk、もしくはC++などのオブジェクト指向プログラミング言語、または「C」プログラミング言語もしくは同様のプログラミング言語などの従来の手続型プログラミング言語のいずれかの組み合わせにおいて記述されてもよい。プログラムコードは、ユーザのコンピュータ上で全体的に、ユーザのコンピュータ上で部分的に、スタンドアロンソフトウェアパッケージとして、ユーザのコンピュータ上で部分的及びリモートコンピュータ上で部分的に、またはリモートコンピュータもしくはサーバ上で全体的に実行してもよい。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)もしくはワイドエリアネットワーク(WAN)を含むいずれかのタイプのネットワークを通じてユーザのコンピュータに接続されてもよく、または外部コンピュータへの接続が行われてもよい(例えば、インターネットサービスプロバイダを使用してインターネットを通じて)。本発明の実施形態のコンピュータシステムに対するソフトウェアは、明細書に包含された機能的説明及び図において例示されたフローチャートに基づいて、コンピュータの分野における当業者によって開発されてもよいことを理解されよう。更に、様々な機能を実行するソフトウェアの本明細書におけるいずれかの言及は、ソフトウェア制御の下でそれらの機能を実行するコンピュータシステムまたはプロセッサを全体的に指す。 Computer program code implementing operations for aspects of the invention may be implemented in one or more programming languages, such as an object-oriented programming language such as Java, Smalltalk, or C++, or the "C" programming language or similar programming language. may be written in any combination of traditional procedural programming languages. The program code may be executed entirely on a user's computer, in part on a user's computer, as a stand-alone software package, partially on a user's computer and partially on a remote computer, or on a remote computer or server. It may be performed in its entirety. In the latter scenario, the remote computer may be connected to the user's computer through any type of network, including a local area network (LAN) or wide area network (WAN), or a connection to an external computer may be made. (e.g., over the Internet using an Internet service provider). It will be appreciated that software for the computer system of embodiments of the invention may be developed by one skilled in the computer arts based on the functional descriptions included in the specification and the flowcharts illustrated in the figures. Furthermore, any references herein to software performing various functions refer generally to a computer system or processor performing those functions under software control.

本発明の実施形態のコンピュータは代わりに、いずれかのタイプのハードウェア及び/または他の処理回路によって実装されてもよい。コンピュータシステムの様々な機能は、いずれかの数のソフトウェアモジュールまたはユニット、プロセシングまたはコンピュータシステム及び/または回路の間でいずれかの方式において分散されてもよく、コンピュータまたはプロセシングシステムは、相互にローカルまたはリモートに配置されてもよく、いずれかの適切な通信媒体(例えば、LAN、WAN、イントラネット、インターネット、ハードワイヤ、モデム接続、無線など)を介して通信してもよい。 Computers of embodiments of the invention may alternatively be implemented with any type of hardware and/or other processing circuitry. The various functions of a computer system may be distributed in any manner between any number of software modules or units, processing or computer systems and/or circuits, and the computers or processing systems may be local or It may be located remotely and may communicate via any suitable communication medium (eg, LAN, WAN, intranet, Internet, hardwired, modem connection, wireless, etc.).

上記実施例は、発明の実施形態の特定の機能性の例示であり、限定することを意図していない。確かに、他の機能性及び他のとり得る使用ケースが本開示をレビューすると当業者にとって明らかである。 The above examples are illustrative of particular functionality of embodiments of the invention and are not intended to be limiting. Indeed, other functionality and other possible use cases will be apparent to those skilled in the art upon reviewing this disclosure.

Claims (13)

機械学習モデルを記憶するように構成された1つ以上のメモリ回路と、
ユーザの顔面皮膚を表す少なくとも1つの画像を前記ユーザから受け付け、
顔面皮膚特性を分類するよう前記機械学習モデルを前記画像に適用し、
前記分類された顔面皮膚特性に基づいて、前記ユーザへの製品推薦を含む養生法推薦を生成する、
ように構成された1つ以上の処理回路と、
前記養生法推薦に含まれる異なる製品のデータを含む製品データベースと、
を備え、
前記1つ以上の処理回路は、前記ユーザの顔面皮膚がシミュレートされた未来の状態に進行するよう前記画像を、年齢進行技術を用いることにより処理するように更に構成され、
前記1つ以上の処理回路は、
前記ユーザの顔面皮膚を表す別の画像が予め定義されたスケジュールに従って必要とされることを前記ユーザに警告し、
ユーザの顔面皮膚を表す別の画像を前記ユーザから受け付け、
顔面皮膚特性を分類するよう前記機械学習モデルを前記別の画像に適用し、
前記別の画像の前記分類された顔面皮膚特性に基づいて、前記ユーザへの前記養生法推薦を更新する、ように更に構成され、
前記製品データベースは、前記製品データベースに存在しない製品のデータをユーザから受け付けるように構成され、
前記シミュレートされた未来の状態は、前記養生法が前記ユーザによって遵守されるときの前記ユーザの顔面皮膚のシミュレートされた未来の状態である、システム。
one or more memory circuits configured to store the machine learning model;
receiving from the user at least one image representative of the user's facial skin;
applying the machine learning model to the image to classify facial skin characteristics;
generating regimen recommendations including product recommendations to the user based on the classified facial skin characteristics;
one or more processing circuits configured to;
a product database containing data of different products included in the regimen recommendation;
Equipped with
the one or more processing circuits are further configured to process the image using an age progression technique such that the user's facial skin progresses to a simulated future state;
The one or more processing circuits include:
alerting the user that another image representing the user's facial skin is required according to a predefined schedule;
receiving from the user another image representing the user's facial skin;
applying the machine learning model to the other image to classify facial skin characteristics;
further configured to update the regimen recommendation to the user based on the classified facial skin characteristics of the another image;
The product database is configured to receive data on products that do not exist in the product database from a user,
The system wherein the simulated future state is a simulated future state of the user's facial skin when the regimen is adhered to by the user.
前記1つ以上の処理回路は、通信ネットワークを通じて通信可能に結合されたクライアントプラットフォーム及びサービスプラットフォームに物理的に分離される、請求項1に記載のシステム。 2. The system of claim 1, wherein the one or more processing circuits are physically separated into a client platform and a service platform that are communicatively coupled through a communications network. 前記1つ以上の処理回路は、
提供される訓練画像から前記顔面皮膚特性を分類する入力を複数のユーザから受け付け、
前記受け付けた入力を使用して前記機械学習モデルを訓練する、
ように更に構成されている、請求項1に記載のシステム。
The one or more processing circuits include:
receiving input from a plurality of users for classifying the facial skin characteristics from provided training images;
training the machine learning model using the received input;
The system of claim 1, further configured to.
ユーザの顔面皮膚を表す少なくとも1つの画像を前記ユーザから受け付けることと、
養生法推薦に含まれる異なる製品のデータを含む製品データベースに存在しない製品のデータをユーザから受け付けることと、
顔面皮膚特性を分類するよう機械学習モデルを前記画像に適用することと、
前記分類された顔面皮膚特性に基づいて、前記ユーザへの製品推薦を含む前記養生法推薦を生成することと、
前記ユーザの顔面皮膚がシミュレートされた未来の状態に進行するよう前記画像を、年齢進行技術を用いることにより処理することと、
前記ユーザの顔面皮膚を表す別の画像が予め定義されたスケジュールに従って必要とされることを前記ユーザに警告することと、
ユーザの顔面皮膚を表す別の画像を前記ユーザから受け付けることと、
顔面皮膚特性を分類するよう前記機械学習モデルを前記別の画像に適用することと、
前記別の画像の前記分類された顔面皮膚特性に基づいて、前記ユーザへの前記養生法推薦を更新することと、
を含み、
前記シミュレートされた未来の状態は、前記養生法が前記ユーザによって遵守されるときの前記ユーザの顔面皮膚のシミュレートされた未来の状態である、方法。
receiving from the user at least one image representative of the user's facial skin;
accepting data from a user for products that are not present in a product database that includes data for different products included in the regimen recommendation;
applying a machine learning model to the image to classify facial skin characteristics;
generating the regimen recommendations including product recommendations to the user based on the classified facial skin characteristics;
processing the image using an age progression technique such that the user's facial skin progresses to a simulated future state;
alerting the user that another image representing the user's facial skin is required according to a predefined schedule;
receiving from the user another image representing the user's facial skin;
applying the machine learning model to the other image to classify facial skin characteristics;
updating the regimen recommendation to the user based on the classified facial skin characteristics of the another image;
including;
The method, wherein the simulated future state is a simulated future state of the user's facial skin when the regimen is adhered to by the user.
提供される訓練画像から前記顔面皮膚特性を分類する入力を複数のユーザから受け付けることと、
前記受け付けた入力を使用して前記機械学習モデルを訓練することと、
を更に含む、請求項4に記載の方法。
receiving input from a plurality of users for classifying the facial skin characteristics from provided training images;
training the machine learning model using the received input;
5. The method of claim 4, further comprising:
ユーザの顔面皮膚を表す少なくとも1つの画像を受け付ける処理回路と、
前記受け付けた画像を機械学習モデルに伝達し、製品推薦を含む養生法推薦を前記機械学習モデルから受信する通信回路と、
前記養生法推薦を前記ユーザに提示するユーザインタフェース回路と、
前記養生法推薦に含まれる異なる製品のデータを含む製品データベースと、
を備え、
前記処理回路は、
前記ユーザの顔面皮膚を表す別の画像が予め定義されたスケジュールに従って必要とされることを前記ユーザに警告し、
前記ユーザの顔面皮膚を表す前記別の画像をユーザから受け付ける、ように更に構成され、
前記通信回路は、前記別の画像を前記機械学習モデルに伝達し、前記別の画像に適用された前記機械学習モデルから、前記養生法推薦が作用していない場合に更新された養生法推薦を受信するように更に構成され、
前記ユーザインタフェース回路は、前記更新された養生法推薦を前記ユーザに提示するように更に構成され、
前記製品データベースは、前記製品データベースに存在しない製品のデータをユーザから受け付けるように構成されている、装置。
a processing circuit that receives at least one image representing facial skin of a user;
a communication circuit that transmits the received image to a machine learning model and receives regimen recommendations including product recommendations from the machine learning model;
a user interface circuit for presenting the regimen recommendation to the user;
a product database containing data of different products included in the regimen recommendation;
Equipped with
The processing circuit includes:
alerting the user that another image representing the user's facial skin is required according to a predefined schedule;
further configured to receive from a user the another image representing facial skin of the user;
The communication circuit communicates the another image to the machine learning model and receives an updated regimen recommendation from the machine learning model applied to the another image if the regimen recommendation is not working. further configured to receive;
The user interface circuit is further configured to present the updated regimen recommendation to the user;
The product database is configured to receive data from a user on products that do not exist in the product database.
前記ユーザインタフェース回路は、人間の顔の画像を前記ユーザに提示するように更に構成され、
前記処理回路は、提供される前記画像から顔面皮膚特性を分類する入力を前記ユーザから前記ユーザインタフェース回路を通じて受け付けるように更に構成され、
前記通信回路は、前記ユーザ入力を訓練データとして前記機械学習モデルに伝達するように更に構成されている、
請求項6に記載の装置。
the user interface circuit is further configured to present an image of a human face to the user;
The processing circuit is further configured to receive input from the user through the user interface circuit to classify facial skin characteristics from the image provided;
The communication circuit is further configured to communicate the user input as training data to the machine learning model.
7. Apparatus according to claim 6.
前記ユーザインタフェース回路は、前記顔面皮膚特性が予め定められた尺度上で評価されるユーザ制御を提示するように更に構成されている、請求項7に記載の装置。 8. The apparatus of claim 7, wherein the user interface circuit is further configured to present a user control in which the facial skin characteristic is evaluated on a predetermined scale. 前記ユーザから前記処理回路に前記画像が提供されるように前記処理回路に通信可能に結合されたカメラを更に備えた、請求項6に記載の装置。 7. The apparatus of claim 6, further comprising a camera communicatively coupled to the processing circuit such that the image is provided from the user to the processing circuit. 前記カメラ、前記処理回路、前記ユーザインタフェース回路、及び前記通信回路は、スマートフォンの構成要素である、請求項9に記載の装置。 10. The apparatus of claim 9, wherein the camera, the processing circuit, the user interface circuit, and the communication circuit are components of a smartphone. ユーザの顔面皮膚を表す少なくとも1つの画像を受け付けることと、
養生法推薦に含まれる異なる製品のデータを含む製品データベースに存在しない製品のデータをユーザから受け付けることと、
前記受け付けた画像を機械学習モデルに伝達することと、
製品推薦を含む前記養生法推薦を前記機械学習モデルから受信することと、
前記養生法推薦を前記ユーザに提示することと、
前記ユーザの顔面皮膚を表す別の画像が予め定義されたスケジュールに従って必要とされることを前記ユーザに警告することと、
前記ユーザの顔面皮膚を表す前記別の画像をユーザから受け付けることと、
前記別の画像を前記機械学習モデルに伝達することと、
前記養生法推薦が作用していない場合には前記養生法推薦を更新することと、
更新された養生法推薦を、前記別の画像に適用された前記機械学習モデルから受信することと、
前記更新された養生法推薦を前記ユーザに提示することと、
を含む、方法。
accepting at least one image representing facial skin of a user;
accepting data from a user for products that are not present in a product database that includes data for different products included in the regimen recommendation;
transmitting the received image to a machine learning model;
receiving the regimen recommendations including product recommendations from the machine learning model;
presenting the regimen recommendation to the user;
alerting the user that another image representing the user's facial skin is required according to a predefined schedule;
receiving from a user the another image representing facial skin of the user;
communicating the another image to the machine learning model;
updating the regimen recommendation if the regimen recommendation is not working;
receiving an updated regimen recommendation from the machine learning model applied to the another image;
presenting the updated regimen recommendation to the user;
including methods.
人間の顔の画像を前記ユーザに提示することと、
提供される前記画像から顔面皮膚特性を分類する入力を前記ユーザから受け付けることと、
前記ユーザ入力を訓練データとして前記機械学習モデルに伝達することと、
を更に含む、請求項11に記載の方法。
presenting an image of a human face to the user;
accepting input from the user to classify facial skin characteristics from the provided image;
communicating the user input as training data to the machine learning model;
12. The method of claim 11, further comprising:
前記顔面皮膚特性が予め定められた尺度上で評価されるユーザ制御を提示することを更に含む、請求項12に記載の方法。 13. The method of claim 12, further comprising providing user control over which the facial skin characteristics are evaluated on a predetermined scale.
JP2020536683A 2018-01-05 2019-01-07 Machine performing facial health and beauty assistant Active JP7407115B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862614080P 2018-01-05 2018-01-05
US201862614001P 2018-01-05 2018-01-05
US62/614,001 2018-01-05
US62/614,080 2018-01-05
PCT/US2019/012492 WO2019136354A1 (en) 2018-01-05 2019-01-07 Machine-implemented facial health and beauty assistant

Publications (2)

Publication Number Publication Date
JP2021510217A JP2021510217A (en) 2021-04-15
JP7407115B2 true JP7407115B2 (en) 2023-12-28

Family

ID=65433729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020536683A Active JP7407115B2 (en) 2018-01-05 2019-01-07 Machine performing facial health and beauty assistant

Country Status (5)

Country Link
EP (1) EP3718050A1 (en)
JP (1) JP7407115B2 (en)
KR (1) KR102619221B1 (en)
CN (1) CN111868742A (en)
WO (1) WO2019136354A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544845B2 (en) 2020-07-02 2023-01-03 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a user's body before removing hair for determining a user-specific trapped hair value
US11419540B2 (en) 2020-07-02 2022-08-23 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a shaving stroke for determining pressure being applied to a user's skin
US11801610B2 (en) 2020-07-02 2023-10-31 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a hair growth direction value of the user's hair
US11734823B2 (en) 2020-07-02 2023-08-22 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a user-specific skin irritation value of the user's skin after removing hair
US11890764B2 (en) 2020-07-02 2024-02-06 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a hair density value of a user's hair
US20220000417A1 (en) * 2020-07-02 2022-01-06 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin laxity
US11455747B2 (en) 2020-07-02 2022-09-27 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a user-specific skin redness value of the user's skin after removing hair
US11741606B2 (en) 2020-07-02 2023-08-29 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a user's body after removing hair for determining a user-specific hair removal efficiency value
WO2022069659A2 (en) * 2020-09-30 2022-04-07 Studies&Me A/S A method and a system for determining severity of a skin condition
KR102344700B1 (en) * 2021-02-17 2021-12-31 주식회사 에프앤디파트너스 Clinical imaging device
EP4341851A1 (en) 2021-05-20 2024-03-27 ICA Aesthetic Navigation GmbH Computer-based body part analysis methods and systems
WO2024075109A1 (en) * 2022-10-05 2024-04-11 Facetrom Limited Attractiveness determination system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006142005A (en) 2004-10-22 2006-06-08 Shiseido Co Ltd Skin condition diagnostic system and beauty counseling system
JP2007133518A (en) 2005-11-08 2007-05-31 Shiseido Co Ltd Cosmetic medical diagnostic method, cosmetic medical diagnostic program, and recording medium with its program recorded thereon
JP2010534376A (en) 2007-07-23 2010-11-04 ザ プロクター アンド ギャンブル カンパニー Method and apparatus for realistic simulation of wrinkle aging and deaging
JP2016194892A (en) 2015-04-01 2016-11-17 みずほ情報総研株式会社 Aging prediction system, aging prediction method, and aging prediction program
US20170270593A1 (en) 2016-03-21 2017-09-21 The Procter & Gamble Company Systems and Methods For Providing Customized Product Recommendations

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7437344B2 (en) * 2001-10-01 2008-10-14 L'oreal S.A. Use of artificial intelligence in providing beauty advice
US20030065589A1 (en) * 2001-10-01 2003-04-03 Daniella Giacchetti Body image templates with pre-applied beauty products
US20030064350A1 (en) * 2001-10-01 2003-04-03 Gilles Rubinstenn Beauty advisory system and method
US20070058858A1 (en) * 2005-09-09 2007-03-15 Michael Harville Method and system for recommending a product based upon skin color estimated from an image
KR100734849B1 (en) * 2005-11-26 2007-07-03 한국전자통신연구원 Method for recognizing face and apparatus thereof
US20170330029A1 (en) * 2010-06-07 2017-11-16 Affectiva, Inc. Computer based convolutional processing for image analysis
TWI471117B (en) * 2011-04-29 2015-02-01 Nat Applied Res Laboratoires Human facial skin roughness and wrinkle inspection based on smart phone
US8442321B1 (en) 2011-09-14 2013-05-14 Google Inc. Object recognition in images
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US9015083B1 (en) 2012-03-23 2015-04-21 Google Inc. Distribution of parameter calculation for iterative optimization methods
JP2014010750A (en) * 2012-07-02 2014-01-20 Nikon Corp Timing determination device, timing determination system, timing determination method, and program for skin external preparation
US9256963B2 (en) * 2013-04-09 2016-02-09 Elc Management Llc Skin diagnostic and image processing systems, apparatus and articles
US9754177B2 (en) 2013-06-21 2017-09-05 Microsoft Technology Licensing, Llc Identifying objects within an image
WO2015134665A1 (en) 2014-03-04 2015-09-11 SignalSense, Inc. Classifying data with deep learning neural records incrementally refined through expert input
US9760935B2 (en) * 2014-05-20 2017-09-12 Modiface Inc. Method, system and computer program product for generating recommendations for products and treatments
US9536293B2 (en) 2014-07-30 2017-01-03 Adobe Systems Incorporated Image assessment using deep convolutional neural networks
WO2016203461A1 (en) * 2015-06-15 2016-12-22 Haim Amir Systems and methods for adaptive skin treatment
US10002415B2 (en) * 2016-04-12 2018-06-19 Adobe Systems Incorporated Utilizing deep learning for rating aesthetics of digital images
TWI585711B (en) * 2016-05-24 2017-06-01 泰金寶電通股份有限公司 Method for obtaining care information, method for sharing care information, and electronic apparatus therefor
CN107123027B (en) * 2017-04-28 2021-06-01 广东工业大学 Deep learning-based cosmetic recommendation method and system
CN107437073A (en) * 2017-07-19 2017-12-05 竹间智能科技(上海)有限公司 Face skin quality analysis method and system based on deep learning with generation confrontation networking
CN107480719B (en) * 2017-08-17 2020-08-07 广东工业大学 Skin care product recommendation method and system based on skin characteristic evaluation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006142005A (en) 2004-10-22 2006-06-08 Shiseido Co Ltd Skin condition diagnostic system and beauty counseling system
JP2007133518A (en) 2005-11-08 2007-05-31 Shiseido Co Ltd Cosmetic medical diagnostic method, cosmetic medical diagnostic program, and recording medium with its program recorded thereon
JP2010534376A (en) 2007-07-23 2010-11-04 ザ プロクター アンド ギャンブル カンパニー Method and apparatus for realistic simulation of wrinkle aging and deaging
JP2016194892A (en) 2015-04-01 2016-11-17 みずほ情報総研株式会社 Aging prediction system, aging prediction method, and aging prediction program
US20170270593A1 (en) 2016-03-21 2017-09-21 The Procter & Gamble Company Systems and Methods For Providing Customized Product Recommendations

Also Published As

Publication number Publication date
WO2019136354A1 (en) 2019-07-11
JP2021510217A (en) 2021-04-15
CN111868742A (en) 2020-10-30
KR102619221B1 (en) 2023-12-28
KR20200105480A (en) 2020-09-07
EP3718050A1 (en) 2020-10-07

Similar Documents

Publication Publication Date Title
JP7407115B2 (en) Machine performing facial health and beauty assistant
US11817004B2 (en) Machine-implemented facial health and beauty assistant
US10943156B2 (en) Machine-implemented facial health and beauty assistant
US11832958B2 (en) Automatic image-based skin diagnostics using deep learning
JP7140848B2 (en) System and method for hair coverage analysis
CN110709856B (en) System and method for determining apparent skin age
US11055762B2 (en) Systems and methods for providing customized product recommendations
EP3699811A1 (en) Machine-implemented beauty assistant for predicting face aging
WO2019137538A1 (en) Emotion representative image to derive health rating
JP7493532B2 (en) Changing the appearance of the hair
US11455747B2 (en) Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a user-specific skin redness value of the user's skin after removing hair
US20220164852A1 (en) Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations
US20210118133A1 (en) System, method, apparatus and computer program product for the detection and classification of different types of skin lesions
US11854188B2 (en) Machine-implemented acne grading
US20240112492A1 (en) Curl diagnosis system, apparatus, and method
CN111259695A (en) Method and device for acquiring information
US20240108280A1 (en) Systems, device, and methods for curly hair assessment and personalization
US20240112491A1 (en) Crowdsourcing systems, device, and methods for curly hair characterization
López-Fernández et al. Knowledge-Driven Dialogue and Visual Perception for Smart Orofacial Rehabilitation
CN117813661A (en) Skin analysis system and method implementations
KR20240009440A (en) Computer-based body part analysis methods and systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220922

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221011

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221018

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20221104

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20221108

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221122

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230110

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230131

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7407115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150