JPWO2020113326A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020113326A5
JPWO2020113326A5 JP2021554782A JP2021554782A JPWO2020113326A5 JP WO2020113326 A5 JPWO2020113326 A5 JP WO2020113326A5 JP 2021554782 A JP2021554782 A JP 2021554782A JP 2021554782 A JP2021554782 A JP 2021554782A JP WO2020113326 A5 JPWO2020113326 A5 JP WO2020113326A5
Authority
JP
Japan
Prior art keywords
skin
cnn
image
diagnoses
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021554782A
Other languages
Japanese (ja)
Other versions
JP7395604B2 (en
JP2022512044A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/CA2019/051735 external-priority patent/WO2020113326A1/en
Publication of JP2022512044A publication Critical patent/JP2022512044A/en
Publication of JPWO2020113326A5 publication Critical patent/JPWO2020113326A5/ja
Application granted granted Critical
Publication of JP7395604B2 publication Critical patent/JP7395604B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本出願は、米国に関して、2018年12月4日に出願された米国仮特許出願第62/775,117号のパリ条約優先権を主張し、その内容は、許容される場合に参照により本明細書に組み込まれる。 This application claims, with respect to the United States, Paris Convention priority of US Provisional Patent Application No. 62/775,117, filed December 4, 2018, the contents of which are incorporated herein by reference where permitted. incorporated into the book.

本明細書は、皮膚科などの皮膚診断、及び皮膚治療のモニタリングに関し、より詳細には、深層学習を用いた自動的な画像ベースの皮膚診断のためのシステム及び方法に関する。 TECHNICAL FIELD This specification relates to skin diagnostics, such as dermatology, and skin treatment monitoring, and more particularly to systems and methods for automatic image-based skin diagnostics using deep learning.

正確な皮膚の分析は、医療および化粧品分野の両方において重要な分野である。皮膚の画像を生成し、分析して、1又は複数の皮膚の状態を判定することがある。皮膚分析の課題は、コンピュータ技術を用いて、画像(見た目で分かる皮膚診断のタスク)を通して皮膚を観察することだけで解決することが望ましい。この課題の解決に成功すれば、皮膚科医が人を直接診察する必要が無くなるので、皮膚分析をより迅速かつ安価にできる。 Accurate skin analysis is an important area in both the medical and cosmetic fields. An image of the skin may be generated and analyzed to determine one or more skin conditions. It would be desirable to solve the problem of skin analysis using computer technology simply by observing the skin through images (the task of visual skin diagnostics). Successful resolution of this problem would make skin analysis faster and cheaper, since dermatologists would no longer need to see people in person.

顔などの画像には、符号化(エンコード)された1又は複数の皮膚の状態が画像のピクセル内に示される。画像から1又は複数の皮膚の状態を復号化(デコード)するために深層学習を使用して自動的な画像ベースの皮膚診断を実行するか、又は実行することを可能にする、コンピュータ実装方法、コンピュータ装置、及び他の態様を提供することが望ましい。 An image, such as a face, has one or more skin conditions encoded within the pixels of the image. A computer-implemented method for performing or enabling to perform automatic image-based skin diagnostics using deep learning to decode one or more skin conditions from an image; It would be desirable to provide a computing device and other aspects.

皮膚診断のための深層学習に基づくシステム及び方法、並びに、そのような深層学習に基づくシステムが、見かけ上の皮膚の診断タスクに関して人間の専門家を上回ることを示す、試験メトリクスが開示され、説明される。また、皮膚診断のための深層学習に基づくシステム及び方法を使用して、皮膚治療の方法をモニタするシステム及び方法が開示され、説明される。 Disclosed and described are deep learning-based systems and methods for skin diagnostics, and test metrics showing that such deep learning-based systems outperform human experts on apparent skin diagnostic tasks. be done. Also disclosed and described are systems and methods for monitoring skin treatment regimens using deep learning based systems and methods for skin diagnostics.

記憶部と、その記憶部に結合される処理部とを備える皮膚の診断装置が提供され、前記記憶部は、複数であるN個の各皮膚の徴候について、N個の各皮膚の徴候診断を判定するために画像のピクセルを分類する畳み込みニューラルネットワークであるCNNを記憶して提供し、前記CNNは、前記N個の各皮膚の徴候診断を生成するように構成された画像分類のための深層ニューラルネットワークであり、前記CNNは、前記N個の各皮膚の徴候のそれぞれに関する皮膚の徴候データを使用して学習され、前記処理部は、前記画像を受信し、前記CNNを用いて前記画像を処理し、前記N個の各皮膚の徴候診断を生成する。 A skin diagnostic device is provided comprising a storage unit and a processing unit coupled to the storage unit, wherein the storage unit stores N skin symptom diagnoses for each of a plurality of N skin symptoms. storing and providing a CNN, a convolutional neural network that classifies pixels of an image for determination, said CNN being a deep layer for image classification configured to generate a diagnosis of each of said N skin signs; a neural network, wherein the CNN is trained using skin manifestation data for each of the N skin manifestations, and the processor receives the images and uses the CNN to process the images; and generate a skin symptom diagnosis for each of the N skin signs.

前記CNNは、画像分類のための学習済ネットワークから定義され、最終のエンコーダ段階の特徴ネットに特徴を符号化するように構成されたエンコーダ段階と、前記N個の各皮膚の徴候診断を生成するために、複数であるN個の並列の皮膚徴候の分岐によって復号化するための前記最終のエンコーダ段階の特徴ネットを受信するように構成されたデコーダ段階と、を備えていても良い。前記デコーダ段階は、前記最終のエンコーダ段階の特徴ネットを処理して前記N個の並列の皮膚徴候の分岐の各々に提供するグローバルプーリング処理を備える。前記CNNは、前記ピクセルを分類して民族性ベクトルを判定するように構成されても良く、前記CNNは、前記N個の各皮膚の徴候および複数の民族性に関する皮膚の徴候データを使用して学習される。前記デコーダ段階は、前記民族性ベクトルを生成するための民族性に関する並列の分岐を備えていても良い。 The CNN generates an encoder stage defined from a trained network for image classification and configured to encode features into a final encoder stage feature net and each of the N skin symptom diagnoses. a decoder stage configured to receive the feature net of said final encoder stage for decoding by means of a plurality of N parallel cutaneous manifestation branches. The decoder stage comprises a global pooling process that processes the feature nets of the final encoder stage to provide each of the N parallel skin manifestation branches. The CNN may be configured to classify the pixels to determine an ethnicity vector, the CNN using each of the N skin signs and skin sign data for a plurality of ethnicities. be learned. The decoder stage may comprise parallel ethnic branches for generating the ethnicity vector.

前記N個の並列の皮膚徴候の分岐の各分岐は、第1の全結合層と、それに続く第1の活性化層と、第2の全結合層と、第2の活性化層と、最終の活性化層と、を連続して備えても良く、前記N個の各皮膚の徴候診断および前記民族性ベクトルのうちの1つを含む最終値を出力する。前記最終の活性化層は、前記第2の活性化層から受信した入力スコアxに関する以下の数式1の関数に従って定義されても良く、αは傾き、aは下限、bは前記N個の各皮膚の徴候診断の各々のスコア範囲の上限である。

Figure 2020113326000003
Each branch of the N parallel skin manifestation branches comprises a first fully connected layer, followed by a first activated layer, a second fully connected layer, a second activated layer, and a final activation layers, and output a final value comprising one of each of said N skin symptom diagnoses and said ethnicity vector. The final activation layer may be defined according to the function of Equation 1 below on the input score x received from the second activation layer, where α is the slope, a is the lower bound, and b is each of the N The upper bound of the score range for each of the skin sign diagnoses.
Figure 2020113326000003

前記CNNは、(x、y)形式の複数のサンプルを用いて学習されても良く、xは、i番目の学習画像であり、yは、グランドトゥルースの皮膚の徴候診断の対応ベクトルであり、前記CNNは、前記N個の並列の皮膚徴候の分岐、及び前記民族性に関する並列の分岐の各分岐に対する損失関数を最小化するように学習されても良い。前記CNNは、前記N個の並列の皮膚徴候の分岐のそれぞれについての損失関数L2に、前記民族性に関する並列の分岐についての標準交差エントロピー分類損失Lethnicityを重み付けして組み合わせた損失関数Lを、以下の数式3に従って最小化するように学習されても良く、λは、スコア回帰と民族性の分類損失との間のバランスを制御する。

Figure 2020113326000004
The CNN may be trained using multiple samples of the form (x i , y i ), where x i is the ith training image and y i is the ground truth skin sign diagnosis correspondence A vector, the CNN may be trained to minimize a loss function for each branch of the N parallel skin manifestation branches and the parallel ethnic branches. The CNN provides a loss function L that is a weighted combination of a loss function L2 for each of the N parallel skin manifestation branches and a standard cross-entropy classification loss L ethnicity for the parallel ethnicity branches, It may be learned to minimize according to Equation 3 below, where λ controls the balance between score regression and ethnicity classification loss.
Figure 2020113326000004

前記記憶部は、前記画像を前処理するための顔およびランドマークの検出器を記憶しても良く、前記処理部は、前記顔およびランドマークの検出器を用いて前記画像から正規化された画像を生成し、前記CNNを使用する際に前記正規化された画像を使用するように構成されても良い。 The storage unit may store a face and landmark detector for pre-processing the image, and the processing unit stores normalized from the image using the face and landmark detector. An image may be generated and configured to use the normalized image when using the CNN.

前記CNNは、N個の各皮膚の徴候診断を生成するように適合された画像分類のための学習済ネットワークから予め構成されても良く、このネットワークは、前記学習済ネットワークの全結合層を除去し、N個の各層のグループを、前記N個の各皮膚の徴候診断のそれぞれについて同じ特徴ネットを並列に復号するように定義する。 The CNN may be pre-configured from a pre-trained network for image classification adapted to generate each of the N skin symptom diagnoses, the network removing all connected layers of the pre-trained network. and define a group of N layers to decode in parallel the same feature net for each of said N skin symptom diagnoses.

皮膚の診断装置は、モバイル端末からなる個人用のコンピュータ装置と、通信ネットワークを介して皮膚の診断サービスを提供するサーバと、のうちの1つとして構成されても良い。 The skin diagnostic device may be configured as one of a personal computing device comprising a mobile terminal and a server providing skin diagnostic services via a communication network.

前記記憶部は、前記処理部によって実行された時に前記N個の各皮膚の徴候診断の少なくともいくつかに対応して、製品および治療計画のうちの少なくとも1つに関する推奨事項を取得するための治療製品セレクタを提供するコードを記憶しても良い。 The storage unit is responsive to at least some of each of the N skin symptom diagnoses when executed by the processing unit to obtain recommendations for at least one of a product and a treatment regimen. A code that provides a product selector may be stored.

前記記憶部は、前記処理部によって実行された時に前記画像を受信するための画像取得機能を提供するコードを記憶しても良い。 The storage unit may store code that, when executed by the processing unit, provides an image acquisition function for receiving the image.

前記記憶部は、前記処理部によって実行された時に少なくとも1つの皮膚の徴候に対する治療を監視するための治療モニタを提供するコードを記憶しても良い。 The storage unit may store code that, when executed by the processing unit, provides a therapy monitor for monitoring therapy for at least one skin indication.

前記処理部は、各治療セッションに対する製品の適用に関連する治療活動を、思い出させる、指示する、及び/又は記録する、のうちの少なくとも1つを行うように構成されても良い。 The processing unit may be configured to at least one of remind, instruct and/or record treatment activities associated with application of the product for each treatment session.

前記処理部は、治療セッション後に受信した後続の皮膚の診断を生成するために前記CNNを用いて第2の画像を処理するように構成されても良い。前記記憶部は、前記処理部によって実行された時に前記後続の皮膚の診断を用いた比較結果の提示を行うコードを記憶しても良い。 The processing unit may be configured to process a second image using the CNN to generate a subsequent skin diagnosis received after a treatment session. The storage unit may store code that, when executed by the processing unit, presents comparison results with the subsequent skin diagnosis.

皮膚診断のコンピュータ実装方法であって、画像のピクセルを分類して、複数であるN個の各皮膚の徴候の各々についてN個の各皮膚の徴候診断を判定するように構成された畳み込みニューラルネットワークであるCNNを記憶する記憶部を提供し、前記CNNは、前記N個の各皮膚の徴候診断を生成するように構成された画像分類のための深層ニューラルネットワークであり、前記CNNは、前記N個の各皮膚の徴候についての皮膚の徴候データを使用して学習され、前記記憶部に結合された処理部によって、前記画像を受信することと、前記CNNを用いて前記画像を処理して前記N個の各皮膚の徴候診断を生成することと、を実行する方法が提供される。 A computer-implemented method of skin diagnostics, the convolutional neural network configured to classify pixels of an image to determine N skin symptom diagnoses for each of a plurality of N skin symptoms. , wherein the CNN is a deep neural network for image classification configured to generate each of the N skin symptom diagnoses, the CNN comprising the N receiving the images by a processing unit coupled to the storage unit trained using skin manifestation data for each of the skin manifestations; and processing the images using the CNN to produce the Generating each of the N skin symptom diagnoses is provided.

第2の方法であって、画像のピクセルを分類して、複数であるN個の各皮膚の徴候の各々についてN個の各皮膚の徴候診断を判定するように構成された畳み込みニューラルネットワークであるCNNを学習させ、前記CNNは、前記N個の各皮膚の徴候診断を生成するように構成された画像分類のための深層ニューラルネットワークであり、前記学習は、前記N個の各皮膚の徴候についての皮膚の徴候データを用いて実行される方法が提供される。 A second method is a convolutional neural network configured to classify pixels of an image to determine N individual skin sign diagnoses for each of a plurality of N individual skin signs. training a CNN, said CNN being a deep neural network for image classification configured to generate a diagnosis for each of said N skin signs, said training comprising: A method is provided that is performed using the skin manifestation data of .

これらの態様および他の態様は、(非一時的な)記憶部が命令を格納しており、この命令が処理部によって実行された時に本明細書に記載されているコンピュータ装置の実装方法のいずれかを実行するようにコンピュータ装置の処理を構成する、コンピュータプログラム製品の態様を含むことが当業者には明らかであろう。 These and other aspects can be applied to any of the computer apparatus implementation methods described herein when the (non-transitory) storage stores instructions and the instructions are executed by the processing unit. It will be apparent to those skilled in the art that it includes aspects of a computer program product that configures the processing of a computing device to perform any of the following.

皮膚の状態を示す写真を合成したものである。This is a composite of photographs showing skin conditions. 本明細書の一実施形態または例による深層学習システムの概略図である。1 is a schematic diagram of a deep learning system according to one embodiment or example herein; FIG. 図2の深層学習システムのより詳細な概略図である。3 is a more detailed schematic diagram of the deep learning system of FIG. 2; FIG. 本明細書の一実施形態による様々な態様の環境を提供するコンピュータネットワークの図である。1 is a diagram of a computer network providing an environment for various aspects according to one embodiment of the present disclosure; FIG. 図4のコンピュータネットワークのコンピュータ装置のブロック図である。5 is a block diagram of a computer device of the computer network of FIG. 4; FIG. 図6(a)及び図6(b)は、本明細書の一実施形態によるコンピュータ装置の動作のフローチャートである。6(a) and 6(b) are flowcharts of the operation of a computing device according to one embodiment of the present disclosure. 図7(a)及び図7(b)は、本明細書の一実施形態によるコンピュータ装置の動作のフローチャートである。7(a) and 7(b) are flowcharts of the operation of a computing device according to one embodiment of the present disclosure.

本発明の概念は、添付の図面を参照し、本明細書で説明される特定の実施形態を通して最もよく説明され、ここで、同一の符号は全体を通して同一の特徴を指す。本明細書で使用される場合、「発明」という用語は、単に実施形態自体ではなく、以下に記載される実施形態の基礎をなす発明概念を暗示することを意図していることを理解されたい。更に、本発明の一般的な概念は、以下に記載される例示的な実施形態に限定されず、以下の説明は、そのような観点から読まれるべきであることが理解されるべきである。 The concepts of the present invention are best illustrated through the specific embodiments described herein with reference to the accompanying drawings, wherein like numerals refer to like features throughout. It should be understood that the term "invention", as used herein, is intended to connote the inventive concept underlying the embodiments described below and not merely the embodiments themselves. . Furthermore, it should be understood that the general concept of the invention is not limited to the exemplary embodiments described below, and that the following description should be read in that light.

<序文>
本明細書における「皮膚の徴候」又は「徴候」という語は法令線、様々な位置にあるしわ、顔の下部の下垂、皮脂孔、顔全体の色素沈着、及び血管障害など(但し、これらに限定されない)、特定の皮膚の状態を指す。図1は、額のしわ102、眉間のしわ104、目の下のしわ106、法令線108、唇の角のしわ110、及び顔の下部の下垂112などの皮膚の徴候を示す写真合成物100である。人間の顔の外観は、様々な要因によって構造的な変化を受ける。これらの要因には、年齢的な老化、光老化、食習慣(食欲不振または肥満)、生活習慣(睡眠問題、喫煙、アルコール依存など)がある。これらの構造な変化は、局所的なシワ(額、眉間、上唇など)に関するものが最も明らかであるが、顔の全体的なたるみ(眼瞼下垂、眼のたるみ、頸部の下垂など)や頬の毛穴の拡大を伴うことが多い。これらの変化は、何年も何十年もかけて僅かに進行していく可能性があるが、性別や民族によって表れ方が異なる。また、これらの変化は、皮膚の色素沈着(ほくろ、暗点、皮膚の暗色化)や皮膚の血管網(赤み、毛細血管の拡張など)に対する周知の影響(大気汚染との関連の有無に関わらず)に加えて、日光(紫外線)への様々な(複数回の)曝露によって強調される。
<Preface>
As used herein, the term "skin signs" or "signs" includes statutory lines, wrinkles in various locations, lower facial ptosis, sebaceous pores, hyperpigmentation across the face, and vascular disorders. non-limiting), referring to certain skin conditions. FIG. 1 is a photographic composite 100 showing skin manifestations such as forehead wrinkles 102, glabellar wrinkles 104, under-eye wrinkles 106, normal lines 108, lip corner wrinkles 110, and lower facial drooping 112. . The appearance of the human face undergoes structural changes due to various factors. These factors include chronological aging, photoaging, dietary habits (anorexia or obesity), lifestyle habits (sleep problems, smoking, alcoholism, etc.). These structural changes are most evident with respect to localized wrinkles (forehead, glabella, upper lip, etc.), but general drooping of the face (ptosis, drooping eyes, cervical ptosis, etc.) and cheeks. often accompanied by enlarged pores. These changes can be subtle over years and decades, but they are manifested differently by gender and ethnicity. These changes are also associated with well-known effects on skin pigmentation (moles, dark spots, skin darkening) and skin vascular network (redness, capillary dilatation, etc.), whether or not they are associated with air pollution. ), as well as accentuated by variable (multiple) exposures to sunlight (ultraviolet).

いくつかの顔の徴候の重症度を等級付けすることは、皮膚科学的(皮膚剥離、矯正手術など)、美容的(スキンケア、アンチエイジング製品)、又は消費者への可能な支援/アドバイス等、異なる目的のため重要なニーズである。このようなニーズは、主な科学的な客観性に応えるだけでなく、誤った製品の請求を検出することにも役立ち得る。この等級付けの目的は、L’Oreal S.Aの複数巻の参照用の皮膚の図版集(R.Bazin,E.Doublet,in:P.E.Med’Com(Ed.),Skin Aging Atlas.Volume1,Caucasian Type,2007.R.Bazin,F.Flament,in:P.E.Med’Com(Ed.),Skin Aging Atlas.Volume2,Asian Type,2010.R.Bazin,F.Flament,F.Giron,in:P.E.Med’Com(Ed.),Skin Aging Atlas.Volume3,Afro-American Type,2012.R.Bazin,F.Flament,V.Rubert,in:P.E.Med’Com(Ed.),Skin Aging Atlas.Volume4,Indian Type,2015.And,F.Flament,R.Bazin,H.Qiu,in:P.E.Med’Com(Ed.),Skin Aging Atlas.Volume5,Photo-aging Face&Body,2017)によって達成された。この皮膚の図版集は、年齢と共に4つの民族の両性別において、20を超える顔の徴候の視覚的な等級付け(及び0~4、5、6又は7に増加する重症度の各スケール)を専門的に処理された写真によって標準化した。全体的な顔の外観に関わらず、特定の徴候をズームすることにより、皮膚の専門家は盲目的に、顔の各徴候の重症度を等級付けすることができる。これらの皮膚の図版集では、加齢によって人々に及ぼす影響は性別によって異なるが、同じ性別では影響が類似していることを示した。しかし、顔の徴候の一部の変化は、民族特有のものであった。この手法は、4つの民族の両性別において加齢に伴う顔の徴候の変化を正確に説明できるだけでなく、民族白人女性または中国人女性では、いくつかの顔の徴候が一日の労働による疲労に関係している、又はそれに関連しているという判断をもたらした。しかし、もう一つの困難で重要なステップが依然として残されている:それは、様々な現実の照明条件下や人間が活動中(仕事、スポーツ、交通機関への乗車など)に携帯電話によって撮影された写真(例えば、「セルフィー」や自撮り動画)、又は標準化された写真のいずれかを通して構造的な顔の徴候を等級付けする、人間の評価に頼らない自動的な処理を開発できないかということである。要するに、定量化されたデータを「ブラインド/ニュートラル」な自動的なシステムから得ることは、多くのアプリケーションで望まれている。 Grading the severity of some facial indications can be dermatological (dermabrasion, corrective surgery, etc.), cosmetic (skin care, anti-aging products), or possible consumer assistance/advice, etc. It is an important need for different purposes. Such a need not only meets the primary scientific objectivity, but can also help detect false product claims. The purpose of this grading is L'Oreal S.M. A multi-volume reference skin pictorial collection (R. Bazin, E. Doublet, in: PE Med'Com (Ed.), Skin Aging Atlas. Volume 1, Caucasian Type, 2007. R. Bazin, F. Flament, in: PE Med'Com (Ed.), Skin Aging Atlas.Volume 2, Asian Type, 2010. R. Bazin, F. Flament, F. Giron, in: PE Med'Com (Ed.), Skin Aging Atlas.Volume 3, Afro-American Type, 2012. R. Bazin, F. Flament, V. Rubert, in: PE Med'Com (Ed.), Skin Aging Atlas.Volume 4, Indian Type, 2015. And, F. Flament, R. Bazin, H. Qiu, in: PE Med'Com (Ed.), Skin Aging Atlas. Volume 5, Photo-aging Face & Body, 2017) . This skin pictorial provides a visual grading of over 20 facial signs (and each scale of severity increasing from 0 to 4, 5, 6 or 7) in both sexes of four ethnic groups with age. Standardized by professionally processed photographs. By zooming in on a particular symptom regardless of the overall facial appearance, a skin professional can blindly grade the severity of each facial symptom. These skin illustrations show that aging affects people differently depending on their gender, but that the effects are similar for people of the same sex. However, some changes in facial features were ethnically specific. Not only can this method accurately describe age-related changes in facial signs in both genders of the four ethnic groups, but in ethnic Caucasian or Chinese women, some facial signs are associated with fatigue from a day's work. resulted in a judgment that it was related to or associated with But one more difficult and important step still remains: it was filmed by a mobile phone under a variety of real-world lighting conditions and during human activity (work, sports, public transportation, etc.). to develop an automated process that does not rely on human evaluation to grade structural facial features either through photographs (e.g., "selfies" or selfie videos) or through standardized photographs. be. In short, obtaining quantified data from a "blind/neutral" automated system is desirable in many applications.

このように、様々な年齢や民族の女性のデータを用いて開発された皮膚診断に対する深層学習のアプローチについて、このアプローチの技術的な側面および得られた結果を含めて説明する。また、専門家による等級付け(皮膚の図版集を使用)によって得られたデータとの比較も提示する。 Thus, we describe a deep learning approach to skin diagnosis developed using data from women of various ages and ethnicities, including technical aspects of the approach and the results obtained. We also present comparisons with data obtained by expert grading (using skin pictorials).

画像のみから皮膚の徴候を評価するという見かけ上の皮膚診断の問題は、深層学習を用いたコンピュータ実装のための教師付きの回帰問題として投げかけられる。深層学習システム200を示す図2の概略図によって表されるように、顔の画像x202が与えられると、システム200のニューラルネットワーク204は、スコアy206のベクトルを返し、y=fθ(x)であり、fθは、θによってパラメータ化されたニューラルネットワーク204である。y206の各成分は、異なる皮膚の徴候に対応する。民族性のような要素や他の皮膚の評価も、更に説明するように決定され得る。 The apparent skin diagnosis problem of evaluating skin signs from images alone is posed as a supervised regression problem for computer implementation using deep learning. As represented by the schematic diagram of FIG. 2 showing deep learning system 200, given an image x 202 of a face, neural network 204 of system 200 returns a vector of scores y 206, with y=f θ (x) , and f θ is the neural network 204 parameterized by θ. Each component of y206 corresponds to a different skin indication. Factors such as ethnicity and other skin ratings may also be determined as described further below.

皮膚の徴候ごとに別々のニューラルネットワークをデザインすることは可能だが、徴候間で学習された低レベルの特徴が類似しているため、上記のアプローチの実装では、全ての徴候を単一のネットワークによって共同で推定できる。副次的な利点は、より高い計算効率である。 Although it is possible to design a separate neural network for each skin sign, due to the similarity of the low-level features learned across signs, the implementation of the above approach is limited to handling all signs by a single network. can be jointly estimated. A side benefit is higher computational efficiency.

ニューラルネットワークをゼロから設計するのではなく、様々なタスクで上手く機能することが証明されたアーキテクチャを適合させることができる。特に、ResNet50(Microsoft Research Asiaによる50層の残差ネットワークであり、K.He,X.Zhang,S.Ren,J.Sun,Deep Residual Learning for Image Recognition,in:Proceedings of the IEEE conference on computer vision and pattern recognition,2016,pp.770-778に記載され、その全体が本明細書に組み込まれる)及びMobileNetV2(Google社による深さ方向に分離可能な畳み込みニューラルネットワークの第2バージョンであり、M.Sandler,A.Howard,M.Zhu,A.Zhmoginov,L.-C.Chen,Inverted Residuals and Linear Bottlenecks:Mobile Networks for Classification,Detection and Segmentation,arXiv preprint arXiv:1801.04381,13 Jan.2018に記載され、その全体が本明細書に組み込まれる)のアーケテクチャを適用できる。 Rather than designing neural networks from scratch, we can adapt architectures that have been proven to work well for different tasks. In particular, ResNet50 (a 50-layer residual network by Microsoft Research Asia, K. He, X. Zhang, S. Ren, J. Sun, Deep Residual Learning for Image Recognition, in: Proceedings of the IEEE conference conference and pattern recognition, 2016, pp. 770-778, which is incorporated herein in its entirety) and MobileNetV2 (a second version of Google Inc.'s depth-wise separable convolutional neural network; Sandler,A.Howard,M.Zhu,A.Zhmoginov,L.-C.Chen,Inverted Residuals and Linear Bottlenecks:Mobile Networks for Classification,Detection and Segmentation,arXiv preprint arXiv:1801.04381,13 Jan.2018に記載and incorporated herein in its entirety) can be applied.

ResNet50とMobileNetV2は、ImageNet(分類用の画像データを集めたオープンソースのデータベース)で学習した畳み込みニューラルネットワークである。ResNet50は、多くの最先端のシステムのバックボーンとして使用されており、MobileNetV2は、実行時間と記憶領域が気になる場合に、精度を適度に落として使用できる、より効率的なネットワークである。分類に使用する場合、これらの各ネットワークには、低解像度であるが強力なCNNの特徴のセットをもたらす大規模な完全畳み込み部分が含まれており(例えば、エンコーダ段階)、続いてグローバル・マックス(global max)プーリング層又はグローバル・アベレージ(global average)プーリング層、全結合層、最終的な分類層が続きます(デコーダ段階)。それぞれが適応するための良い候補となります。 ResNet50 and MobileNetV2 are convolutional neural networks trained on ImageNet (an open-source database that collects image data for classification). ResNet50 is used as the backbone of many state-of-the-art systems, and MobileNetV2 is a more efficient network that can be used with modest precision reductions when execution time and storage space are concerns. When used for classification, each of these networks contains a large fully convolutional part (e.g., the encoder stage) that yields a low-resolution but powerful set of CNN features, followed by a global max A (global max) pooling layer or global average pooling layer, a fully connected layer and a final classification layer follow (decoder stage). Each is a good candidate for adaptation.

図3は、ResNet50又はMobileNetV2などのソースネットワークからの層(例えば、それぞれの処理を有する構成要素)によって定義されるエンコーダ部(encoder components)302と、デコーダ部(decoder components)304とを備えるニューラルネットワーク202をより詳細に示す深層学習システム200の概略図である。デコーダ部304はグローバル・マックスプーリング層306と、出力ベクトル206内のN個の皮膚の徴候の各々を復号化するための各並列分岐(parallel branches)(例えば、簡略化のために示された308、310、及び312であり、N個の皮膚の徴候に対してN+1個の並列分岐があることが理解される)と、民族性ファクタ(出力314)とを備える。 FIG. 3 shows a neural network comprising encoder components 302 and decoder components 304 defined by layers (e.g., components with respective processing) from a source network such as ResNet50 or MobileNetV2. 2 is a schematic diagram of deep learning system 200 showing 202 in more detail; FIG. The decoder section 304 includes a global maxpooling layer 306 and respective parallel branches (eg, 308 shown for simplicity) for decoding each of the N skin manifestations in the output vector 206. , 310, and 312, where it is understood that there are N+1 parallel branches for N skin manifestations), and an ethnicity factor (output 314).

最終の分類層だけを置き換えるのではなく、ソースネットワークの各々をプーリング層の後にクロッピング(切り取り)して特徴ネット(ニューラルネットワーク204)を構築する。具体的には、ResNet50がその平均プーリング層の後にクロッピングされ、平均プーリング層は、グローバル・マックスプーリング層(例えば、306)に置き換えられ、1×1×2048の特徴ベクトルを生成する。同様に、MobileNetV2については、全結合層が切り取られ、平均プーリング層がグローバル・マックスプーリング層に置き換えられ、新しい特徴ネットが1×1×1280の特徴ベクトルを出力する。並列分岐308、310、312の各々は、グローバル・マックスプーリング層306からの出力を受け取る。 Instead of replacing only the final classification layer, each of the source networks is cropped after the pooling layer to build the feature net (neural network 204). Specifically, ResNet 50 is cropped after its average pooling layer, which is replaced by a global maxpooling layer (eg, 306) to produce a 1×1×2048 feature vector. Similarly, for MobileNetV2, the fully connected layer is truncated, the average pooling layer is replaced with a global max pooling layer, and the new feature net outputs 1x1x1280 feature vectors. Each of parallel branches 308 , 310 , 312 receives output from global maxpooling layer 306 .

この初期の分岐(ブランチ)の選択を行うのは、異なる皮膚の徴候が、潜在的に異なる画像の特徴に依存するためであり、この選択は実験を通して検証される。各皮膚の徴候の分岐(各並列分岐308、310のうちの1つ)は、活性化層に続く2つの全結合層で構成される。最初に、入力サイズをプーリング後の特徴サイズ(例えば、それぞれ、1×1×2048または1×1×1280)、出力サイズを50とする全結合層で特徴ネット(ResNet50又はMobileNet)を接続し、それに続いてReLU活性化層(例えば、正規化線形活性化ユニット)を接続する。次に、入力サイズ50、出力サイズ1の第2の全結合層の後に、最終スコアを出力するカスタマイズされた活性化層が続く。 This initial branch selection is made because different skin manifestations depend on potentially different image features, and this selection is verified through experimentation. Each skin manifestation branch (one of each parallel branch 308, 310) consists of two fully connected layers following the activation layer. First, connect the feature nets (ResNet50 or MobileNet) with a fully connected layer where the input size is the feature size after pooling (for example, 1×1×2048 or 1×1×1280, respectively) and the output size is 50, Then connect the ReLU activation layer (eg, normalized linear activation unit). Then a second fully connected layer with an input size of 50 and an output size of 1 is followed by a customized activation layer that outputs the final score.

このシステムは、本明細書中で上記に参照したように、L’Orealによって維持される国際的に許容された皮膚スコアの図版集に準拠しており、そして結果として、皮膚の徴候は、それらのタイプ、人の民族性、及び性別に応じて個々のスケールを有する。なぜなら、皮膚の徴候の各々には境界があるためである。最後の層には、純粋な線形の回帰層や、他の活性化関数ではなく、カスタムの関数、即ちLeaky ReLUのような活性化関数(LeakyClampと呼ばれる)が使用される。Leaky ReLUは、A.L.Maas,A.Y.Hannun,A.Y.Ng,Rectifier Nonlinearities Improve Neural Network Acoustic Models,in:Proc.International Conference on Machine Learning,Vol.30,2013,p.3,に記載され、参照により本明細書に組み込まれる。Leaky ReLUは、x<0である場合の「dyiing ReLU」の問題に対処しようとするものである。標準的なReLU関数がx<0の時に0になるが、Leaky ReLUは小さな負の傾き(例えば、0に近い0.01程度の傾き)を有する。 The system complies with the internationally accepted skin score pictorial compendium maintained by L'Oreal, as referenced herein above, and as a result, skin manifestations are It has individual scales according to the type of person, the ethnicity of the person, and the gender. This is because each skin manifestation has boundaries. The final layer uses a custom function, namely an activation function like Leaky ReLU (called LeakyClamp), rather than a purely linear regression layer or another activation function. Leaky ReLU is an A.I. L. Maas, A.; Y. Hannun, A.; Y. Ng, Rectifier Nonlinearities Improve Neural Network Acoustic Models, in: Proc. International Conference on Machine Learning, Vol. 30, 2013, p. 3, which is incorporated herein by reference. Leaky ReLU attempts to address the problem of "dying ReLU" when x<0. While the standard ReLU function goes to 0 when x<0, Leaky ReLU has a small negative slope (eg, a slope of about 0.01 close to 0).

LeakyClampは、最小の活性化(min-activation)以下および最大の活性化(max-activation)以上では0に近い傾きを持ち、最大の活性化は、以下の数式1のように徴候(sign)によって異なっている。αは傾き、aは下限、bはスコア範囲の上限である。学習では、αを0.01、a、bを各徴候のスコア範囲とするように選択する。

Figure 2020113326000005
LeakyClamp has a slope close to 0 below min-activation and above max-activation, where max-activation is determined by sign as in Equation 1 below. different. α is the slope, a is the lower bound, and b is the upper bound of the score range. For learning, α is chosen to be 0.01 and a, b to be the score range for each symptom.
Figure 2020113326000005

本明細書の評価の項で更に説明されるように、深層学習ネットワークを学習させるために、xiがi番目の学習画像であり、yiがスコアのベクトルである(xi、yi)という形式の多数のサンプルを取得して使用する。最適なパラメータθのセットを見つけるために、損失関数が最小化される。いくつかの損失関数を用いて実験を行ったが、一方が他方より優れていることは見出されなかった。 To train a deep learning network, as further described in the evaluation section of this specification, multiple obtain and use a sample of A loss function is minimized to find the optimal set of parameters θ. Experiments were performed with several loss functions and no one was found to be superior to the other.

従って、標準的なL2損失(数式2)は最小化され、本明細書に示されるデータで使用され、ここで、L2は下記の数式2で示される。

Figure 2020113326000006
Therefore, the standard L2 loss (equation 2) is minimized and used in the data presented herein, where L2 is given in equation 2 below.
Figure 2020113326000006

更に、皮膚のスコアの民族性に依存することから、独自のコンポーネント構造と標準的な交差エントロピー分類損失のLethnicityを有する別個の民族性予測の分岐(各並列分岐312のうちの1つ)が定義される。民族性の分岐(312)は、入力サイズを特徴サイズとし、出力サイズを民族性の個数とする1つの全結合層を有する。追加の損失Lethnicityは、学習を正しい方向に導くのに役立つが、試験時にも役立ち、個人の民族グループを使用することによって出力スコアを正しく解釈できるようになる。L2損失および交差エントロピー分類損失のLethnicityは、以下の数式4に示すように、重みλと合わせて損失Lとなる。λは、スコア回帰と民族性の分類損失の間のバランスを制御する。学習ではλ=0.002を用いた。

Figure 2020113326000007
Furthermore, due to the skin score ethnicity dependence, a separate ethnicity prediction branch (one of each parallel branch 312) with its own component structure and standard cross-entropy classification loss L ethnicity Defined. The ethnicity branch (312) has one fully connected layer with the input size as the feature size and the output size as the number of ethnicities. The additional loss, L identity , helps steer learning in the right direction, but it also helps during testing, allowing correct interpretation of output scores by using a person's ethnic group. The L thnicity of the L2 loss and the cross-entropy classification loss, together with the weight λ, is the loss L, as shown in Equation 4 below. λ controls the balance between score regression and ethnicity classification loss. λ=0.002 was used for learning.
Figure 2020113326000007

一般的な転移学習の手法に従い、ネットワークはImageNet上で事前に学習され、次いで、上記の損失を使用して(例えば、最小化して)、皮膚の診断データ上で微調整される。また、ImageNetの事前学習の手順と同様に、[0.485、0.456、0.406]を中心とし、[0.229、0.224、0.225]の標準偏差で画像の正規化が適用される。アダムオプティマイザ(Adam optimizer)は、確率的な目的関数の一次勾配ベースの最適化を行い、学習率は0.0001、バッチサイズ16で学習プロセスを微調整する。アダムオプティマイザは、D.P.Kingma,J.Ba,Adam:A method for stochastic optimization,CoRR abs/1412.6980.arXiv:1412.6980 as early as 22 Dec.2014に記載されており、参照により本明細書に組み込まれる。 Following a common transfer learning approach, the network is pre-trained on ImageNet and then fine-tuned on skin diagnostic data using (eg, minimizing) the above losses. Also, similar to ImageNet's pre-training procedure, we normalize the image with a center of [0.485, 0.456, 0.406] and a standard deviation of [0.229, 0.224, 0.225] applies. The Adam optimizer performs first-order gradient-based optimization of a stochastic objective function, fine-tuning the learning process with a learning rate of 0.0001 and a batch size of 16. The Adam optimizer was developed by D. P. Kingma, J.; Ba, Adam: A method for stochastic optimization, CoRR abs/1412.6980. arXiv: 1412.6980 as early as 22 Dec. 2014, which is incorporated herein by reference.

消費者向けの用途を含め、見かけ上の皮膚診断には、多くの科学的、商業的および他の用途がある。制御された照明条件で画像を撮影し、標準化された姿勢を利用することによって、そのような幾つかの用途のための撮影条件を制御することは可能であるが、そのようなことは、特に消費者向けの用途では実現不可能の場合がある。従って、深層学習システムは、様々な照明条件や顔の姿勢を取り扱うことができることが望ましい。更に図3を参照すると、後者に対処するための一例として、ソース入力画像318上の顔のランドマーク検出器316(V.Kazemi,J.Sullivan,One millisecond face alignment with an ensemble of regression trees,in:IEEE Conference on Computer Vision and Pattern Recognition,2014,pp.1867-1874に記載され、参照により本明細書に組み込まれる)を用いて、検出されたランドマークに基づいて顔(出力画像202)を正規化するために画像を前処理しても良い。このように、入力された顔画像xは、常に一定のスケールでの顔の直立した正面画像となる。 Apparent skin diagnostics has many scientific, commercial and other uses, including consumer applications. Although it is possible to control the imaging conditions for some such applications by taking images in controlled lighting conditions and utilizing standardized poses, such is particularly It may not be feasible for consumer applications. Therefore, it is desirable that a deep learning system be able to handle various lighting conditions and facial poses. Still referring to FIG. 3, as an example to address the latter, a face landmark detector 316 (V. Kazemi, J. Sullivan, One million face alignment with an ensemble of regression trees, in : IEEE Conference on Computer Vision and Pattern Recognition, 2014, pp. 1867-1874, incorporated herein by reference) to normalize faces (output image 202) based on detected landmarks. The image may be pre-processed in order to Thus, the input face image x is always an upright frontal image of the face at a fixed scale.

学習中、ランドマークベースのクロッピングの後でも、任意のスケール変動に対応するために、様々なスケールのクロッピング(0.8から1.0までランダムに選択される)で学習データを増強しても良い。画像をランダムにクロッピングした後、各入力画像は、448ピクセル×334ピクセルの解像度にリサイズされる(例えば、ソースネットワークの予想される入力解像度に合うように)。更に、選択された画像は、学習中に0.5の確率で水平方向にランダムに反転される。また、照明の変動に対応するために、本願明細書の評価項で述べるように、様々な照明条件の画像を用いて学習が行われる。
<評価>
During training, even after landmark-based cropping, we augment the training data with various scales of cropping (chosen randomly from 0.8 to 1.0) to accommodate arbitrary scale variations. good. After randomly cropping the images, each input image is resized to a resolution of 448 pixels by 334 pixels (eg, to match the expected input resolution of the source network). In addition, the selected images are randomly flipped horizontally during training with a probability of 0.5. Also, in order to cope with illumination variations, learning is performed using images under various illumination conditions, as described in the evaluation section of this specification.
<Evaluation>

このモデルは、以下の9つの皮膚の徴候に従って女性画像の2つのデータセットで評価された学習結果である。
・法令線
・眉間のしわ
・額のしわ
・目の下のしわ
・唇の角のしわ
・顔の下部の下垂
・頬の皮脂腺の毛穴
・顔全体の色素沈着
・血管障害
This model has been trained on two datasets of female images according to the following nine skin signatures.
・Wrinkles between the eyebrows ・Wrinkles on the forehead ・Wrinkles under the eyes ・Wrinkles on the corners of the lips ・Ptosis of the lower part of the face

最後の2つの皮膚の徴候は、白人およびアジア人の民族に対してのみ定義されていることに注意されたい。第1のデータセットは、プロ用のカメラを用いて、理想的な照明と顔の姿勢で制御された実験室条件で撮影した5834人の女性画像(以下「分析データセット」という)で構成されている。このデータセットの全ての画像が9つの徴候全てのグランドトゥルースを含んでいるわけではないことに注意されたい。第2のデータセットは、照明が制御されていない条件下で携帯電話で撮影した自撮り画像(以下「自撮りデータセット」という)で構成されている。このデータセットには、3つの民族(白人、アジア人、アフリカ人)の女性380人の画像を含み、それぞれの人物が、屋外の昼光、屋内の昼光、屋内の人工的な拡散光、及び屋内の人工的な直射光の4つの異なる照明条件で撮影される。その結果、全体で4560枚の画像が得られた。両方のデータセットについて、データの90%を学習に使用し、10%を試験に使用した。同様に、いずれのケースにおいても、分析データセットの一部の画像には不要ではあるが、同じ顔の正規化の構成(フレームワーク)が適用される。この構成では、一部の画像で顔や顔のランドマークを検出することができず、学習や試験のデータ量が若干減少する。 Note that the last two skin manifestations are defined only for Caucasian and Asian ethnicities. The first data set consisted of images of 5834 women captured under controlled laboratory conditions with ideal lighting and facial poses using a professional camera (hereinafter referred to as the "analysis data set"). ing. Note that not all images in this dataset contain ground truth for all nine symptoms. The second dataset consists of selfie images taken with a mobile phone under uncontrolled lighting conditions (hereinafter referred to as the "selfie dataset"). This dataset contains images of 380 women of three ethnicities (Caucasian, Asian, and African), each of whom is exposed to outdoor daylight, indoor daylight, indoor artificial diffuse light, and indoor artificial direct light in four different lighting conditions. As a result, a total of 4560 images were obtained. For both datasets, 90% of the data was used for training and 10% for testing. Similarly, in both cases, the same face normalization framework is applied, although it is not necessary for some images in the analysis dataset. With this configuration, faces and facial landmarks cannot be detected in some images, which slightly reduces the amount of data for training and testing.

両方のデータセットは専門の皮膚科医によって手動で注釈付けされ、各画像は10~12人の専門家によって注釈付けされた。専門家の予想の平均値をグランドトゥルースとする。 Both datasets were manually annotated by expert dermatologists and each image was annotated by 10-12 experts. The ground truth is the average of the expert's predictions.

男性の画像に関する学習が行われることがある。鮮明な画像を得るために、顔の毛が無いことなどの画像条件を課しても良い。顔の毛は、顔の毛で覆われた皮膚領域の徴候のスコアに大きな影響を及ぼすだけでなく、全ての徴候について特徴を合わせて学習するため、これは学習の全体にも影響を与える。男性と女性の皮膚の徴候は同じである。 Training may be done on images of men. Image conditions such as no facial hair may be imposed in order to obtain a clear image. Not only does facial hair have a large impact on the score of symptoms in areas of skin covered with facial hair, but it also impacts overall learning, as features are learned together for all symptoms. Skin manifestations in men and women are the same.

ニューラルネットワーク202で構成される学習済みの深層学習システム200を評価するために、いくつかの尺度が使用される。民族の予知のために、正しく分類された割合が測定される。分析データセット及び自撮りデータセットの試験精度は、それぞれ99.7%および98.2%である。皮膚のスコアについては、2種類の測定値が使用される。第1は平均絶対誤差(M AE)であり、これは、全てのサンプルにおける予測値とグランドトゥルース値との間の絶対差の平均である。しかし、より有意義な誤差測度は、絶対誤差がある閾値(%(M AE<T))以下であるサンプルの割合である。用途によってはこの閾値が多かれ少なかれ厳密になる可能性がある。従って、この誤差測定値はいくつかの異なる閾値について報告される。以下は、分析データセット及び自撮りデータセットの両方の結果である。 Several measures are used to evaluate a trained deep learning system 200 consisting of neural networks 202 . For ethnic precognition, the correctly classified percentage is measured. The test accuracies for the analysis and selfie datasets are 99.7% and 98.2%, respectively. For skin scores, two measurements are used. The first is the Mean Absolute Error (MAE), which is the average of the absolute differences between the predicted and ground truth values over all samples. However, a more meaningful error measure is the percentage of samples whose absolute error is below some threshold (%(M AE<T)). Depending on the application, this threshold may be more or less stringent. Therefore, this error measure is reported for several different thresholds. Below are the results for both the analysis dataset and the selfie dataset.

表1は、分析データセットの結果を示し、表2は、自撮りデータセットの結果を示す。例えば、スコアの典型的な範囲は0~5~10であるが、深層学習システム200は、任意の皮膚の徴候について90%以上で1の絶対誤差内のスコアを予測することができることに留意されたい(いくつかの徴候については、より正確である)。

Figure 2020113326000008
Figure 2020113326000009
Table 1 shows the results for the analysis dataset and Table 2 shows the results for the selfie dataset. For example, a typical range of scores is 0-5-10, but it is noted that deep learning system 200 can predict scores within an absolute error of 1 over 90% for any skin manifestation. (more accurate for some indications).
Figure 2020113326000008
Figure 2020113326000009

自撮りデータセット(表2)では、制御されていない照明条件にも関わらず、ほとんどの場合、結果は更に良好である。しかし、専門家自身の間で、また同じ専門家の異なる照明条件間でさえ、スコアに非常に大きなばらつきがあることも観察される。従って、グランドトゥルースには偏りがあり、システム200が内部的に証明条件の予測を学習して、スコアをより良く予測している可能性が高い。様々な照明条件の間で、より一貫性のあるグランドトゥルースを収集することが助けになり得る。 For the selfie dataset (Table 2), the results are mostly even better, despite the uncontrolled lighting conditions. However, it is also observed that there is a very large variability in scores between the experts themselves and even between different lighting conditions of the same expert. Therefore, it is likely that the ground truth is biased and the system 200 is internally learning to predict proof conditions to better predict scores. Collecting more consistent ground truth across different lighting conditions can help.

しかしながら、現時点では「出回っている(in-the-wild)」画像に基づいて皮膚の徴候をスコア付けすることは、専門の皮膚科医にとっても困難な課題であり、この課題においてシステム200がそれを上回る性能を有することを示している。これは、表3に示されるように、各画像の絶対誤差は、各画像が平均して12人の専門家によってスコア付けされ、各専門家の予測とこの画像の平均的な専門家の予測とを比較することによって計算された。表2と表3を比較することにより、システム100は、顔全体の色素沈着を除いて、全ての徴候について専門家よりも正確であることが分かる。

Figure 2020113326000010
Currently, however, scoring skin manifestations based on "in-the-wild" images is a difficult task, even for professional dermatologists, in which system 200 can help. It shows that it has a performance exceeding that of This is shown in Table 3, where the absolute error for each image is calculated by comparing each expert's prediction with the average expert's prediction for this image, where each image is scored by 12 experts on average. It was calculated by comparing with By comparing Tables 2 and 3, it can be seen that the system 100 is more accurate than the expert for all indications except pigmentation across the face.
Figure 2020113326000010

自撮りデータの画像ベースのスコアに関するモデルの検証に加えて、皮膚科医がその人の皮膚状態の徴候をスコア付けすることができた被験者のサブセットについても検証を実施した。皮膚科専門医は、68名(1被験者あたり約12名の専門家)から訪問を受け、被験者の画像ベースのスコアに関係なく、ライブで評価を行った。画像ベースの分析と同様に、各皮膚状態の徴候について、1)システム200のモデルについて、モデルからの予測と、特定の被験者の徴候に対する専門家の平均スコアとを比較すること、及び2)各専門家による対面での評価については、各専門家のスコアのベクトルと、この被験者に対する専門家の平均スコアのベクトルとを比較することによって、平均絶対誤差を算出した。モデルのパフォーマンス(表4)及び専門家のパフォーマンス(表5)に関する2つの表が以下に示される。画像ベースのスコアリングの場合と同様に、専門家による対面でのスコアリングの場合でも、システム200からの自動的なスコア予測は、専門の皮膚科医による予測よりも高い精度をもたらし、これは、全ての徴候についてである。

Figure 2020113326000011
Figure 2020113326000012
In addition to validation of the model for image-based scores of selfie data, validation was also performed on a subset of subjects for whom dermatologists were able to score signs of their skin condition. Dermatologists were visited by 68 individuals (approximately 12 experts per subject) and evaluated live, regardless of subject's image-based score. Similar to the image-based analysis, for each skin condition indication, 1) for the system 200 model, compare the predictions from the model to the expert's average score for the particular subject's indication; For face-to-face expert assessments, the mean absolute error was calculated by comparing each expert's score vector to the expert's mean score vector for this subject. Two tables for model performance (Table 4) and expert performance (Table 5) are shown below. As with image-based scoring, even with face-to-face scoring by professionals, automatic score prediction from system 200 yields higher accuracy than predictions by professional dermatologists, which , for all indications.
Figure 2020113326000011
Figure 2020113326000012

表4、5の結果をより深く把握するために、表2、3と同様の検証解析を行うが、その際、実際に評価対象となった68名のサブセットのみを用いている。その結果を以下の表6及び表7に示す。この場合も、システム200からのモデルスコアの予測では、専門家のスコアリングよりも著しく高い精度が得られる。

Figure 2020113326000013
Figure 2020113326000014
In order to gain a deeper understanding of the results in Tables 4 and 5, validation analyzes similar to those in Tables 2 and 3 were performed, but only a subset of the 68 subjects actually evaluated was used. The results are shown in Tables 6 and 7 below. Again, prediction of model scores from system 200 provides significantly higher accuracy than expert scoring.
Figure 2020113326000013
Figure 2020113326000014

図4は、例示的なコンピュータネットワーク400のブロック図であり、ユーザ404によって操作される個人的使用のコンピュータ装置402が、通信ネットワーク404を介して、遠隔に位置するサーバコンピュータ装置、即ちサーバ406及びサーバ408と通信している。。ユーザ404は、皮膚科医の患者および/又は消費者であっても良い。また、第2のユーザ410と通信ネットワーク404を介して通信するように構成された第2のコンピュータ装置412も示されている。第2のユーザ410は、皮膚科医であっても良い。コンピュータ装置402は、ユーザが個人的に使用するためのものであり、サーバからのサービスのように、公衆が利用することはできない。ここで、公衆とは、登録されたユーザ及び/又は顧客等を含む。 FIG. 4 is a block diagram of an exemplary computer network 400 in which a personal-use computing device 402 operated by a user 404 communicates, via a communications network 404, with remotely located server computing devices, namely server 406 and server 406 . Communicating with server 408 . . User 404 may be a dermatologist's patient and/or a consumer. Also shown is a second computing device 412 configured to communicate with a second user 410 via communications network 404 . A second user 410 may be a dermatologist. The computing device 402 is for the personal use of the user and is not available to the public like services from a server. Here, the public includes registered users and/or customers.

簡潔には、コンピュータ装置402は、本明細書に記載されるように皮膚の診断を実行するように構成される。ニューラルネットワーク200は、ボード上のコンピュータ装置402上に格納されて利用されても良いし、コンピュータ装置402から受信した(複数の)画像からのクラウドサービス、ウェブサービスなどを介してサーバ406から提供されても良い。 Briefly, computing device 402 is configured to perform skin diagnostics as described herein. Neural network 200 may be stored and utilized on board computing device 402 or may be provided from server 406 via cloud services, web services, etc. from image(s) received from computing device 402 . can be

コンピュータ装置402は、例えば、皮膚診断の情報を提供し、皮膚診断および/又はユーザに関する他の情報(例えば、年齢、性別など)に応じて、製品/推奨される治療法を受信するために、サーバ408と通信するように構成される。コンピュータ装置402は、皮膚診断の情報(画像データを含んでも良い)を、例えば、データストア(図示せず)に記憶するために、サーバ406及び408のいずれかまたは両方に伝達するように構成され得る。サーバ408(又は図示しない別のサービスの提供者)は、推奨される(複数の)商品を販売するための電子商取引のサービスを提供することができる。 The computing device 402 may, for example, provide skin diagnostic information and receive products/recommended treatments depending on the skin diagnostic and/or other information about the user (eg, age, gender, etc.). It is configured to communicate with server 408 . Computing device 402 is configured to communicate skin diagnostic information (which may include image data) to either or both of servers 406 and 408 for storage, for example, in a data store (not shown). obtain. Server 408 (or another service provider not shown) may provide an e-commerce service for selling the recommended product(s).

コンピュータ装置402は、携帯モバイル端末(例えば、スマートフォン又はタブレット)として示されている。しかし、ラップトップ、デスクトップ、ワークステーションなどの別のコンピュータ装置であっても良い。本明細書に記載される皮膚診断は、他のコンピュータ装置に実装されても良い。コンピュータ装置402は、例えば、1又は複数のネイティブアプリケーション又はブラウザベースのアプリケーションを使用して構成されても良い。 Computing device 402 is depicted as a portable mobile terminal (eg, smart phone or tablet). However, it may be another computing device such as a laptop, desktop, workstation, or the like. The skin diagnostics described herein may be implemented in other computing devices. Computing device 402 may be configured using, for example, one or more native or browser-based applications.

コンピュータ装置402は、例えば、皮膚、特に顔の写真のような1又は複数の画像を取得し、画像を処理して皮膚診断を提供するユーザデバイスを備えても良い。皮膚診断は、画像を定期的に取得して分析し、1又は複数の皮膚の徴候に対する皮膚のスコアを決定する皮膚治療のプランに関連して実行されても良い。スコアは(ローカル、リモート、又はその両方で)記憶され、例えば傾向や改善点などを示すためにセッション間で比較されても良い。皮膚のスコアおよび/又は皮膚の画像は、コンピュータ装置402のユーザ404にアクセス可能であっても良く、皮膚科医などのコンピュータシステム400の別のユーザ(例えば、第2のユーザ410)が利用できるように(例えば、サーバ406を介して、又は通信ネットワーク404を介して別の方法で(電子的に)通信されるように)構成しても良い。また、第2のコンピュータ装置412は、上記に説明した皮膚診断を実行しても良い。それは、リモートソース(例えば、コンピュータ装置402、サーバ406、サーバ408等)から画像を受信しても良く、及び/又はそれに結合された光学センサ(例えば、カメラ)を介して、又は任意の他の方法で画像をキャプチャしても良い。ニューラルネットワーク200は、説明されるように、第2のコンピュータ装置412から、又はサーバ406から、記憶および使用されても良い。 Computing device 402 may comprise, for example, a user device that acquires one or more images, such as photographs of skin, particularly a face, and processes the images to provide a skin diagnosis. Skin diagnostics may be performed in conjunction with a skin treatment plan in which images are periodically acquired and analyzed to determine a skin score for one or more skin manifestations. Scores may be stored (locally, remotely, or both) and compared between sessions to show trends, improvements, and the like. The skin score and/or skin image may be accessible to a user 404 of the computing device 402 and available to another user of the computer system 400 (eg, a second user 410), such as a dermatologist. (eg, communicated via server 406 or otherwise (electronically) via communication network 404). The second computing device 412 may also perform skin diagnostics as described above. It may receive images from a remote source (eg, computing device 402, server 406, server 408, etc.) and/or via an optical sensor (eg, camera) coupled thereto, or any other You can capture the image in any way. Neural network 200 may be stored and used from second computing device 412 or from server 406 as described.

皮膚診断を実行し、1又は複数の製品を提案し、1又は複数の製品を適用(治療プランにおける治療セッションを定義しても良い)した後の皮膚の変化をある期間にわたってモニタリングするアプリケーションを提供しても良い。コンピュータ・アプリケーションは、以下のアクティビティのいずれかを実行するために、一連の指示的なグラフィカル・ユーザ・インタフェース(GUI)及び/又は他のユーザ・インタフェース(通常は対話的であり、ユーザの入力を受け取る)などのワークフローを提供しても良い。
・皮膚診断
・治療計画などの製品の推奨事項
・製品の購入やその他の取得
・各治療セッションでの製品の使用を思い出させる、指示する、及び/又は記録する(例えば、ログを記録する)
・その後の(例えば、1回以上のフォローアップ)皮膚診断
・結果(例えば比較結果)の提示
例えば、皮膚治療の計画の進捗をモニタリングするために、治療計画のスケジュールに従ってデータを生成することもできる。これらのアクティビティのいずれも、例えば、ユーザ410がレビューするため、別の個人がレビューするため、他のユーザのデータと集約して治療計画の有効性を測定するためなどのために、遠隔的に記憶されるデータを生成できる。
Provides an application that performs skin diagnostics, recommends one or more products, and monitors skin changes over time after applying one or more products (which may define treatment sessions in a treatment plan). You can A computer application uses a series of instructional graphical user interfaces (GUIs) and/or other user interfaces (usually interactive and accepting user input) to perform any of the following activities: receive) or other workflows may be provided.
-Recommendation of products such as skin diagnostics -Treatment plans -Purchasing or otherwise obtaining products -Reminding, directing and/or recording (e.g., logging) the use of products in each treatment session
Subsequent (e.g. one or more follow-ups) skin diagnosis Presentation of results (e.g. comparison results) Data can also be generated according to the schedule of the treatment plan, e.g. to monitor the progress of the skin treatment plan . Any of these activities can be performed remotely, e.g., for review by user 410, for review by another individual, aggregated with other users' data to measure treatment plan effectiveness, etc. It can generate data to be stored.

比較結果(例えば、前後の結果)は、治療計画の最中および/又は完了時などに関わらず、コンピュータ装置402を介して提示しても良い。上述したように、皮膚診断の態様は、コンピュータ装置400上で、又は遠隔的に結合されたデバイス(例えば、クラウド内のサーバ又は別の構成)によって実行することができる。 Comparison results (eg, before and after results) may be presented via computing device 402, such as during and/or at the completion of the treatment plan. As noted above, aspects of skin diagnostics may be performed on computing device 400 or by a remotely coupled device (eg, a server in the cloud or another configuration).

図5は、本発明の1又は複数の態様によるコンピュータ装置402の構成図である。コンピュータ装置402は、1又は複数のプロセッサ502、1又は複数の入力装置504、ジェスチャベースの入出力装置506、1又は複数の通信ユニット508、及び1又は複数の出力装置510を備える。コンピュータ装置402はまた、1又は複数のモジュール及び/又はデータを記憶する1又は複数の記憶装置512を含む。モジュールは、深層ニューラルネットワーク・モデル514、グラフィカル・ユーザ・インターフェース(GUI 518)のためのコンポーネントを有するアプリケーション516、及び/又は治療のモニタリングのためのワークフロー(例えば、治療モニタ520)、画像取得522(例えば、インターフェース)、及び治療/製品セレクタ530(例えば、インターフェース)を含んでも良い。データは、処理のための1つ以上の画像(例えば、画像524)、皮膚診断データ(例えば、それぞれのスコア、民族、又は他のユーザデータ)、具体的な治療に関連するログデータ、リマインダ用などのスケジュールを伴う治療計画などの治療データを含んでも良い。 FIG. 5 is a block diagram of computing device 402 in accordance with one or more aspects of the present invention. Computing device 402 includes one or more processors 502 , one or more input devices 504 , gesture-based input/output devices 506 , one or more communication units 508 , and one or more output devices 510 . Computing device 402 also includes one or more storage devices 512 that store one or more modules and/or data. The modules include a deep neural network model 514, an application 516 with components for a graphical user interface (GUI 518), and/or a workflow for therapy monitoring (e.g., therapy monitor 520), image acquisition 522 ( interface), and a therapy/product selector 530 (eg, interface). The data may include one or more images for processing (e.g., image 524), skin diagnostic data (e.g., respective scores, ethnicity, or other user data), log data related to specific treatments, and for reminders. It may also include treatment data such as treatment plans with schedules such as.

アプリケーション516は、映像などの1又は複数の画像を取得し、画像を処理して、ニューラルネットワークモデル514によって提供される深層ニューラルネットワークの皮膚診断を判定する機能を提供する。ネットワークモデルは、図2及び図3に示すモデルとして構成しても良い。別の実施形態では、ネットワークモデルは遠隔地に配置され、コンピュータ装置402は、アプリケーション516を介して、皮膚診断のデータの処理および返送のために画像を通信することができる。アプリケーション516は、前述の活動を実行するように構成され手も良い。 Application 516 provides functionality for acquiring one or more images, such as videos, and processing the images to determine a deep neural network skin diagnosis provided by neural network model 514 . The network model may be configured as the models shown in FIGS. 2 and 3. FIG. In another embodiment, the network model is remotely located and the computing device 402 can communicate images for processing and return of skin diagnostic data via the application 516 . Application 516 may also be configured to perform the aforementioned activities.

(複数の)記憶装置512は、処理システム532や、通信モジュール、画像処理モジュール(例えば、プロセッサ502のGPU用)、地図モジュール、連絡先モジュール、カレンダモジュール、写真/ギャラリーモジュール、写真(画像/メディア)エディタ、メディアプレーヤ及び/又はストリーミングモジュール、ソーシャルメディアアプリケーション、ブラウザモジュールなどを含む、他のモジュール(図示せず)などの追加のモジュールを記憶しても良い。記憶装置は、本明細書では記憶ユニットとして参照されることがある。 The storage device(s) 512 may include a processing system 532, a communication module, an image processing module (eg, for the GPU of processor 502), a map module, a contact module, a calendar module, a photo/gallery module, a photo (image/media ) may store additional modules such as other modules (not shown), including editors, media players and/or streaming modules, social media applications, browser modules, and the like. A storage device may be referred to herein as a storage unit.

通信チャンネル538は、コンポーネント502、504、506、508、510、512のそれぞれや、コンポーネント間通信のための任意のモジュール514、516、及び532を、通信的、物理的、及び/又は動作的に結合することができる。いくつかの例では、通信チャンネル538がシステムバス、ネットワーク接続、プロセス間通信データ構造、又はデータを通信するための他の任意の方法を含んでも良い。 Communication channel 538 may communicatively, physically and/or operationally connect each of components 502, 504, 506, 508, 510, 512 and any modules 514, 516, and 532 for inter-component communication. can be combined. In some examples, communication channel 538 may include a system bus, network connection, interprocess communication data structures, or any other method for communicating data.

1又は複数のプロセッサ502は、コンピュータ装置402内で機能性を実装し、及び/又は命令を実行することができる。例えば、プロセッサ502は、図5に示されているモジュールの機能性(例えば、処理システム、アプリケーションなど)を実行するために、記憶装置512から命令および/又はデータを受信するように構成されても良い。コンピュータ装置402は、データ/情報を記憶装置512に記憶しても良い。機能のいくつかは、本明細書において以下に更に説明される。処理は、図5のモジュール514、516、及び532内に正確に含まれない場合があり、1つのモジュールが他のモジュールの機能を支援する場合があることを理解されたい。 One or more processors 502 may implement functionality and/or execute instructions within computing device 402 . For example, processor 502 may be configured to receive instructions and/or data from storage device 512 to perform the functionality of the modules (eg, processing system, application, etc.) shown in FIG. good. Computing device 402 may store data/information in storage device 512 . Some of the functions are further described herein below. It should be appreciated that the processing may not be exactly contained within modules 514, 516, and 532 of FIG. 5, and that one module may support the functionality of another module.

処理を実行するためのコンピュータプログラムコードは、1又は複数のプログラミング言語、例えば、Java、Smalltalk、C++などのオブジェクト指向プログラミング言語、又は「C」プログラミング言語や同様のプログラミング言語等、従来のオブジェクト指向プログラミング言語の任意の組合せで記述できる。 The computer program code for carrying out the processes may be written in one or more programming languages, e.g., object oriented programming languages such as Java, Smalltalk, C++, or conventional object oriented programming, such as the "C" programming language or similar programming languages. It can be written in any combination of languages.

コンピュータ装置402は、ジェスチャベースの入出力装置506のスクリーン上に表示するための出力を生成しても良く、いくつかの例では、プロジェクタ、モニタ、又は他の表示デバイスによる表示のための出力を生成しても良い。ジェスチャベースの入出力装置506は、様々な技術(例えば、抵抗式タッチスクリーン、表面弾性波タッチスクリーン、静電容量式タッチスクリーン、投影型静電容量式タッチスクリーン、感圧スクリーン、音響パルス認識タッチスクリーン、又は別のタッチ感応スクリーン技術、及び出力能力:液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、ドットマトリクスディスプレイ、eインク、又は同様のモノクロ又はカラーディスプレイ)を使用して構成され得ることが理解されるのであろう。 Computing device 402 may generate output for display on the screen of gesture-based input/output device 506, and in some examples output for display by a projector, monitor, or other display device. may be generated. Gesture-based input/output devices 506 may be implemented using a variety of technologies (e.g., resistive touch screens, surface acoustic wave touch screens, capacitive touch screens, projected capacitive touch screens, pressure sensitive screens, acoustic pulse recognition touch screens, etc.). screen, or another touch-sensitive screen technology and output capability: liquid crystal display (LCD), light emitting diode (LED) display, organic light emitting diode (OLED) display, dot matrix display, e-ink, or similar monochrome or color display) It will be appreciated that it can be configured using

本明細書で説明する例では、ジェスチャベースの入出力装置506は、タッチスクリーンと対話するユーザから触覚的な対話またはジェスチャを入力として受信することができるタッチスクリーンデバイスを含む。そのようなジェスチャは、タップジェスチャ、ドラッグジェスチャ又はスワイプジェスチャ、フリックジェスチャ、ユーザがジェスチャベースの入出力装置506の1又は複数の位置にタッチ又はポイントするジェスチャの一時停止(例えば、ユーザが少なくとも閾値時間にわたってスクリーンの同じ位置にタッチする場合)を含むことができる。ジェスチャベースの入出力装置506は、ノンタップジェスチャを含むこともできる。ジェスチャベースの入出力装置506は、グラフィカルユーザインターフェースなどの情報をユーザに出力または表示することができる。ジェスチャベースの入出力装置506は、コンピュータ装置402の様々なアプリケーション、機能、及び能力を提示することができ、これらには、例えば、画像を取得し、画像を閲覧し、画像を処理し、新しい画像を表示するためのアプリケーション516、メッセージングアプリケーション、電話通信、連絡先およびカレンダアプリケーション、ウェブブラウジングアプリケーション、ゲームアプリケーション、電子書籍アプリケーション及び金融、支払い、並びに他のアプリケーションまたは機能を含む。 In the examples described herein, the gesture-based input/output device 506 includes a touch screen device capable of receiving tactile interactions or gestures as input from a user interacting with the touch screen. Such gestures may include tap gestures, drag or swipe gestures, flick gestures, pause gestures in which the user touches or points to one or more locations on the gesture-based input/output device 506 (e.g., the user touches or points at least a threshold amount of time). (when touching the same location on the screen across the screen). The gesture-based input/output device 506 can also include non-tap gestures. Gesture-based input/output device 506 can output or display information to a user, such as a graphical user interface. The gesture-based input/output device 506 can present various applications, functions, and capabilities of the computing device 402, including, for example, acquiring images, viewing images, processing images, creating new Applications 516 for displaying images, messaging applications, telephony, contacts and calendar applications, web browsing applications, gaming applications, e-book applications and finance, payments, and other applications or functions.

本発明は主に入出力能力を有するディスプレイスクリーンデバイス(例えば、タッチスクリーン)の形態のジェスチャベースの入出力装置506について説明するが、動きを検出することができ、スクリーン自体を含まない他のジェスチャベースの入出力装置を利用できる。そのようなケースでは、コンピュータ装置402がディスプレイスクリーンを含むか、又はアプリケーション516の新しい画像およびGUIを提示するためにディスプレイ機器に結合される。コンピュータ装置402は、トラックパッド/タッチパッド、1又は複数のカメラ、又は別のプレゼンス又はジェスチャ感知入力装置からジェスチャベースの入力を受信することができ、プレゼンスは例えば、ユーザの全部または一部の動きを含むユーザのプレゼンス態様を意味する。 Although the present invention primarily describes gesture-based input/output devices 506 in the form of display screen devices (e.g., touch screens) that have input/output capabilities, other gestures that can detect motion and do not involve the screen itself. Base I/O devices are available. In such cases, computing device 402 includes a display screen or is coupled to a display device for presenting new images and GUIs of application 516 . Computing device 402 can receive gesture-based input from a trackpad/touchpad, one or more cameras, or another presence or gesture-sensing input device, where presence is, for example, movement of all or part of the user. It means the user's presence mode including.

1又は複数の通信ユニット508は、1又は複数のネットワーク上でネットワーク信号を送信および/又は受信することによって、通信ネットワーク404などを介して、説明した目的および/又は他の目的(例えば、プリント)などのために、外部デバイス(例えば、サーバ406、サーバ408、第2のコンピュータ装置412)と通信しても良い。通信ユニットは、無線および/又は有線通信のための様々なアンテナ及び/又はネットワークインターフェースカード、チップ(例えば、全地球測位衛星(GPS))などを含んでも良い。 One or more communication units 508 may transmit and/or receive network signals over one or more networks for the purposes described and/or other purposes (e.g., printing) over communication network 404 or the like. For example, it may communicate with an external device (eg, server 406, server 408, second computing device 412). The communication unit may include various antennas and/or network interface cards, chips (eg, global positioning satellites (GPS)), etc. for wireless and/or wired communication.

入力装置504及び出力装置510は、1又は複数のボタン、スイッチ、ポインティングデバイス、カメラ、キーボード、マイクロフォン、1又は複数のセンサ(例えば、バイオメトリックなど)、スピーカ、ベル、1又は複数のライト、触覚(振動)デバイスなどのいずれかを含んでも良い。1又は複数のそれらを、ユニバーサルシリアルバス(USB)又は他の通信チャンネル(例えば538)を介して結合することができる。カメラ(入力装置804)はユーザが「自撮り」を撮るためにジェスチャベースの入出力装置506を見ながら、カメラを使用して(複数の)画像をキャプチャすることを可能にするために、前方に向けられても良い(即ち、同じ側に向けられても良い)。 Input device 504 and output device 510 may be one or more buttons, switches, pointing devices, cameras, keyboards, microphones, one or more sensors (eg, biometrics, etc.), speakers, bells, one or more lights, tactile (vibration) devices, etc. may be included. One or more of them can be coupled via a Universal Serial Bus (USB) or other communication channel (eg, 538). The camera (input device 804) is positioned forward to allow the user to capture image(s) using the camera while looking at the gesture-based input/output device 506 to take a "selfie". (ie, to the same side).

1又は複数の記憶装置512は、例えば、短期メモリまたは長期メモリとして、異なる形態および/又は構成をとっても良い。記憶装置512は、揮発性メモリとしての情報の短期記憶のために構成されても良く、この揮発性メモリは、電力が除去されたときに記憶された内容を保持しない。揮発性メモリには、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM)などがある。記憶デバイス512は、いくつかの例では、例えば、揮発性メモリよりも大量の情報を記憶し、及び/又は電力が除去されても情報を保持してその情報を長期にわたって記憶するために、1又は複数のコンピュータ可読記憶媒体も含む。不揮発性メモリの例には、磁気ハードディスク、光ディスク、フロッピーディスク、フラッシュメモリ、又は電気的にプログラム可能なメモリ(EPROM)又は電気的に消去およびプログラム可能な(EEPROM)メモリの形態が含まれる。 The one or more storage devices 512 may take different forms and/or configurations, eg, as short-term memory or long-term memory. Storage device 512 may be configured for short-term storage of information as volatile memory, which does not retain stored contents when power is removed. Volatile memory includes random access memory (RAM), dynamic random access memory (DRAM), static random access memory (SRAM), and the like. Storage device 512, in some examples, may be a single memory device, for example, to store a larger amount of information than volatile memory and/or to retain information even when power is removed for long-term storage of that information. or multiple computer readable storage media. Examples of non-volatile memory include magnetic hard disks, optical disks, floppy disks, flash memory, or forms of electrically programmable memory (EPROM) or electrically erasable and programmable (EEPROM) memory.

図示されていないが、コンピュータ装置は、例えば、図3に示すようなネットワークを適切な学習および/又は試験データと共に使用して、ニューラルネットワークモデル514を学習させるための学習環境として構成されても良い。 Although not shown, a computing device may be configured as a learning environment for training the neural network model 514 using, for example, a network such as that shown in FIG. 3 with appropriate training and/or test data. .

深層ニューラルネットワークは、ラップトップ、デスクトップ、ワークステーション、サーバ、又は他の同等の世代のコンピュータ装置などの「より大きい」装置よりも少ない処理リソースを有するモバイル端末(例えば、スマートフォン又はタブレット)であるコンピュータ装置のためのライトアーキテクチャに適合させることができる。 Deep neural networks are computers that are mobile terminals (e.g., smartphones or tablets) that have fewer processing resources than "larger" devices such as laptops, desktops, workstations, servers, or other comparable generation computing devices. It can be adapted to the light architecture for the device.

一態様では、深層ニューラルネットワークモデルは、個々の標準的な畳み込みが深さ方向の畳み込み(depthwise convolution)と点方向の畳み込み(pointwise convolution)とに因数分解される畳み込みからなる、深さ方向に分離可能な畳み込みニューラルネットワークとして構成することができる。深さ方向の畳み込みは各入力チャンネルに単一フィルタを適用することに制限され、点方向の畳み込みは、深さ方向畳み込みの出力を結合することに制限される。 In one aspect, the deep neural network model is depthwise segregated, consisting of convolutions where each standard convolution is factored into a depthwise convolution and a pointwise convolution. It can be configured as a possible convolutional neural network. Depth-wise convolution is restricted to applying a single filter to each input channel, and point-wise convolution is restricted to combining the outputs of depth-wise convolutions.

第2のコンピュータ装置412は、コンピュータ装置402と同様に構成されても良いことが理解される。第2のコンピュータ装置412は、様々なユーザに対してサーバ406に記憶されたデータから画像および皮膚の徴候診断を要求して表示するなどのGUIを有しても良い。 It is understood that the second computing device 412 may be configured similarly to computing device 402 . The second computing device 412 may have a GUI, such as for requesting and displaying images and skin symptom diagnoses from data stored on the server 406 for various users.

図6,7は、例えば、コンピュータ装置402(又は410)の各処理600、610、620、及び630のフローチャートである。処理600は、コンピュータ装置402のユーザが、アプリケーション516などのアプリケーションを使用して、ユーザの顔の画像を含む自撮りをし、複数(N)の各皮膚の徴候に対する皮膚診断を実行することに関する。601において、画像は、カメラ又は他の方法(例えば、メッセージの添付ファイルから)を介して、プロセッサで受信される。 6 and 7 are flow charts of respective processes 600, 610, 620, and 630 of computing device 402 (or 410), for example. Process 600 involves a user of computing device 402 using an application, such as application 516, to take a selfie containing an image of the user's face and perform a skin diagnosis for each of a plurality (N) of skin manifestations. . At 601, an image is received at the processor via a camera or other method (eg, from a message attachment).

602では、画像を前処理し、CNNに提示する正規化された画像を定義する。画像は、CNNの学習に従って、同じようなサイズの画像をCNNに提示するために、センタリングされ、所定のサイズ(解像度)にトリミングされても良い。603では、正規化された画像がCNN(ニューラルネットワークモデル514)を使用して処理され、N個の皮膚の徴候診断の結果を生成する。また、民族ベクトルも生成される。N個の皮膚の徴候診断および民族性ベクトル(又はその単一の値)は、画像および/又は正規化された画像を提示することもできるGUIなどを介して604で提示される。画像を提示することは、どの顔の領域がどの皮膚の徴候に関連しているかを示す、N個の皮膚の徴候の各々(又は少なくとも1つ)について、画像(又は正規化された画像)をセグメント化することを含んでも良い。画像からの抽出は、例えば、境界ボックス及び/又はマスクを使用して、GUIで提示するために準備された部位を分離するなどして皮膚の徴候を行っても良い。CNNは、各(又は少なくとも1つの)特定の領域についての境界ボックス及び/又はマスクを構成するセグメンテーション関連のデータを出力するように構成されても良い。画像には、拡張現実または仮想現実などの技術を用いて注釈を付けて、領域を強調表示しても良い。例えば、画像内の領域の関連ピクセルを強調表示することができる。画像(又は正規化された画像)を示すGUIが提供されても良い。ポインティングデバイス又はジェスチャなど入力を受けて、CNNによって皮膚の徴候診断が生成された領域の1つ以上のピクセルを示したり選択したりしても良い。示された領域の外側のピクセルは、その領域のマスク及び/又は境界ボックスを使用して、選択された領域のピクセルを強調するためにぼかされても良い。また、ぼかすのではなく、領域の外にあるピクセル、例えば境界線内(例えば、1~Xピクセル)のピクセルを強調色で着色して領域を取り囲み、ハロー効果を出しても良い。領域に隣接するピクセルはより暗く(色が濃く)、領域から離れた(境界線内の)ピクセルはより明るい色になっていても良い。異なる徴候は、異なる色の境界線を持つ可能性がある。その領域の皮膚の徴候診断が表示されても良い。色は、スケーリング係数を使用するなど、皮膚の徴候診断の結果に比例する重症度を示すために使用されても良い。特定の皮膚の徴候診断に単一の色を使用し、その色の深さ(例えば、明るい色から暗い色)を皮膚の徴候診断のスケールに比例して調整しても良い。別の例では、皮膚の徴候診断のスケールの各レベルに異なる色を使用しても良い。GUIが深さによって変化する単一の色を示すか、異なる色を使用するかに関わらず、スケールとの関係を示す色の凡例を提供しても良い。画像に適用される拡張現実または仮想現実をオン/オフ、例えば、強調表示をオン/オフするために、ユーザのトグルコントロールを提供しても良い。皮膚の徴候診断の各々(例えば、各重症度および各皮膚の徴候に対して1つ)を示す他人の代表的な画像を示す分析例の画像(又は特定の患部の抽出物)を比較対象として提示しても良く、そのような例は、他人のプライバシを尊重する方法で示されても良い。以下で更に説明するように、製品および/又は治療の推奨を提示しても良い。更に後述するように、治療の前後の画像(例えば、後の画像は1つ以上の治療の後に撮影された後続の画像を表し、比較対象として用意された後続の皮膚の徴候診断を有していても良い。また、画像を介して入力されたジェスチャが領域を選択または指示することが説明したが、例えば、所定の皮膚の徴候の入力を受信することによって領域を自動的に選択するGUIを提供しても良い。例えば、GUIでは、各皮膚の徴候および/又は皮膚の徴候診断を表または他の形態の出力を提示しても良い。表または他の形態から特定の項目を選択すると、GUIを呼び出して、皮膚の徴候診断に関連する領域が強調表示された画像(又は正規化された画像)を表示しても良い。ジェスチャー起動型のGUI(及び/又は他の入力起動型GUI(例えば、テキストコマンド))に加えて、又はその代わりに、音声起動型GUIが、本明細書の任意の例で使用されても良いことが理解される。 At 602, the images are preprocessed to define normalized images to present to the CNN. Images may be centered and cropped to a predetermined size (resolution) in order to present similarly sized images to the CNN as the CNN learns. At 603, the normalized image is processed using a CNN (neural network model 514) to generate N skin symptom diagnosis results. An ethnicity vector is also generated. The N skin sign diagnoses and ethnicity vectors (or single values thereof) are presented at 604 via a GUI or the like that can also present images and/or normalized images. Presenting the images includes displaying an image (or a normalized image) for each (or at least one) of the N skin features that indicate which facial regions are associated with which skin features. Segmenting may be included. Extraction from the image may, for example, perform skin signatures using bounding boxes and/or masks to isolate regions prepared for presentation in the GUI. The CNN may be configured to output segmentation-related data that constitute bounding boxes and/or masks for each (or at least one) particular region. The image may be annotated using techniques such as augmented reality or virtual reality to highlight regions. For example, relevant pixels of regions within an image can be highlighted. A GUI may be provided that shows the image (or normalized image). Input, such as a pointing device or gesture, may be received to indicate or select one or more pixels in the region for which a skin symptom diagnosis was generated by the CNN. Pixels outside the indicated region may be blurred using a mask and/or bounding box for that region to enhance pixels in the selected region. Also, instead of blurring, pixels outside the region, eg pixels within the border (eg, 1-X pixels), may be colored with a highlight color to surround the region to create a halo effect. Pixels adjacent to the region may be darker (higher in color) and pixels further away from the region (within the border) may be lighter in color. Different signs may have different colored borders. A skin symptom diagnosis for the area may be displayed. Color may be used to indicate severity proportional to skin symptom diagnostic results, such as using a scaling factor. A single color may be used for a particular skin symptom diagnosis and its color depth (eg, light to dark) may be scaled proportionally to the scale of the skin symptom diagnosis. In another example, different colors may be used for each level of the skin symptom diagnosis scale. Whether the GUI shows a single color that varies with depth or uses different colors, it may provide a color legend that shows the relationship to scale. A user toggle control may be provided to turn on/off the augmented reality or virtual reality applied to the image, eg, to turn highlighting on/off. Analysis example images (or extracts of specific affected areas) showing representative images of others showing each of the skin sign diagnoses (e.g., one for each severity and each skin sign) for comparison. may be presented, and such examples may be presented in a manner that respects the privacy of others. Product and/or treatment recommendations may be provided, as described further below. As discussed further below, pre- and post-treatment images (e.g., post-images represent subsequent images taken after one or more treatments, with subsequent skin symptom diagnoses provided for comparison). Also, while it has been described that a gesture input via an image selects or indicates an area, for example, a GUI that automatically selects an area by receiving input of a given skin indicia may be used. For example, a GUI may present each skin symptom and/or skin symptom diagnosis in a tabular or other form of output Selecting a particular item from the tabular or other form may A GUI may be invoked to display an image (or normalized image) in which regions relevant to skin symptom diagnosis are highlighted, gesture-activated GUIs (and/or other input-activated GUIs ( For example, it is understood that a voice-activated GUI may be used in any of the examples herein in addition to or instead of text commands)).

図6(b)は、処理610を示す。611では、GUIが提示され(GUIは、処理600、610、620、及び630のいずれかに対して提示されても良いことに留意されたい)、製品および/又は治療法の推奨事項を開始する。入力は、パフォーマンスを起動するために受信されても良い。612では、推奨事項が受信され、動作は、推奨事項を受信するために、サーバ408などのリモートサーバへの皮膚の診断情報(例えば、スコア、民族性ベクトル、画像、ユーザ情報など)の通信を含んでも良い。推奨事項は、1又は複数の製品、皮膚の領域への適用方法、及びスケジュールを有する治療計画に関連するものが含まれる。613では、推薦事項は、例えばGUIを介して提示される。複数の推奨事項を受信し、提示しても良い。614では、推薦事項の受け入れを示す選択が行われる。これは、記憶(ログ)されても良く、例えば、コンピュータ装置402の治療のモニタリング機能を開始しても良い。615では、サーバ408や他のサーバなどを介して製品の購買が促進されても良い。 FIG. 6B shows process 610 . At 611, a GUI is presented (note that a GUI may be presented for any of the processes 600, 610, 620, and 630) to initiate product and/or therapy recommendations. . Input may be received to initiate a performance. At 612, the recommendations are received and the operation communicates skin diagnostic information (eg, scores, ethnicity vectors, images, user information, etc.) to a remote server, such as server 408, to receive the recommendations. may include. Recommendations include those relating to a treatment regimen having one or more products, a method of application to an area of skin, and a schedule. At 613, recommendations are presented, eg, via a GUI. Multiple recommendations may be received and presented. At 614, a selection is made to indicate acceptance of the recommendation. This may be stored (logged) and may, for example, initiate a therapy monitoring function of computing device 402 . At 615, product purchases may be facilitated, such as through server 408 or other servers.

図7(a)は、モニタリングのためなどの処理620を示す。モニタリングは、コンピュータ装置402によって受信された、又はブラウザなどを介してアクセス可能な治療計画(例えば、データに記載されている)に応答しても良い。治療計画は、1週間に1回の第2の製品の適用などのスケジュール(例えば、朝および夜の製品の適用)を有していても良い。スケジュールは、例えば、ネイティブアプリケーションによる通知を介して、又はカレンダアプリケーションのような別の手段を介して、(例えば、621で)通知されても良い。622では、治療活動を容易にするために、例えば、その発生を記録したり、及び/又は活動を実行するための支持を提供したりするGUIが提供される。623では、活動が実行されたことの確認のような入力が受信される。画像は、活動を記録するために含まれても良い。データがログに記録される場合がある。モニタリングによって、治療計画がどれだけ忠実に守られているかを測定しても良い。624では、製品の再購入が促進され、例えば、治療のモニタリングに応答して、手持ちの製品の量が不足しているかもしれないことが判断されても良い。 FIG. 7(a) shows a process 620, such as for monitoring. Monitoring may be responsive to treatment plans (eg, described in data) received by computing device 402 or accessible via a browser or the like. The treatment regimen may have a schedule such as application of the second product once a week (eg application of morning and evening products). The schedule may be announced (eg, at 621), for example, via notification by the native application, or via another means such as a calendar application. At 622, a GUI is provided to facilitate therapeutic activities, eg, documenting their occurrence and/or providing support for performing the activities. At 623, input is received, such as confirmation that the activity was performed. Images may be included to record activity. Data may be logged. Monitoring may measure how well the treatment regimen is being followed. At 624, repurchasing of the product may be facilitated, for example, in response to therapy monitoring, it may be determined that the quantity of product on hand may be insufficient.

図7(b)は、モニタリングの活動として実行されても良い、例えば、比較を実行するための処理630を示す。631では、ユーザなどに指示するために比較のためのGUIが提供される。632では、新しい画像(例えば、601で受信した最初の画像と比較される)が(任意選択で)格納される。633では、後続の皮膚の徴候診断が、新しい画像(例えば、処理600と同様に、正規化されたものなど)に対してCNNを使用して実行される。634では、GUIは、最初の皮膚の徴候診断と後続の皮膚の徴候診断を用いた比較を、任意選択で最初の画像と新しい新しい画像を用いて提示する。 FIG. 7(b) shows a process 630 for performing a comparison, for example, which may be performed as a monitoring activity. At 631, a comparison GUI is provided to guide the user and the like. At 632, the new image (eg, compared to the first image received at 601) is (optionally) stored. At 633, subsequent skin symptom diagnosis is performed using a CNN on the new image (eg, normalized, etc., similar to process 600). At 634, the GUI presents a comparison using the first skin symptom diagnosis and the subsequent skin symptom diagnosis, optionally using the first image and the new new image.

図6及び図7には示されていないが、受信または生成された任意のデータは、サーバ406などの遠隔記憶装置のために通信されても良い。 Although not shown in FIGS. 6 and 7, any data received or generated may be communicated to a remote storage device such as server 406 .

皮膚の徴候診断、その後の皮膚の徴候診断(任意選択で他のモニタリングを伴う)、及び集計のためのデータの提供は、製品や治療の有効性および/又は、製品および治療の不正請求の調査を可能にできる。データは、皮膚科医および/又は他の専門家および/又はユーザに収集、分析、提示されても良い。従って、本明細書のシステム及び方法は、皮膚治療のための分散型研究のモデルを容易にできる。 Diagnosis of skin manifestations, subsequent diagnosis of skin manifestations (optionally with other monitoring), and provision of data for aggregation may be used to investigate product or treatment efficacy and/or fraudulent claims of products and treatments. can make it possible. Data may be collected, analyzed and presented to dermatologists and/or other professionals and/or users. Thus, the systems and methods herein can facilitate a distributed research model for skin treatments.

本明細書の教示は、ローカルからグローバルへのリンク機能(例えば、顔全体を処理しながら顔の領域内の特定の条件)や、全ての重要な領域(例えば、額から口までの顔の各層に存在するしわ)を対象として顔を網羅的にマッピングする機能を含む。 The teachings herein provide local-to-global linking capabilities (e.g., specific conditions within facial regions while processing the entire face) and all critical regions (e.g., each layer of the face from forehead to mouth). It includes a function to comprehensively map the face targeting wrinkles present in the face.

局所的な皮膚の徴候の組合せを使用して、全体的(グローバル)な外見(例えば、見かけの年齢、輝き、疲労度など)を予測(分類)しても良い。また、外観は、化粧の存在下で皮膚分析を行うことによって判断、比較しても良い。本明細書における皮膚の診断は、顔の徴候の性質および位置に関して十分に網羅されており、他の人間が被験者を見ている時の知覚を説明することができる。皮膚の徴候診断は、他人からの95%以上の知覚に基づくなど、見かけの年齢に関する更なる結論を導くために使用できる。また、化粧をしている場合には、皮膚の老化現象を隠すためのファンデーションなどの効果を測定し、顔のラインや構造をどのように回復させるかを判断するために、皮膚の診断と全体的な外見や魅力に関する更なる予測/分類を使用することができる。 A combination of local skin signs may be used to predict (classify) global appearance (eg, apparent age, radiance, fatigue, etc.). Appearance may also be determined and compared by performing a skin analysis in the presence of makeup. The cutaneous diagnostics herein are sufficiently comprehensive in terms of the nature and location of facial signs to be able to explain the perception of other humans when they are looking at the subject. Skin sign diagnostics can be used to draw further conclusions about apparent age, such as based on perceptions of 95% or more from others. In addition, if you wear makeup, skin diagnosis and general Further predictions/categorizations regarding personal appearance and attractiveness can be used.

本発明の皮膚の診断法および技術は、顔の5つの分析クラスタ(しわ/質感、たるみ、色素沈着障害、血管障害、頬の毛孔)を測定し、加齢の過程、環境条件(太陽光曝露、慢性的な都市公害への曝露など)、又はライフスタイル(ストレス、疲労、睡眠の質、喫煙、飲酒など)の全ての影響を記述するためのデータを容易にする。これらを経時的、運動中に測定したり、消費者の年齢と比較したりすることによって、この手法およびコンピュータ装置などは、老化の加速、明確な環境の影響(いくつかの徴候は、いくつかのクラスタに影響を与え、他のクラスタには影響を与えない)に関する情報を提供するように構成されても良い。
・化粧品および/又は治療薬、若しくは予防薬に関する推奨事項(例えば、太陽光を浴びた場合に、地理的にどのような種類のフィルター、抗酸化物質、落屑剤等が必要か)
・食生活、ライフスタイル、スポーツ/運動などの観点からの推奨事項は、顔の徴候の損傷または特異性にプラスの影響を及ぼす可能性がある。例えば、顔の徴候は、毎日の活動によって影響を受けることが知られており、それに基づいていくつかの戦略を提案する。
The skin diagnostic methods and techniques of the present invention measure five analytical clusters of the face (wrinkles/texture, sagging, pigmentation disorders, vascular disorders, cheek pores), aging process, environmental conditions (sun exposure, , exposure to chronic urban pollution), or lifestyle (stress, fatigue, sleep quality, smoking, alcohol consumption, etc.). By measuring these over time, during exercise, and by comparing them with consumer age, this technique, and computer equipment, etc., can be used to predict accelerated aging, distinct environmental influences (some signs, some clusters and not other clusters).
・Recommendations for cosmetics and/or therapeutic or prophylactic agents (e.g. what types of filters, antioxidants, desquamating agents, etc. are needed geographically for sun exposure)
• Recommendations in terms of diet, lifestyle, sports/exercise, etc. may have a positive impact on the lesions or idiosyncrasies of facial signs. For example, facial signs are known to be affected by daily activities, and we suggest several strategies based on that.

このように記載された皮膚の診断方法および技術は、消費者/患者をあらゆる次元において高精度な方法で動的に追跡するために使用できる。評価は、日/季節/ホルモン/安静時の影響および治療/化粧品/健康上の利益を評価するために、異なる時間および/又は異なる領域で採用されても良い。このような評価は、より正確な診断を提供し、より良い解決策の推奨を可能にする。 The skin diagnostic methods and techniques thus described can be used to dynamically track consumers/patients in all dimensions in a highly accurate manner. Assessments may be taken at different times and/or in different areas to assess daily/seasonal/hormonal/resting effects and therapeutic/cosmetic/health benefits. Such an assessment provides a more accurate diagnosis and allows better solution recommendations.

このように説明された皮膚の診断法および技術は、自撮り又は他のビデオからなど、動いているユーザの画像に対して評価を実行するために使用されても良い。本方法およびコンピュータ装置は、映像の各フレーム又は選択されたフレームについて評価し、顔が動いている時に顔の(複数の)スコアを記録するように構成されても良い。しわ又はたるみなどの動的曲線を定義しても良い。ビデオは、顔にストレスを誘発する特定の顔の位置および遷移をキャプチャして、特定の徴候の分析を支援しても良い。 The skin diagnostic methods and techniques thus described may be used to perform assessments on images of the user in motion, such as from selfies or other videos. The method and computing device may be configured to evaluate each frame or selected frames of the video and record the score(s) of the face when the face is moving. Dynamic curves such as wrinkles or sagging may be defined. The video may capture specific facial positions and transitions that induce stress on the face to aid in analysis of specific symptoms.

特徴を強調し、顔にストレスを与える特定のジェスチャやポーズなどをユーザに実行させる指示を提供しても良い。一例として、指示は(例えば、グラフィカル又は他のユーザインターフェースを介して)、例えば、頬をつまむような特定のジェスチャを実行するようにユーザに要求しても良い。このような評価は、より正確な診断を提供し、より良い解決策の推奨を可能にする。 Instructions may be provided that force the user to perform specific gestures, poses, etc. that emphasize features and stress the face. As an example, the instructions (eg, via a graphical or other user interface) may ask the user to perform a particular gesture, eg, pinch the cheeks. Such an assessment provides a more accurate diagnosis and allows better solution recommendations.

身体が直立または仰臥している体位などによる機能的ストレスのような、他のストレスが指示されても良い。機能的ストレスは、若い消費者によって非常に重要であり、非常にニュートラルな標準的なID画像では見られなかったしわを記録できる。目尻の小さいしわは、ユーザが微笑んだり、特定の感情を持ったりした時に見られる。 Other stresses may be indicated, such as functional stress due to the body being in an upright or supine position. Functional stress is very important to young consumers and can register wrinkles not seen in the very neutral standard ID image. Small crow's feet wrinkles are seen when the user smiles or has certain emotions.

従って、皮膚の診断法および技術は、顔が動いている時のビデオを受信し、それから多数の画像を評価することを可能にすることができ、例えば、ビデオはフレーム1,2,..Nを有し、各フレームは、20個の徴候に対して20のスコアを生成することができる。システムは、ユーザにジェスチャ(顔をつまむ)を指示し、結果を記録する。顔をつまむ前後の画像を分析して、ストレス前後の皮膚の状態や、水分の移動量などを結論付けることができる(publication DermoTrace:Flament F,Bazin R.Influences of age, ethnic group,and skin sites on a provisory skin marking,experimentally induced,in vivo.Skin Res Technol 24,180-186(2018))。ちょうど2つのフレームを使用する必要がある。 Thus, skin diagnostics and techniques can receive a video of the face in motion and then allow multiple images to be evaluated, eg, the video can be frames 1, 2, . . N, each frame can generate 20 scores for 20 symptoms. The system instructs the user to gesture (face pinch) and records the result. Images before and after pinching the face can be analyzed to conclude the condition of the skin before and after stress, the amount of water movement, etc. (Publication DermoTrace: Flament F, Bazin R. Influences of age, ethnic group, and skin sites. on a provisionary skin marking, experimentally induced, in vivo. Skin Res Technol 24, 180-186 (2018)). Exactly two frames should be used.

このように説明された皮膚の診断方法および技術は、分析的特徴の展開によって感情分析の性能を更に向上させるために使用しても良い。顔の全体的な評価を行うことにより、皮膚の徴候の組合せと、喜び、恐怖、嫌悪などの特定の視覚的な徴候とを関連付けることによって感情の評価(例えば、分類)が可能になり得る。 The skin diagnostic methods and techniques thus described may be used to further improve the performance of sentiment analysis through the development of analytical features. Performing a global assessment of the face may allow the assessment (eg, classification) of emotions by correlating combinations of skin signs with specific visual signs such as joy, fear, disgust, and the like.

このように説明された皮膚の診断方法および技術は、口頭または同じ言語でコミュニケーションをとれない人などの特定の感情を示すものとして徴候の分類を使用して、ヘルスケアの実施を促進するために使用されても良い。痛みのある患者は、それに関連する感情を示すことがあり、それを分析して薬の投与などに利用できる。例えば、眉間の徴候とその重症度の組み合わせは、健康分野、特に病院において、意思疎通が困難な痛みを抱える患者のための重要な手がかりとなり得る。顔を正確に読み取ることで、薬を投与したり、具体的な治療法を設計したりすることができる。 The skin diagnostic methods and techniques thus described use the classification of symptoms as indicative of particular emotions, such as those who cannot communicate verbally or in the same language, to facilitate the practice of health care. May be used. Patients in pain may exhibit emotions associated with it, which can be analyzed and used to administer medications, etc. For example, the combination of glabellar symptoms and their severity can be important clues in the health field, especially in hospitals, for patients with difficult-to-communicate pain. By accurately reading your face, you can administer medicines or design specific treatments.

このように説明された皮膚の診断方法および技術は、環境またはライフスタイルの影響の特徴付け(例えば、分類)の性能を更に向上させるために使用されても良い。データベースと比較することによって、外因性の老化と内因性の老化を定義でき、我々の知識データベースに基づき、環境条件(紫外線、汚染など)又はライフスタイル(ストレス、食生活、アルコール、喫煙、スポーツなど)の影響を、定量化(重症度の割合)や適格性(顔の徴候の性質や位置)の観点から把握している。本明細書に記載される皮膚診断の評価は、データベースからの情報によって強化され、都市での高齢化をテーマにした主要な化粧品について、より正確かつパーソナライズされたフィードバックを消費者に返すことができる。 The skin diagnostic methods and techniques thus described may be used to further improve the performance of characterizing (eg, classifying) environmental or lifestyle influences. By comparing with databases, we can define extrinsic and intrinsic aging, and based on our knowledge database, environmental conditions (UV, pollution, etc.) or lifestyle (stress, diet, alcohol, smoking, sports, etc.) ) in terms of quantification (percentage of severity) and eligibility (the nature and location of facial signs). The skin diagnostic assessments described herein can be enhanced with information from databases to provide consumers with more accurate and personalized feedback on leading cosmetic products for urban aging. .

このように記載された皮膚の診断方法および技術は、他の状態についての他の医学的診断の性能を向上させるために使用されても良い。皮膚の徴候の組み合せは、特定の顔の徴候と特定の病態または疾患とを相関させる研究に基づいて、特定の病態と関連付けることができる。例えば、額のしわは心疾患と関連している。 The skin diagnostic methods and techniques thus described may be used to enhance other medical diagnostics for other conditions. Combinations of cutaneous manifestations can be associated with specific medical conditions based on studies correlating specific facial manifestations with specific conditions or diseases. For example, forehead wrinkles are associated with heart disease.

このように記載された製品および/又はアプリケーションの推奨事項を含む皮膚の診断方法および技術は、自然かつ正常に発生し、典型的には疾患に関連しない皮膚の徴候(例えば、老化および/又は環境曝露に関連するような、疾患状態を示さない皮膚の徴候)に関連して実行されても良いことが理解されるであろう。しかし、このような非疾患の皮膚の徴候の発症および/又は進行は、それぞれの医薬品およびそれぞれの適用計画(それ自体は医学的治療ではないが、広義には治療)に反応する可能性がある。従って、本明細書では、非疾患の皮膚の徴候のための皮膚の診断装置および方法が提供される。非疾患の皮膚の徴候のための製品を推奨するための装置および方法が提供される。装置は、記憶部と、その記憶部に結合される処理部とを備え、記憶部は、複数であるN個の各非疾患の皮膚の徴候について、N個の各皮膚の徴候診断を判定するために画像のピクセルを分類する畳み込みニューラルネットワークであるCNNを記憶して提供し、前記CNNは、前記N個の各非疾患の皮膚の徴候診断を生成するように構成された画像分類のための深層ニューラルネットワークであり、前記CNNは、前記N個の各非疾患の皮膚の徴候のそれぞれに関する非疾患の皮膚の徴候データを使用して学習され、前記処理部は、前記画像を受信し、前記CNNを用いて前記画像を処理し、前記N個の各非疾患の皮膚の徴候診断を生成する。処理部は、製品の推奨コンポーネント(例えば、各非疾患の皮膚の徴候に関連する各製品について、1又は複数の製品および任意で各製品の適用計画を選択するルールに基づくシステム又は他のシステムなど)を使用するなどして、N個の各非疾患の皮膚の徴候診断のうちの少なくとも1つに対して製品の推奨を生成するよう構成されても良い。製品の推奨コンポーネント、更には製品の推奨は、性別、民族性などの他の要因に対応していても良い。N個の各皮膚の徴候診断を生成するために、CNNを学習させたり、CNNを有するシステムを定義したりすることに関連する学習方法およびシステムが明らかになるであろう。 Skin diagnostic methods and techniques, including product and/or application recommendations so described, are naturally and normally occurring and typically not disease-related skin manifestations (e.g., aging and/or environmental It will be understood that it may also be practiced in relation to skin manifestations not indicative of a disease state, such as those associated with exposure. However, the development and/or progression of such non-diseased cutaneous manifestations may be responsive to the respective pharmaceutical product and the respective regimen of application (which is not a medical treatment per se, but treatment in a broader sense). . Accordingly, provided herein are skin diagnostic devices and methods for non-diseased skin indications. Apparatus and methods are provided for recommending products for non-diseased skin indications. The apparatus comprises a storage unit and a processing unit coupled to the storage unit, the storage unit determining a respective N skin symptom diagnosis for each of a plurality of N non-diseased skin symptoms. storing and providing a CNN, a convolutional neural network that classifies pixels of an image for image classification, said CNN configured to generate a diagnosis of each of said N non-diseased skin manifestations for image classification; A deep neural network, wherein the CNN is trained using non-diseased skin manifestation data for each of each of the N non-diseased skin manifestations, the processing unit receiving the images; A CNN is used to process the image to generate each of the N non-diseased skin symptom diagnoses. The processing unit may include a product recommendation component, such as a rule-based system or other system that selects one or more products and, optionally, an application regimen for each product, for each product associated with each non-diseased skin indication. ) to generate product recommendations for at least one of each of the N non-disease skin symptom diagnoses. Product recommendation components, and even product recommendations, may be responsive to other factors such as gender, ethnicity, and the like. Learning methods and systems related to training a CNN and defining a system with a CNN to generate each of the N skin symptom diagnoses will be apparent.

コンピュータ装置の態様に加えて、本明細書に記載された方法の態様のいずれかを実行するようにコンピュータ装置を構成するための命令が非一時的な記憶装置(例えば、メモリー、CD-ROM、DVD-ROM、ディスクなど)に格納される、コンピュータプログラム製品の態様が開示されていることを当業者は理解するのであろう。 In addition to computer device aspects, instructions for configuring the computer device to perform any of the method aspects described herein may be stored in non-transitory storage (e.g., memory, CD-ROM, One of ordinary skill in the art will appreciate that aspects of a computer program product stored on a DVD-ROM, disc, etc.) are disclosed.

実際の実施は、本明細書に記載された特徴のいずれか又は全てを含むことができる。これら及び他の態様、特徴、並びに様々な組み合わせは、方法、装置、システム、機能を実行するための手段、プログラムプロダクト、及び、他の方法で、本明細書で説明される特徴を組み合わせて表され得る。多数の実施形態が記載されているが、本明細書で説明されるプロセス及び技術的思想および範囲から逸脱することなく、様々な修正を行うことができることが理解されるだろう。加えて、他のステップが提供されても良く、又は記載された方法からステップが排除されても良く、他のコンポーネントが記載されたシステムに対し、追加または除去されても良い。従って、他の態様は特許請求の範囲内にある。 Actual implementations may include any or all of the features described herein. These and other aspects, features, and various combinations may refer to methods, apparatus, systems, means for performing functions, program products, and otherwise combining the features described herein. can be While a number of embodiments have been described, it will be appreciated that various modifications can be made without departing from the spirit and scope of the processes and techniques described herein. Additionally, other steps may be provided or steps may be omitted from the described methods, and other components may be added or removed from the described systems. Accordingly, other aspects are within the scope of the claims.

本明細書の記載および特許請求の範囲を通して、単語「含む」及び「備える」及びそれらの変形表現は「含むがこれに限定されない」を意味し、他の構成要素、整数またはステップを排除することを意図しない(排除しない)。本明細書全体を通して、文脈が別途必要としない限り、単数は複数を包含する。つまり、本明細書がその状況が他のことを要求していない限り、単数だけでなく複数も意図していると理解されたい。 Throughout the description and claims of this specification, the words "including" and "comprising" and variations thereof mean "including but not limited to" and to the exclusion of other elements, integers or steps. does not intend (do not exclude) Throughout this specification, the singular encompasses the plural unless the context otherwise requires. In other words, it is to be understood that this specification intends the plural as well as the singular, unless the context requires otherwise.

本発明の特定の態様、実施形態または例に関連して記載される特徴、整数特性、化合物、化学部分または基は、それらと非互換でない限り、任意の他の態様、実施形態または例に適用可能であると理解されるべきである。本明細書に開示された特徴(添付の特許請求の範囲、要約書、及び、図面を含む)の全て、或いはそのように開示された任意の方法または処理のステップの全ては、そのような特徴或いはステップの少なくともいくつかが相互に排他的である組み合わせを除いて、任意の組合せで組み合わせることができる。本発明は、前述の例または実施形態の詳細に限定されない。本発明は、本明細書(添付の特許請求の範囲、要約書、及び、図面を含む)に開示された特徴の任意の新規なもの、又は任意の新規な組み合わせ、又は開示された任意の手法または処理のステップの任意の新規なもの、又は任意の新規な組み合わせに拡張される。
<その他>
<手段>
技術的思想1の皮膚の診断装置は、記憶部と、その記憶部に結合される処理部とを備える皮膚の診断装置であって、前記記憶部は、複数であるN個の各皮膚の徴候について、N個の各皮膚の徴候診断を判定するために画像のピクセルを分類する畳み込みニューラルネットワークであるCNNを記憶して提供し、前記CNNは、前記N個の各皮膚の徴候診断を生成するように構成された画像分類のための深層ニューラルネットワークであり、前記CNNは、前記N個の各皮膚の徴候のそれぞれに関する皮膚の徴候データを使用して学習され、前記処理部は、前記画像を受信し、前記CNNを用いて前記画像を処理し、前記N個の各皮膚の徴候診断を生成する。
技術的思想2の皮膚の診断装置は、技術的思想1記載の皮膚の診断装置において、前記CNNは、画像分類のための学習済ネットワークから定義され、最終のエンコーダ段階の特徴ネットに特徴を符号化するように構成されたエンコーダ段階と、前記N個の各皮膚の徴候診断を生成するために、複数であるN個の並列の皮膚徴候の分岐によって復号化するための前記最終のエンコーダ段階の特徴ネットを受信するように構成されたデコーダ段階と、を備える。
技術的思想3の皮膚の診断装置は、技術的思想2記載の皮膚の診断装置において、前記デコーダ段階は、前記最終のエンコーダ段階の特徴ネットを処理して前記N個の並列の皮膚徴候の分岐の各々に提供するグローバルプーリング処理を備える。
技術的思想4の皮膚の診断装置は、技術的思想2又は3に記載の皮膚の診断装置において、前記CNNは、前記ピクセルを分類して民族性ベクトルを判定するように構成され、記CNNは、前記N個の各皮膚の徴候および複数の民族性に関する皮膚の徴候データを使用して学習される。
技術的思想5の皮膚の診断装置は、技術的思想4記載の皮膚の診断装置において、前記デコーダ段階は、前記民族性ベクトルを生成するための民族性に関する並列の分岐を備える。
技術的思想6の皮膚の診断装置は、技術的思想2から5のいずれかに記載の皮膚の診断装置において、前記N個の並列の皮膚徴候の分岐の各分岐は、第1の全結合層と、それに続く第1の活性化層と、第2の全結合層と、第2の活性化層と、最終の活性化層と、を連続して備え、前記N個の各皮膚の徴候診断および前記民族性ベクトルのうちの1つを含む最終値を出力する。
技術的思想7の皮膚の診断装置は、技術的思想6記載の皮膚の診断装置において、前記最終の活性化層は、前記第2の活性化層から受信した入力スコアxに関する以下の数式1の関数に従って定義され、αは傾き、aは下限、bは前記N個の各皮膚の徴候診断の各々のスコア範囲の上限である。

Figure 2020113326000015
技術的思想8の皮膚の診断装置は、技術的思想4から7のいずれかに記載の皮膚の診断装置において、記CNNは、(x 、y )形式の複数のサンプルを用いて学習され、x は、i番目の学習画像であり、y は、グランドトゥルースの皮膚の徴候診断に対応するベクトルであり、前記CNNは、前記N個の並列の皮膚徴候の分岐、及び前記民族性に関する並列の分岐の各分岐に対する損失関数を最小化するように学習される。
技術的思想9の皮膚の診断装置は、技術的思想8記載の皮膚の診断装置において、前記CNNは、前記N個の並列の皮膚徴候の分岐のそれぞれについての損失関数L2に、前記民族性に関する並列の分岐についての標準交差エントロピー分類損失L ethnicity を重み付けして組み合わせた損失関数Lを、以下の数式3に従って最小化するように学習され、λは、スコア回帰と民族性の分類損失の間のバランスを制御する。
Figure 2020113326000016
技術的思想10の皮膚の診断装置は、技術的思想1から9のいずれかに記載の皮膚の診断装置において、前記記憶部は、前記画像を前処理するための顔およびランドマークの検出器を記憶し、前記処理部は、前記顔およびランドマークの検出器を用いて前記画像から正規化された画像を生成し、前記CNNを使用する際に前記正規化された画像を使用するように構成される。
技術的思想11の皮膚の診断装置は、技術的思想1から10のいずれかに記載の皮膚の診断装置において、前記CNNは、前記N個の各皮膚の徴候診断を生成するように適合された画像分類のための学習済ネットワークを備え、前記学習済ネットワークの全結合層が省略され、N個の各層のグループは、前記N個の各皮膚の徴候診断のそれぞれについて同じ特徴ネットを並列に復号するように定義される。
技術的思想12の皮膚の診断装置は、技術的思想1から11のいずれかに記載の皮膚の診断装置において、モバイル端末からなる個人用のコンピュータ装置と、通信ネットワークを介して皮膚の診断サービスを提供するサーバと、のいずれかから構成される。
技術的思想13の皮膚の診断装置は、技術的思想1から12のいずれかに記載の皮膚の診断装置において、前記記憶部は、前記処理部によって実行されると、前記N個の各皮膚の徴候診断の少なくともいくつかに対応して、製品および治療計画のうちの少なくとも1つに関する推奨事項を取得するための治療製品セレクタを提供するコードを記憶する。
技術的思想14の皮膚の診断装置は、技術的思想1から13のいずれかに記載の皮膚の診断装置において、前記記憶部は、前記処理部によって実行されると、前記画像を受信するための画像取得機能を提供するコードを記憶する。
技術的思想15の皮膚の診断装置は、技術的思想1から14のいずれかに記載の皮膚の診断装置において、前記記憶部は、前記処理部によって実行されると、少なくとも1つの皮膚の徴候に対する治療をモニタするための治療モニタを提供するコードを記憶する。
技術的思想16の皮膚の診断装置は、技術的思想15記載の皮膚の診断装置において、前記処理部は、各治療セッションに対する製品の適用に関連する治療活動を、思い出させる、指示する、及び/又は記録する、のうちの少なくとも1つを行うように構成される。
技術的思想17の皮膚の診断装置は、技術的思想1から16のいずれかに記載の皮膚の診断装置において、前記処理部は、前記CNNを用いて第2の画像を処理し、治療セッション後に受信した後続の皮膚の診断を生成するように構成される。
技術的思想18の皮膚の診断装置は、技術的思想17記載の皮膚の診断装置において、前記記憶部は、前記処理部によって実行されると、前記後続の皮膚の診断を用いた比較結果の提示を行うコードを記憶する。
技術的思想19のコンピュータ実装方法は、皮膚診断のコンピュータ実装方法であって、画像のピクセルを分類して、複数であるN個の各皮膚の徴候の各々についてN個の各皮膚の徴候診断を判定するように構成された畳み込みニューラルネットワークであるCNNを記憶する記憶部を提供し、前記CNNは、前記N個の各皮膚の徴候診断を生成するように構成された画像分類のための深層ニューラルネットワークであり、前記CNNは、前記N個の各皮膚の徴候についての皮膚の徴候データを使用して学習され、前記記憶部に結合された処理部によって、前記画像を受信することと、前記CNNを用いて前記画像を処理して前記N個の各皮膚の徴候診断を生成することと、を実行する。
技術的思想20のコンピュータ実装方法は、技術的思想19記載のコンピュータ実装方法において、前記CNNは、画像分類のための学習済ネットワークから定義され、最終のエンコーダ段階の特徴ネットに特徴を符号化するように構成されたエンコーダ段階と、前記N個の各皮膚の徴候診断を生成するために、複数であるN個の並列の皮膚徴候の分岐によって復号化するための前記最終のエンコーダ段階の特徴ネットを受信するように構成されたデコーダ段階と、を備える。
技術的思想21のコンピュータ実装方法は、技術的思想20に記載のコンピュータ実装方法において、前記デコーダ段階は、前記最終のエンコーダ段階の特徴ネットを処理して前記N個の並列の皮膚徴候の分岐の各々に提供するグローバルプーリング処理を備える。
技術的思想22のコンピュータ実装方法は、技術的思想20又は21に記載のコンピュータ実装方法において、前記CNNは、前記ピクセルを分類して民族性ベクトルを判定するように構成され、前記CNNは、前記N個の各皮膚の徴候および複数の民族性に関する皮膚の徴候データを使用して学習され、前記CNNによる前記画像の処理は、前記民族性ベクトルを生成する。
技術的思想23のコンピュータ実装方法は、技術的思想22記載のコンピュータ実装方法において、前記デコーダ段階は、前記民族性ベクトルを生成するための民族性に関する並列の分岐を備える。
技術的思想24のコンピュータ実装方法は、技術的思想20から23のいずれかに記載のコンピュータ実装方法において、前記N個の並列の皮膚徴候の分岐の各分岐は、第1の全結合層と、それに続く第1の活性化層と、第2の全結合層と、第2の活性化層と、最終の活性化層と、を連続して備え、前記N個の各皮膚の徴候診断および前記民族性ベクトルのうちの1つを含む最終値を出力する。
技術的思想25のコンピュータ実装方法は、技術的思想24記載のコンピュータ実装方法において、前記最終の活性化層は、前記第2の活性化層から受信した入力スコアxに関する以下の数式1の関数に従って定義され、αは傾き、aは下限、bは前記N個の各皮膚の徴候診断の各々のスコア範囲の上限である。
Figure 2020113326000017
技術的思想26のコンピュータ実装方法は、技術的思想22から25のいずれかに記載のコンピュータ実装方法において、前記CNNは、(x 、y )形式の複数のサンプルを用いて学習され、x は、i番目の学習画像であり、y は、グランドトゥルースの皮膚の徴候診断に対応するベクトルであり、前記CNNは、前記N個の並列の皮膚徴候の分岐、及び前記民族性に関する並列の分岐の各分岐に対する損失関数を最小化するように学習される。
技術的思想27のコンピュータ実装方法は、技術的思想26記載のコンピュータ実装方法において、前記CNNは、前記N個の並列の皮膚徴候の分岐のそれぞれについての損失関数L2に、前記民族性に関する並列の分岐についての標準交差エントロピー分類損失L ethnicity を重み付けして組み合わせた損失関数Lを、以下の数式3に従って最小化するように学習され、λは、スコア回帰と民族性の分類損失の間のバランスを制御する。
Figure 2020113326000018
技術的思想28のコンピュータ実装方法は、技術的思想19から27のいずれかに記載のコンピュータ実装方法において、前記記憶部は、前記画像を前処理するための顔およびランドマークの検出器を記憶し、前記方法は、前記処理部が前記顔およびランドマークの検出器を用いて記画像を前処理して前記画像から正規化された画像を生成し、前記CNNを使用する際に前記正規化された画像を使用する。
技術的思想29のコンピュータ実装方法は、技術的思想19から28のいずれかに記載のコンピュータ実装方法において、前記CNNは、前記N個の各皮膚の徴候診断を生成するように適合された画像分類のための学習済ネットワークを備え、前記学習済ネットワークの全結合層が省略され、N個の各層のグループは、前記N個の各皮膚の徴候診断のそれぞれについて同じ特徴ネットを並列に復号するように定義される
技術的思想30のコンピュータ実装方法は、技術的思想19から29のいずれかに記載のコンピュータ実装方法において、前記記憶部および前記処理部は、モバイル端末からなる個人用のコンピュータ装置と、通信ネットワークを介して皮膚の診断サービスを提供するサーバと、のいずれかの構成要素である。
技術的思想31のコンピュータ実装方法は、技術的思想19から30のいずれかに記載のコンピュータ実装方法において、前記記憶部は、前記処理部によって実行されると、前記N個の各皮膚の徴候診断の少なくともいくつかに対応して、製品および治療計画のうちの少なくとも1つに関する推奨事項を取得するための治療製品セレクタを提供するコードを記憶し、前記方法は、前記処理部によって前記治療製品セレクタの前記コードを実行して、製品および治療計画のうちの少なくとも1つに関する推奨事項を取得する
技術的思想32のコンピュータ実装方法は、技術的思想19から31のいずれかに記載のコンピュータ実装方法において、前記記憶部は、前記処理部によって実行されると、前記画像を受信するための画像取得機能を提供するコードを記憶し、前記方法は、前記画像を受信するために、前記処理部によって前記画像取得機能の前記コードを実行する。
技術的思想33のコンピュータ実装方法は、技術的思想19から32のいずれかに記載のコンピュータ実装方法において、前記記憶部は、前記処理部によって実行されると、少なくとも1つの皮膚の徴候に対する治療をモニタするための治療モニタを提供するコードを記憶し、前記方法は、少なくとも1つの皮膚の徴候に対する治療をモニタするために、前記処理部よって前記治療モニタのコードを実行する。
技術的思想34のコンピュータ実装方法は、技術的思想33記載のコンピュータ実装方法において、前記方法は、前記処理部によって、各治療セッションに対する製品の適用に関連する治療活動を、思い出させる、指示する、及び/又は記録する、のうちの少なくとも1つを行う。
技術的思想35のコンピュータ実装方法は、技術的思想19から34のいずれかに記載のコンピュータ実装方法において、前記処理部によって、前記CNNを用いて第2の画像を処理し、治療セッション後に受信した後続の皮膚の診断を生成する。
技術的思想36のコンピュータ実装方法は、技術的思想35記載のコンピュータ実装方法において、処理部によって、前記後続の皮膚の診断を用いて比較結果の提示を提供する。
技術的思想37の方法は、画像のピクセルを分類して、複数であるN個の各皮膚の徴候の各々についてN個の各皮膚の徴候診断を判定するように構成された畳み込みニューラルネットワークであるCNNを学習させ、前記CNNは、前記N個の各皮膚の徴候診断を生成するように構成された画像分類のための深層ニューラルネットワークであり、前記学習は、前記N個の各皮膚の徴候についての皮膚の徴候データを用いて実行される、方法。
技術的思想38の方法は、技術的思想37記載の方法において、前記CNNは、画像分類のための学習済ネットワークから定義され、最終のエンコーダ段階の特徴ネットに特徴を符号化するように構成されたエンコーダ段階と、前記N個の各皮膚の徴候診断を生成するために、複数であるN個の並列の皮膚徴候の分岐によって復号化するための前記最終のエンコーダ段階の特徴ネットを受信するように構成されたデコーダ段階と、を備える。
技術的思想39の方法は、技術的思想38記載の方法において、前記デコーダ段階は、前記最終のエンコーダ段階の特徴ネットを処理して前記N個の並列の皮膚徴候の分岐の各々に提供するグローバルプーリング処理を備える。
技術的思想40の方法は、技術的思想38又は39に記載の方法において、前記CNNは、前記ピクセルを分類して民族性ベクトルを判定するように構成され、前記方法は、前記N個の各皮膚の徴候および複数の民族性に関する皮膚の徴候データを使用して前記CNNを学習させる。
技術的思想41の方法は、技術的思想40記載の方法において、前記デコーダ段階は、前記民族性ベクトルを生成するための民族性に関する並列の分岐を備える。
技術的思想42の方法は、技術的思想38から41のいずれかに記載の方法において、前記N個の並列の皮膚徴候の分岐の各分岐は、第1の全結合層と、それに続く第1の活性化層と、第2の全結合層と、第2の活性化層と、最終の活性化層と、を連続して備え、前記N個の各皮膚の徴候診断および前記民族性ベクトルのうちの1つを含む最終値を出力する。
技術的思想43の方法は、技術的思想42記載の方法において、前記最終の活性化層は、前記第2の活性化層から受信した入力スコアxに関する以下の数式1の関数に従って定義され、αは傾き、aは下限、bは前記N個の各皮膚の徴候診断の各々のスコア範囲の上限である。
Figure 2020113326000019
技術的思想44の方法は、技術的思想40から44のいずれかに記載の方法において、前記学習は、(x 、y )形式の複数のサンプルを用いて前記CNNを学習させ、x は、i番目の学習画像であり、y は、グランドトゥルースの皮膚の徴候診断に対応するベクトルであり、前記学習は、前記N個の並列の皮膚徴候の分岐、及び前記民族性に関する並列の分岐の各分岐に対する損失関数を最小化するように前記CNNを学習させる。
技術的思想45の方法は、技術的思想44記載の方法において、前記学習は、前記N個の並列の皮膚徴候の分岐のそれぞれについての損失関数L2に、前記民族性に関する並列の分岐についての標準交差エントロピー分類損失L ethnicity を重み付けして組み合わせた損失関数Lを、以下の数式3に従って最小化するように前記CNNを学習させ、λは、スコア回帰と民族性の分類損失の間のバランスを制御する。
Figure 2020113326000020
技術的思想46のコンピュータ実装方法は、技術的思想19から27のいずれかに記載のコンピュータ実装方法において、前記CNNは、顔およびランドマークの検出によって前処理された正規化された画像を受信するように構成される。
技術的思想47のコンピュータ実装方法は、技術的思想19から28のいずれかに記載のコンピュータ実装方法において、前記CNNは、前記N個の各皮膚の徴候診断を生成するように適合された画像分類のための学習済ネットワークを予め備え、前記学習済ネットワークの全結合層が省略され、N個の各層のグループは、前記N個の各皮膚の徴候診断のそれぞれについて同じ特徴ネットを並列に復号するように定義される。 Features, integral properties, compounds, chemical moieties or groups described in connection with a particular aspect, embodiment or example of the invention apply to any other aspect, embodiment or example unless incompatible with them. It should be understood that it is possible. Any and all features disclosed in this specification (including any appended claims, abstract, and drawings) or any method or process step so disclosed may be referred to as such features. Alternatively, they may be combined in any combination, except combinations where at least some of the steps are mutually exclusive. The invention is not limited to the details of the foregoing examples or embodiments. The present invention resides in any novel invention or any novel combination of features disclosed in this specification (including the appended claims, abstract and drawings) or any technique disclosed. or extend to any novel one or any novel combination of process steps.
<Others>
<Means>
Technical idea 1 is a skin diagnostic device comprising a storage unit and a processing unit coupled to the storage unit, wherein the storage unit stores a plurality of N skin symptoms. , a CNN that is a convolutional neural network that classifies pixels of an image to determine N skin symptom diagnoses, said CNN generating said N skin symptom diagnoses. A deep neural network for image classification, wherein the CNN is trained using skin manifestation data for each of the N skin manifestations, and the processing unit processes the images as Receive and process the image using the CNN to generate a diagnosis of each of the N skin signs.
The skin diagnostic apparatus of technical idea 2 is the skin diagnostic apparatus according to technical idea 1, wherein the CNN is defined from a trained network for image classification, and encodes features into feature nets in the final encoder stage. and said final encoder stage for decoding with a plurality of N parallel skin manifestation branches to generate said N respective skin manifestation diagnoses. a decoder stage configured to receive the feature net.
Technical idea 3 is the skin diagnostic apparatus according to technical idea 2, wherein the decoder stage processes the feature net of the final encoder stage to branch the N parallel skin signs. , with global pooling processing provided to each of the .
Technical idea 4 is the skin diagnostic apparatus according to technical idea 2 or 3, wherein the CNN is configured to classify the pixels to determine an ethnicity vector, and the CNN comprises , is learned using each of the N skin signs and skin sign data for multiple ethnicities.
The skin diagnostic apparatus according to technical idea 5 is the skin diagnostic apparatus according to technical idea 4, wherein said decoder stage comprises parallel ethnic branches for generating said ethnicity vector.
Technical idea 6 is the skin diagnostic apparatus according to any one of technical ideas 2 to 5, wherein each branch of the N parallel skin symptom branches comprises a first fully connected layer followed by a first activated layer, a second fully connected layer, a second activated layer, and a final activated layer, wherein each of the N skin symptom diagnoses and output a final value containing one of said ethnicity vectors.
The skin diagnostic device according to technical idea 7 is the skin diagnostic device according to technical idea 6, wherein the final activation layer is the following formula 1 regarding the input score x received from the second activation layer is the slope, a is the lower bound, and b is the upper bound of the score range for each of the N skin sign diagnoses, defined according to a function.
Figure 2020113326000015
The skin diagnostic device of technical idea 8 is the skin diagnostic device according to any one of technical ideas 4 to 7, wherein the CNN is learned using a plurality of samples of (x i , y i ) format. , x i is the ith training image, y i is the vector corresponding to the ground truth skin sign diagnosis, the CNN is the N parallel skin sign branches, and the ethnicity is learned to minimize the loss function for each branch of parallel branches with respect to .
The skin diagnostic apparatus according to technical idea 9 is the skin diagnostic apparatus according to technical idea 8, wherein the CNN is a loss function L2 for each of the N parallel skin sign branches, A loss function L that is a weighted combination of the standard cross-entropy classification loss L ethnicity for parallel branches is learned to minimize according to Equation 3 below, where λ is the difference between score regression and ethnicity classification loss. Control your balance.
Figure 2020113326000016
Technical idea 10 is the skin diagnostic apparatus according to any one of technical ideas 1 to 9, wherein the storage unit stores a face and landmark detector for preprocessing the image. and the processing unit is configured to generate a normalized image from the image using the face and landmark detector, and to use the normalized image when using the CNN. be done.
Technical idea 11 is the skin diagnostic apparatus according to any one of technical ideas 1 to 10, wherein the CNN is adapted to generate each of the N skin symptom diagnoses. A trained network for image classification, wherein a fully connected layer of said trained network is omitted, and each group of N layers decodes in parallel the same feature net for each of said N skin symptom diagnoses. defined to be
Technical idea 12 is the skin diagnostic device according to any one of technical ideas 1 to 11, wherein skin diagnostic service is provided via a personal computer device composed of a mobile terminal and a communication network. It consists of either a server that provides
Technical idea 13 is the skin diagnostic apparatus according to any one of technical ideas 1 to 12, wherein the storage unit, when executed by the processing unit, Code is stored that provides a therapeutic product selector for obtaining recommendations for at least one of a product and a therapeutic regimen, corresponding to at least some of the symptom diagnoses.
Technical idea 14 is the skin diagnostic apparatus according to any one of technical ideas 1 to 13, wherein the storage unit receives the image when executed by the processing unit. Stores code that provides image acquisition functionality.
Technical idea 15 is the skin diagnostic apparatus according to any one of technical ideas 1 to 14, wherein the storage unit stores information for at least one skin symptom when executed by the processing unit. Store code to provide a therapy monitor for monitoring therapy.
Technical idea 16. The skin diagnostic apparatus according to technical idea 15, wherein the processing unit reminds, instructs, and/or treats activities associated with application of products for each treatment session. or recording.
Technical idea 17 is the skin diagnostic apparatus according to any one of technical ideas 1 to 16, wherein the processing unit processes a second image using the CNN, and after a treatment session configured to generate a subsequent skin diagnosis received;
Technical idea 18 is the skin diagnostic apparatus according to technical idea 17, wherein the storage unit presents comparison results using the subsequent skin diagnosis when executed by the processing unit. memorize the code to do
The computer-implemented method of Technical Thought 19 is a computer-implemented method of skin diagnosis, classifying pixels of an image to generate N skin symptom diagnoses for each of a plurality of N skin symptoms. providing a storage unit for storing a CNN, a convolutional neural network configured to determine, said CNN being a deep neural network for image classification configured to generate each of said N skin symptom diagnoses; a network, the CNN being trained using skin manifestation data for each of the N skin manifestations, and receiving the images by a processing unit coupled to the storage unit; to generate each of the N skin symptom diagnoses.
The computer-implemented method of Technical Thought 20 is the computer-implemented method of Technical Thought 19, wherein the CNN is defined from a trained network for image classification and encodes features into a feature net in the final encoder stage. and a feature net of said final encoder stage for decoding by means of a plurality of N parallel cutaneous manifestation branches to generate said N respective cutaneous manifestation diagnoses. and a decoder stage configured to receive the
The computer-implemented method of Technical Thought 21 is the computer-implemented method of Technical Thought 20, wherein the decoder stage processes the feature net of the final encoder stage to generate the N parallel cutaneous manifestation branches. It has a global pooling process to serve each.
The computer-implemented method of Technical Thought 22 is the computer-implemented method of Technical Thought 20 or 21, wherein the CNN is configured to classify the pixels to determine an ethnicity vector, wherein the CNN comprises the The processing of the images by the CNN, learned using each of the N skin signs and skin sign data for multiple ethnicities, produces the ethnicity vector.
The computer-implemented method of technical idea 23 is the computer-implemented method of technical idea 22, wherein the decoder stage comprises parallel ethnicity branches for generating the ethnicity vector.
Technical idea 24 is the computer-implemented method of any one of technical ideas 20 to 23, wherein each branch of the N parallel skin manifestation branches comprises a first fully connected layer; successively comprising a first activation layer, a second all-connected layer, a second activation layer, and a final activation layer, wherein each of said N skin symptom diagnoses and said Output the final value containing one of the ethnicity vectors.
The computer-implemented method of Technical Thought 25 is the computer-implemented method of Technical Thought 24, wherein the final activation layer calculates the input score x received from the second activation layer according to the function of Equation 1 below: is the slope, a is the lower bound, and b is the upper bound of the score range for each of the N skin sign diagnoses.
Figure 2020113326000017
The computer-implemented method of technical idea 26 is the computer-implemented method according to any one of technical ideas 22 to 25, wherein the CNN is trained using a plurality of samples of the form (x i , y i ), and x i is the ith training image, yi is the vector corresponding to the ground truth skin sign diagnosis, the CNN is the N parallel skin sign branches, and the parallel is learned to minimize the loss function for each of the branches of .
The computer-implemented method of technical idea 27 is the computer-implemented method according to technical idea 26, wherein the CNN includes a loss function L2 for each of the N parallel skin sign branches, a parallel A loss function L that is a weighted combination of the standard cross-entropy classification loss L ethnicity for bifurcations is learned to minimize according to Equation 3 below, where λ is the balance between score regression and ethnicity classification loss. Control.
Figure 2020113326000018
Technical idea 28 is the computer-implemented method according to any one of technical ideas 19 to 27, wherein the storage unit stores a face and landmark detector for preprocessing the image. , the method comprises: the processing unit preprocessing the image with the face and landmark detector to generate a normalized image from the image; and the normalized image in using the CNN. Use an image that is
The computer-implemented method of Technical Thought 29 is the computer-implemented method of any one of Technical Thoughts 19-28, wherein the CNN comprises image classification adapted to generate each of the N skin symptom diagnoses. , wherein the fully connected layers of said trained network are omitted, and each group of N layers decodes in parallel the same feature net for each of said N skin symptom diagnoses. defined as
The computer-implemented method of technical idea 30 is the computer-implemented method according to any one of technical ideas 19 to 29, wherein the storage unit and the processing unit comprise a personal computer device consisting of a mobile terminal and a communication network. a server that provides skin diagnostic services via;
Technical idea 31 is the computer-implemented method according to any one of technical ideas 19 to 30, wherein the storage unit, when executed by the processing unit, stores each of the N skin symptom diagnoses. and storing code for providing a therapeutic product selector for obtaining recommendations for at least one of a product and a treatment plan, corresponding to at least some of the methods comprising: to obtain recommendations for at least one of products and treatment plans
The computer-implemented method of technical idea 32 is the computer-implemented method according to any one of technical ideas 19 to 31, wherein, when executed by the processing unit, the storage unit performs image acquisition for receiving the image. Code that provides a function is stored, and the method executes the code of the image acquisition function by the processing unit to receive the image.
The computer-implemented method of Technical Thought 33 is the computer-implemented method of any of Technical Thoughts 19-32, wherein the storage unit, when executed by the processing unit, provides a treatment for at least one skin indication. Code for providing a therapy monitor for monitoring is stored, and the method executes the therapy monitor code by the processing unit to monitor therapy for at least one skin manifestation.
The computer-implemented method of Technical Thought 34 is the computer-implemented method of Technical Thought 33, wherein said method reminds, instructs, by said processor, a treatment activity associated with application of a product for each treatment session; and/or record.
Technical idea 35 is the computer-implemented method of any one of technical ideas 19 to 34, wherein the processing unit processes a second image using the CNN, received after a treatment session Generate a subsequent skin diagnosis.
The computer-implemented method of idea 36, wherein the computer-implemented method of idea 35, by the processing unit, provides presentation of comparison results using said subsequent skin diagnosis.
The method of idea 37 is a convolutional neural network configured to classify pixels of an image to determine N skin symptom diagnoses for each of a plurality of N skin symptoms. training a CNN, said CNN being a deep neural network for image classification configured to generate a diagnosis for each of said N skin signs, said training comprising: skin manifestation data.
The method of Technical Thought 38 is the method of Technical Thought 37, wherein said CNN is defined from a trained network for image classification and configured to encode features into a feature net in a final encoder stage. and said final encoder stage feature net for decoding by a plurality of N parallel skin symptom branches to generate said N respective skin symptom diagnoses. and a decoder stage configured to:
The method of Technical Thought 39 is the method of Technical Thought 38, wherein the decoder stage processes the feature net of the final encoder stage to provide each of the N parallel cutaneous manifestation branches. It has a pooling process.
Technical idea 40 is the method according to technical idea 38 or 39, wherein the CNN is configured to classify the pixels to determine an ethnicity vector, the method comprising: The CNN is trained using skin signs and skin sign data for multiple ethnicities.
The method of idea 41 is the method of idea 40, wherein said decoder stage comprises parallel branches on ethnicity to generate said ethnicity vector.
Technical idea 42 is the method according to any one of technical ideas 38 to 41, wherein each branch of the N parallel skin manifestation branches comprises a first fully connected layer followed by a first , a second fully connected layer, a second activation layer, and a final activation layer, wherein each of the N skin symptom diagnoses and the ethnicity vector Output the final value containing one of
Technical idea 43 is the method according to technical idea 42, wherein the final activation layer is defined according to the function of Equation 1 below with respect to the input score x received from the second activation layer, and α is the slope, a is the lower bound, and b is the upper bound of the score range for each of the N skin sign diagnoses.
Figure 2020113326000019
The method of technical idea 44 is the method according to any one of technical ideas 40 to 44, wherein the training includes training the CNN using a plurality of samples of (x i , y i ) format, and x i is the i-th training image, y i is a vector corresponding to the ground truth skin sign diagnosis, and the learning consists of the N parallel skin sign branches and the parallel ethnicity The CNN is trained to minimize the loss function for each branch of branches.
The method of technical idea 45 is the method according to technical idea 44, wherein the learning is a loss function L2 for each of the N parallel skin sign branches, and a standard for the parallel branch for the ethnicity Train the CNN to minimize a loss function L that is a weighted combination of the cross-entropy classification loss L ethnicity according to Equation 3 below, where λ controls the balance between score regression and ethnicity classification loss do.
Figure 2020113326000020
The computer-implemented method of idea 46 is the computer-implemented method of any of ideas 19-27, wherein the CNN receives normalized images preprocessed by face and landmark detection. configured as
Technical idea 47 is the computer-implemented method of any one of technical ideas 19 to 28, wherein the CNN comprises an image classification adapted to generate each of the N skin symptom diagnoses. , wherein the fully connected layers of said trained network are omitted, and each group of N layers decodes in parallel the same feature net for each of said N skin symptom diagnoses is defined as

Claims (20)

記憶部と、その記憶部に結合される処理部とを備える皮膚の診断装置であって、
前記記憶部は、複数であるN個の各皮膚の徴候について、N個の各皮膚の徴候診断を判定するために画像のピクセルを分類する畳み込みニューラルネットワークであるCNNを記憶して提供し、
前記CNNは、前記N個の各皮膚の徴候診断を生成するように構成された画像分類のための深層ニューラルネットワークであり、
前記CNNは、前記N個の各皮膚の徴候のそれぞれに関する皮膚の徴候データを使用して学習され、
前記処理部は、前記画像を受信し、前記CNNを用いて前記画像を処理し、前記N個の各皮膚の徴候診断を生成することを特徴とする皮膚の診断装置。
1. A skin diagnostic device comprising a storage unit and a processing unit coupled to the storage unit, comprising:
the storage unit stores and provides a CNN that is a convolutional neural network that classifies pixels of an image for each of the plurality of N skin signs to determine each of the N skin sign diagnoses;
said CNN is a deep neural network for image classification configured to generate each of said N skin sign diagnoses;
the CNN is trained using skin manifestation data for each of the N skin manifestations;
The skin diagnosis apparatus, wherein the processing unit receives the image and processes the image using the CNN to generate each of the N skin symptom diagnoses.
前記CNNは、画像分類のための学習済ネットワークから定義され、最終のエンコーダ段階の特徴ネットに特徴を符号化するように構成されたエンコーダ段階と、前記N個の各皮膚の徴候診断を生成するために、複数であるN個の並列の皮膚徴候の分岐によって復号化するための前記最終のエンコーダ段階の特徴ネットを受信するように構成されたデコーダ段階と、を備える、請求項1記載の皮膚の診断装置。 The CNN generates an encoder stage defined from a trained network for image classification and configured to encode features into a final encoder stage feature net and each of the N skin symptom diagnoses. a decoder stage configured to receive the final encoder stage feature net for decoding by a plurality of N parallel skin manifestation branches for diagnostic equipment. 前記デコーダ段階は、前記最終のエンコーダ段階の特徴ネットを処理して前記N個の並列の皮膚徴候の分岐の各々に提供するグローバルプーリング処理を備える、請求項2記載の皮膚の診断装置。 3. The skin diagnostic apparatus of claim 2, wherein the decoder stage comprises a global pooling process for processing the feature nets of the final encoder stage to provide each of the N parallel skin manifestation branches. 前記CNNは、前記ピクセルを分類して民族性ベクトルを判定するように構成され、
前記CNNは、前記N個の各皮膚の徴候および複数の民族性に関する皮膚の徴候データを使用して学習される、請求項2又は3に記載の皮膚の診断装置。
the CNN is configured to classify the pixels to determine an ethnicity vector;
4. The skin diagnostic apparatus of claim 2 or 3, wherein the CNN is trained using skin manifestation data for each of the N skin manifestations and multiple ethnicities.
前記デコーダ段階は、前記民族性ベクトルを生成するための民族性に関する並列の分岐を備える、請求項4記載の皮膚の診断装置。 5. The skin diagnostic apparatus of claim 4, wherein the decoder stage comprises parallel branches for ethnicity to generate the ethnicity vector. 前記N個の並列の皮膚徴候の分岐の各分岐は、第1の全結合層と、それに続く第1の活性化層と、第2の全結合層と、第2の活性化層と、最終の活性化層と、を連続して備え、前記N個の各皮膚の徴候診断および前記民族性ベクトルのうちの1つを含む最終値を出力する、請求項2から5のいずれかに記載の皮膚の診断装置。 Each branch of the N parallel skin manifestation branches comprises a first fully connected layer, followed by a first activated layer, a second fully connected layer, a second activated layer, and a final activation layers, and outputting a final value comprising one of each of the N skin symptom diagnoses and the ethnicity vector. Skin diagnostic equipment. 前記最終の活性化層は、前記第2の活性化層から受信した入力スコアxに関する以下の数式1の関数に従って定義され、
αは傾き、aは下限、bは前記N個の各皮膚の徴候診断の各々のスコア範囲の上限である、請求項6記載の皮膚の診断装置。
Figure 2020113326000001
The final activation layer is defined according to the function of Equation 1 below for input scores x received from the second activation layer,
7. The skin diagnostic apparatus of claim 6, wherein [alpha] is the slope, a is the lower bound, and b is the upper bound of the score range for each of said N skin symptom diagnoses.
Figure 2020113326000001
前記CNNは、(x、y)形式の複数のサンプルを用いて学習され、
は、i番目の学習画像であり、
は、グランドトゥルースの皮膚の徴候診断に対応するベクトルであり、
前記CNNは、前記N個の並列の皮膚徴候の分岐、及び前記民族性に関する並列の分岐の各分岐に対する損失関数を最小化するように学習される、請求項4から7のいずれかに記載の皮膚の診断装置。
The CNN is trained using a plurality of samples of the form (x i , y i ),
x i is the i-th training image,
y i is a vector corresponding to the ground truth skin sign diagnosis,
8. The CNN of any of claims 4-7, wherein the CNN is trained to minimize a loss function for each branch of the N parallel skin manifestation branches and the parallel ethnicity branches. Skin diagnostic equipment.
前記CNNは、前記N個の並列の皮膚徴候の分岐のそれぞれについての損失関数L2に、前記民族性に関する並列の分岐についての標準交差エントロピー分類損失Lethnicityを重み付けして組み合わせた損失関数Lを、以下の数式3に従って最小化するように学習され、
λは、スコア回帰と民族性の分類損失の間のバランスを制御する、請求項8記載の皮膚の診断装置。
Figure 2020113326000002
The CNN provides a loss function L that is a weighted combination of a loss function L2 for each of the N parallel skin manifestation branches and a standard cross-entropy classification loss L ethnicity for the parallel ethnicity branches, learned to minimize according to Equation 3 below,
9. The skin diagnostic device of claim 8, wherein [lambda] controls the balance between score regression and ethnic classification loss.
Figure 2020113326000002
前記記憶部は、前記画像を前処理するための顔およびランドマークの検出器を記憶し、
前記処理部は、前記顔およびランドマークの検出器を用いて前記画像から正規化された画像を生成し、前記CNNを使用する際に前記正規化された画像を使用するように構成される、請求項1から9のいずれかに記載の皮膚の診断装置。
the storage unit stores face and landmark detectors for preprocessing the image;
the processing unit is configured to generate a normalized image from the image using the face and landmark detector and to use the normalized image when using the CNN; The skin diagnostic device according to any one of claims 1 to 9.
前記CNNは、前記N個の各皮膚の徴候診断を生成するように適合された画像分類のための学習済ネットワークを備え、
前記学習済ネットワークの全結合層が省略され、
N個の各層のグループは、前記N個の各皮膚の徴候診断のそれぞれについて同じ特徴ネットを並列に復号するように定義される、請求項1から10のいずれかに記載の皮膚の診断装置。
said CNN comprising a trained network for image classification adapted to generate each of said N skin sign diagnoses;
fully connected layers of the trained network are omitted,
11. A skin diagnostic apparatus according to any preceding claim, wherein each group of N layers is defined to decode in parallel the same feature net for each of said N skin symptom diagnoses.
前記記憶部は、前記処理部によって実行されると、前記N個の各皮膚の徴候診断の少なくともいくつかに対応して、製品および治療計画のうちの少なくとも1つに関する推奨事項を取得するための治療製品セレクタを提供するコードを記憶する、請求項1から1のいずれかに記載の皮膚の診断装置。 the storage unit for, when executed by the processing unit, for obtaining recommendations for at least one of products and treatment regimens corresponding to at least some of each of the N skin symptom diagnoses; 12. A skin diagnostic device according to any preceding claim, storing code for providing a therapeutic product selector. 前記記憶部は、前記処理部によって実行されると、前記画像を受信するための画像取得機能を提供するコードを記憶する、請求項1から1のいずれかに記載の皮膚の診断装置。 13. The skin diagnostic apparatus of any of claims 1-12, wherein the storage unit stores code that, when executed by the processing unit, provides an image acquisition function for receiving the image. 前記記憶部は、前記処理部によって実行されると、少なくとも1つの皮膚の徴候に対する治療をモニタするための治療モニタを提供するコードを記憶する、請求項1から1のいずれかに記載の皮膚の診断装置。 4. The skin of any of claims 1-13 , wherein the storage unit stores code that, when executed by the processing unit, provides a therapy monitor for monitoring therapy for at least one skin indication. diagnostic equipment. 前記処理部は、各治療セッションに対する製品の適用に関連する治療活動を、思い出させる、指示する、及び記録する、のうちの少なくとも1つを行うように構成される、請求項1記載の皮膚の診断装置。 15. The method of claim 14 , wherein the processing unit is configured to at least one of remind, instruct and record therapeutic activities associated with application of the product for each treatment session. skin diagnostic equipment. 前記処理部は、前記CNNを用いて第2の画像を処理し、治療セッション後に受信した後続の皮膚の診断を生成するように構成される、請求項1から1のいずれかに記載の皮膚の診断装置。 16. The skin of any of claims 1-15 , wherein the processing unit is configured to process a second image using the CNN to generate a subsequent skin diagnosis received after a treatment session. diagnostic equipment. 前記記憶部は、前記処理部によって実行されると、前記後続の皮膚の診断を用いた比較結果の提示を行うコードを記憶する、請求項1記載の皮膚の診断装置。 17. The skin diagnosis apparatus of claim 16 , wherein the storage unit stores code that, when executed by the processing unit, presents comparison results using the subsequent skin diagnosis. 前記CNNは、顔およびランドマークの検出によって前処理された正規化された画像を受信するように構成される、請求項1か7のいずれかに記載の皮膚の診断装置18. A skin diagnostic device according to any of the preceding claims, wherein the CNN is configured to receive normalized images preprocessed by face and landmark detection. 記憶部と、その記憶部に結合される処理部とを用いた皮膚の診断方法であって、
前記記憶部に、複数であるN個の各皮膚の徴候について、N個の各皮膚の徴候診断を判定するために画像のピクセルを分類する畳み込みニューラルネットワークであるCNNを記憶して提供し、
前記CNNは、前記N個の各皮膚の徴候診断を生成するように構成された画像分類のための深層ニューラルネットワークであり、
前記CNNは、前記N個の各皮膚の徴候のそれぞれに関する皮膚の徴候データを使用して学習され、
前記処理部に、受信した前記画像を前記CNNを用いて処理させることにより、前記N個の各皮膚の徴候診断を生成することを特徴とする皮膚の診断方法
A skin diagnostic method using a storage unit and a processing unit coupled to the storage unit, comprising:
storing and providing in the storage unit a CNN, a convolutional neural network for classifying pixels of an image for each of a plurality of N skin signs to determine each of the N skin sign diagnoses;
said CNN is a deep neural network for image classification configured to generate each of said N skin sign diagnoses;
the CNN is trained using skin manifestation data for each of the N skin manifestations;
A method of diagnosing skin, wherein each of the N skin symptom diagnoses is generated by causing the processing unit to process the received image using the CNN .
記憶部と、その記憶部に結合される処理部とを備えるコンピュータに、皮膚の診断処理を実行させる皮膚の診断プログラムであって、A skin diagnostic program for causing a computer comprising a storage unit and a processing unit coupled to the storage unit to perform skin diagnostic processing,
前記記憶部に、複数であるN個の各皮膚の徴候について、N個の各皮膚の徴候診断を判定するために画像のピクセルを分類する畳み込みニューラルネットワークであるCNNを記憶するステップと、storing in the storage a CNN, a convolutional neural network that classifies pixels of an image for each of a plurality of N skin signs to determine each of the N skin sign diagnoses;
前記処理部に、受信した前記画像を前記CNNを用いて処理させることにより、前記N個の各皮膚の徴候診断を生成するステップと、を前記コンピュータに実行させるものであり、and causing the computer to perform the steps of: causing the processing unit to process the received images using the CNN to generate each of the N skin symptom diagnoses;
前記CNNは、前記N個の各皮膚の徴候診断を生成するように構成された画像分類のための深層ニューラルネットワークであり、said CNN is a deep neural network for image classification configured to generate each of said N skin sign diagnoses;
前記CNNは、前記N個の各皮膚の徴候のそれぞれに関する皮膚の徴候データを使用して学習されることを特徴とする皮膚の診断プログラム。A skin diagnostic program, wherein said CNN is trained using skin symptom data for each of said N skin symptoms.
JP2021554782A 2018-12-04 2019-12-03 Automatic image-based skin diagnosis using deep learning Active JP7395604B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862775117P 2018-12-04 2018-12-04
US62/775,117 2018-12-04
PCT/CA2019/051735 WO2020113326A1 (en) 2018-12-04 2019-12-03 Automatic image-based skin diagnostics using deep learning

Publications (3)

Publication Number Publication Date
JP2022512044A JP2022512044A (en) 2022-02-01
JPWO2020113326A5 true JPWO2020113326A5 (en) 2022-09-14
JP7395604B2 JP7395604B2 (en) 2023-12-11

Family

ID=70850102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021554782A Active JP7395604B2 (en) 2018-12-04 2019-12-03 Automatic image-based skin diagnosis using deep learning

Country Status (4)

Country Link
US (2) US11553872B2 (en)
EP (1) EP3890591A4 (en)
JP (1) JP7395604B2 (en)
WO (1) WO2020113326A1 (en)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10453270B2 (en) 2015-09-11 2019-10-22 Intel Corporation Scalable real-time face beautification of video images
WO2020059926A1 (en) * 2018-09-21 2020-03-26 엘지전자 주식회사 Mobile terminal and method for controlling same
WO2020113326A1 (en) 2018-12-04 2020-06-11 Jiang Ruowei Automatic image-based skin diagnostics using deep learning
CN109793498B (en) * 2018-12-26 2020-10-27 华为终端有限公司 Skin detection method and electronic equipment
US11574405B2 (en) * 2019-01-31 2023-02-07 Dr. Maksym Breslavets Medicine Professional Corp. Analysis of the severity of skin disease through entropy quantification
US11308618B2 (en) 2019-04-14 2022-04-19 Holovisions LLC Healthy-Selfie(TM): a portable phone-moving device for telemedicine imaging using a mobile phone
WO2020219612A1 (en) * 2019-04-23 2020-10-29 The Procter & Gamble Company Apparatus and method for visualizing cosmetic skin attributes
KR102653079B1 (en) 2019-04-23 2024-04-01 더 프록터 앤드 갬블 캄파니 Apparatus and method for measuring cosmetic skin properties
CA3140924A1 (en) * 2019-06-04 2020-12-10 University Of Manitoba Computer-implemented method of analyzing an image to segment article of interest therein
US11151794B1 (en) * 2019-06-28 2021-10-19 Snap Inc. Messaging system with augmented reality messages
US11151412B2 (en) * 2019-07-01 2021-10-19 Everseen Limited Systems and methods for determining actions performed by objects within images
US11144790B2 (en) * 2019-10-11 2021-10-12 Baidu Usa Llc Deep learning model embodiments and training embodiments for faster training
US11657481B2 (en) * 2019-11-18 2023-05-23 Shinyfields Limited Systems and methods for selective enhancement of skin features in images
KR20210094692A (en) * 2020-01-21 2021-07-30 삼성디스플레이 주식회사 Afterimage preventing method and display device including the same
US11950847B1 (en) 2020-03-24 2024-04-09 Al Optics Inc. Portable medical diagnostics device with integrated artificial intelligence capabilities
USD968441S1 (en) * 2020-04-30 2022-11-01 The Procter & Gamble Company Display screen with graphical user interface
US11589803B2 (en) * 2020-05-04 2023-02-28 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and systems for improving human facial skin conditions by leveraging vehicle cameras and skin data AI analytics
USD962256S1 (en) 2020-05-14 2022-08-30 The Procter & Gamble Company Display screen with graphical user interface
DE102020116304A1 (en) * 2020-06-19 2021-12-23 MetricsCosmetics GmbH Procedure for the determination of individual care product formulations
FR3112633B1 (en) 2020-06-30 2023-03-03 Oreal High-resolution controllable facial aging with spatially sensitive conditional GANs
EP4150514A1 (en) 2020-06-30 2023-03-22 L'Oréal High-resolution controllable face aging with spatially-aware conditional gans
CN111767858B (en) 2020-06-30 2024-03-22 北京百度网讯科技有限公司 Image recognition method, device, equipment and computer storage medium
US11793451B2 (en) 2020-07-31 2023-10-24 L'oreal Interface and analysis techniques for customized skin care regimen based on skin diagnostics
EP4196947A1 (en) * 2020-08-11 2023-06-21 Cortina Health, Inc. Systems and methods for using artificial intelligence for skin condition diagnosis and treatment options
FR3115907A1 (en) * 2020-11-04 2022-05-06 L'oreal Interface and analysis techniques for a personalized skin care regimen based on skin diagnosis
US11551283B2 (en) * 2020-12-01 2023-01-10 Capital One Services, Llc Methods and systems for providing a vehicle suggestion based on image analysis
EP4024405A1 (en) * 2020-12-29 2022-07-06 Koninklijke Philips N.V. An apparatus and method for moderating a skin lesion detection model
EP4075385A1 (en) * 2021-04-14 2022-10-19 HautAI OÜ Method and system for anonymizing facial images
KR20240001250A (en) * 2021-04-30 2024-01-03 로레알 Prediction of aging treatment results based on skin age type
KR20240004775A (en) * 2021-04-30 2024-01-11 로레알 Predict efficacy and improve skin care treatment outcomes based on responder/non-responder information
FR3125407A1 (en) * 2021-07-23 2023-01-27 L'oreal PREDICTION OF AGING TREATMENT RESULTS BASED ON AGEOTYPE
FR3125406A1 (en) * 2021-07-23 2023-01-27 L'oreal PREDICTION OF EFFECTIVENESS AND IMPROVEMENT OF AGING TREATMENT RESULTS BASED ON BIOLOGICAL RESPONSE TO ACTIVE INGREDIENTS
US20220398055A1 (en) * 2021-06-11 2022-12-15 The Procter & Gamble Company Artificial intelligence based multi-application systems and methods for predicting user-specific events and/or characteristics and generating user-specific recommendations based on app usage
US11967031B2 (en) 2021-06-11 2024-04-23 The Procter & Gamble Company Digital imaging analysis of biological features detected in physical mediums
US11875468B2 (en) 2021-06-29 2024-01-16 The Procter & Gamble Company Three-dimensional (3D) image modeling systems and methods for determining respective mid-section dimensions of individuals
FR3129579B1 (en) * 2021-12-01 2023-12-01 Oreal SYSTEMS, devices and METHODS featuring color-coded substrates for spot correction of blemishes, ACNE and secondary skin PROBLEMS
US20230196550A1 (en) * 2021-12-16 2023-06-22 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining body contour
US20230196579A1 (en) * 2021-12-16 2023-06-22 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin pore size
US20230196816A1 (en) * 2021-12-16 2023-06-22 The Gillett Company LLC Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin hyperpigmentation
JP7175061B1 (en) 2022-06-29 2022-11-18 株式会社Novera Program, information processing device, and method

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7921068B2 (en) 1998-05-01 2011-04-05 Health Discovery Corporation Data mining platform for knowledge discovery from heterogeneous data types and/or heterogeneous data sources
US20080050836A1 (en) 1998-05-01 2008-02-28 Isabelle Guyon Biomarkers for screening, predicting, and monitoring benign prostate hyperplasia
US7475048B2 (en) 1998-05-01 2009-01-06 Health Discovery Corporation Pre-processed feature ranking for a support vector machine
US6658395B1 (en) 1998-05-01 2003-12-02 Biowulf Technologies, L.L.C. Enhancing knowledge discovery from multiple data sets using multiple support vector machines
US7444308B2 (en) 2001-06-15 2008-10-28 Health Discovery Corporation Data mining platform for bioinformatics and other knowledge discovery
US7617163B2 (en) 1998-05-01 2009-11-10 Health Discovery Corporation Kernels and kernel methods for spectral data
US6760715B1 (en) 1998-05-01 2004-07-06 Barnhill Technologies Llc Enhancing biological knowledge discovery using multiples support vector machines
US7805388B2 (en) 1998-05-01 2010-09-28 Health Discovery Corporation Method for feature selection in a support vector machine using feature ranking
US7117188B2 (en) 1998-05-01 2006-10-03 Health Discovery Corporation Methods of identifying patterns in biological systems and uses thereof
US20070092917A1 (en) 1998-05-01 2007-04-26 Isabelle Guyon Biomarkers for screening, predicting, and monitoring prostate disease
US6128608A (en) 1998-05-01 2000-10-03 Barnhill Technologies, Llc Enhancing knowledge discovery using multiple support vector machines
US6996549B2 (en) 1998-05-01 2006-02-07 Health Discovery Corporation Computer-aided image analysis
WO2002095534A2 (en) 2001-05-18 2002-11-28 Biowulf Technologies, Llc Methods for feature selection in a learning machine
US6789069B1 (en) 1998-05-01 2004-09-07 Biowulf Technologies Llc Method for enhancing knowledge discovered from biological data using a learning machine
US6714925B1 (en) 1999-05-01 2004-03-30 Barnhill Technologies, Llc System for identifying patterns in biological data using a distributed network
US7970718B2 (en) 2001-05-18 2011-06-28 Health Discovery Corporation Method for feature selection and for evaluating features identified as significant for classifying data
US7624074B2 (en) 2000-08-07 2009-11-24 Health Discovery Corporation Methods for feature selection in a learning machine
US8543519B2 (en) 2000-08-07 2013-09-24 Health Discovery Corporation System and method for remote melanoma screening
US8463718B2 (en) 2000-08-07 2013-06-11 Health Discovery Corporation Support vector machine-based method for analysis of spectral data
US20090226915A1 (en) 2001-01-24 2009-09-10 Health Discovery Corporation Methods for Screening, Predicting and Monitoring Prostate Cancer
US20090215058A1 (en) 2001-01-24 2009-08-27 Health Discovery Corporation Methods for screening, predicting and monitoring prostate cancer
US20090215024A1 (en) 2001-01-24 2009-08-27 Health Discovery Corporation Biomarkers upregulated in prostate cancer
EP1393196A4 (en) 2001-05-07 2007-02-28 Health Discovery Corp Kernels and methods for selecting kernels for use in learning machines
US20050071140A1 (en) 2001-05-18 2005-03-31 Asa Ben-Hur Model selection for cluster data analysis
US8008012B2 (en) 2002-01-24 2011-08-30 Health Discovery Corporation Biomarkers downregulated in prostate cancer
US11105808B2 (en) 2004-11-12 2021-08-31 Health Discovery Corporation Methods for screening, predicting and monitoring prostate cancer
US8293469B2 (en) 2004-11-12 2012-10-23 Health Discovery Corporation Biomarkers downregulated in prostate cancer
US20140018249A1 (en) 2006-07-26 2014-01-16 Health Discovery Corporation Biomarkers for screening, predicting, and monitoring benign prostate hyperplasia
WO2011087807A2 (en) * 2009-12-22 2011-07-21 Health Discovery Corporation System and method for remote melanoma screening
WO2012139273A1 (en) 2011-04-11 2012-10-18 Intel Corporation Method of detecting facial attributes
JP2016148906A (en) 2015-02-10 2016-08-18 株式会社日立システムズ Skin check system and commodity list display method, and commodity list display program
US20170246473A1 (en) * 2016-02-25 2017-08-31 Sava Marinkovich Method and system for managing treatments
EP3433818A1 (en) 2016-03-21 2019-01-30 The Procter and Gamble Company Systems and methods for providing customized product recommendations
US10373312B2 (en) 2016-11-06 2019-08-06 International Business Machines Corporation Automated skin lesion segmentation using deep side layers
WO2018146688A1 (en) 2017-02-11 2018-08-16 Dermadetect Ltd. A system and method of diagnosis skin and tissue lesions and abnormalities
US11026634B2 (en) * 2017-04-05 2021-06-08 doc.ai incorporated Image-based system and method for predicting physiological parameters
US10818007B2 (en) * 2017-05-31 2020-10-27 The Procter & Gamble Company Systems and methods for determining apparent skin age
WO2019070775A1 (en) * 2017-10-03 2019-04-11 Ohio State Innovation Foundation System and method for image segmentation and digital analysis for clinical trial scoring in skin disease
CN108198620B (en) 2018-01-12 2022-03-22 洛阳飞来石软件开发有限公司 Skin disease intelligent auxiliary diagnosis system based on deep learning
US11419499B2 (en) * 2018-01-19 2022-08-23 The Regents Of The University Of California Optical coherence tomography for cancer screening and triage
WO2020113326A1 (en) 2018-12-04 2020-06-11 Jiang Ruowei Automatic image-based skin diagnostics using deep learning

Similar Documents

Publication Publication Date Title
JP7395604B2 (en) Automatic image-based skin diagnosis using deep learning
JPWO2020113326A5 (en)
CA3015492C (en) Systems and methods for providing customized product recommendations
JP7341310B2 (en) Image processing for skin analysis, system and method for visualizing skin analysis
US10943156B2 (en) Machine-implemented facial health and beauty assistant
US11817004B2 (en) Machine-implemented facial health and beauty assistant
EP3718050A1 (en) Machine-implemented facial health and beauty assistant
Hasan et al. Pain level detection from facial image captured by smartphone
KR20220057793A (en) User terminal configured to perform atopic dermatitis diagnosis based on deep learning
Malgina et al. Development of the mobile application for assessing facial acne severity from photos
Raj et al. Automatic and objective facial palsy grading index prediction using deep feature regression
Migliorelli et al. A store-and-forward cloud-based telemonitoring system for automatic assessing dysarthria evolution in neurological diseases from video-recording analysis
US20230092766A1 (en) Systems and methods for visualization of a treatment progress
US20220108445A1 (en) Systems and methods for acne counting, localization and visualization
CN114502061B (en) Image-based automatic skin diagnosis using deep learning
EP4002380A1 (en) Assessing a region of interest of a subject
Kumar et al. Role of artificial intelligence for skin cancer detection
WO2021003574A1 (en) Systems and methods to process images for skin analysis and to visualize skin analysis
CN116964642A (en) System and method for acne counting, localization and visualization
CN117242528A (en) System and method for processing images for skin analysis and visualization of skin analysis
KR20240033858A (en) Method for providing information of predicting wart or corn and device using the same