JP7341310B2 - 皮膚分析のための画像処理、皮膚分析を視覚化するためのシステム及び方法 - Google Patents
皮膚分析のための画像処理、皮膚分析を視覚化するためのシステム及び方法 Download PDFInfo
- Publication number
- JP7341310B2 JP7341310B2 JP2022502098A JP2022502098A JP7341310B2 JP 7341310 B2 JP7341310 B2 JP 7341310B2 JP 2022502098 A JP2022502098 A JP 2022502098A JP 2022502098 A JP2022502098 A JP 2022502098A JP 7341310 B2 JP7341310 B2 JP 7341310B2
- Authority
- JP
- Japan
- Prior art keywords
- skin
- image
- neural network
- computer
- deep neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0633—Lists, e.g. purchase orders, compilation or processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0022—Monitoring a patient using a global network, e.g. telephone networks, internet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/445—Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7465—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Data Mining & Analysis (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Economics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Dermatology (AREA)
Description
米国に関して、本出願が以下の先行出願の優先権を主張する:1)2019年7月10日に出願された米国仮特許出願第62/872,347号および2)2019年7月25日に出願された米国仮特許出願第62/878,464号。各先行出願の全内容は、適用可能な場合、参照により本明細書に組み込まれる。
正確な皮膚分析は、医療および化粧品分野の両方において重要な分野である。尋常性ざ瘡は、一般的な皮膚疾患であり、人口の85%が生涯のある時期に罹患する[15]。患者の画像をスコア化することにより、ざ瘡の重症度を体系的に評価する努力がなされている。Global Acne Severity Scaleなどの標準システムは、病変の大きさ、密度、種類および分布に基づいて整数で各患者または画像のざ瘡スコアを評価することが確立されている。
一実施形態によれば、元のデータセットは5つの異なる民族の1051人の被験者から収集された5971個の画像からなり、3つの画像が、各被験者について携帯電話によって、すなわち正面および2つのプロファイルビューからキャプチャされている。各被験者に、GEA標準[3]を用いて、3人の皮膚科医が、対応する画像に対する専門家の評価に基づいて、0~5の整数スコアを割り当てた。このスコアリングモデルでは、1877個の正面画像のデータセットが使用される。グランドトゥルースは、3名の皮膚科医のスコアの大部分のスコアと定義される。データセットは、トレーニング(80%)、テスト(10%)及び検証(10%)サブセットに無作為に分割される。
以前の研究[5、11]では、ResNet[4]及びMobileNetV2[12]などの現代のディープラーニングアーキテクチャが詳細な皮膚の特徴を学習する際に優れた能力を実証した。このための典型的なアプローチは適切な目的関数に関して分類または回帰するために、いくつかの完全に接続されたレイヤを追加することによる、プレトレーニングされた特徴ネットワーク(例えば、ResNet)に基づく伝達学習である。しかし、ざ瘡スコアは連続する整数によって表されるので、回帰損失と共に補助分類損失を導入する。このアイデアは、同様の状況が適用される年齢回帰タスクに関する研究[11,10]によって着想された。一実施形態によれば、図1は、ディープラーニングシステムを提供するコンピューティングデバイスの記憶デバイス100の概略図である。記憶デバイスは処理ユニットに命令を提供するなどのメモリ(RAM/ROM)などを備え、処理ユニットの一例は、グラフィック処理ユニット又はモバイルデバイスやサーバなどの処理ユニットである。
一例によれば、CNN106は、4つのタスク、すなわち、ざ瘡スコア回帰、ざ瘡スコア分類、性別予測および民族性予測でトレーニングされる。CNN106(そのフレームワーク)は、以下の目的(複合損失関数によって定義される)を最適化することによってトレーニングされる:
<実施内容>
一例によれば、各画像について、60点顔トラッカー(輪郭点なし)を用いることなどによってランドマークが検出され、顔領域の矩形が、トレーニング時にある程度のランダム性をもって入力画像から切り取られる。各顔ボックス(顔の切り抜き)について、トレーニングデータセットにおいて、一意の画像のランダム性が適用されて、例えば、[0.08,0.1)*高さ、[0.2,0.3)*幅、[0.08,0.1)*高さ、[0.07,0.08]*底のランダム値によって、各対応する方向に左端、最上端、右端、最下端点の各々を移動させることによって、さらなる画像を生成する。したがって、顔ボックスは、拡張後に切り取られることになる(図2に示される例が入力画像および顔ボックス202を示す。本開示の目的のために、プライバシーマスク204が、ユーザの身元を不明瞭にするために提供される)。
前述のように、臨床的には、ざ瘡評価が整数のみのラベルを用いた回帰タスクである。したがって、平均絶対誤差および誤差のある閾値内のテストサンプルのパーセンテージが報告される。例えば、0.5以内の誤差も分類精度である。その結果、一例によれば、モデルは、平均絶対誤差0.35を達成し、分類誤差は71%であった。表1に、ざ瘡評価の同じデータセットについての以前の研究と比較した結果を示す。平均絶対誤差は、回帰結果の概観を与えるために報告され、分類精度のレベルを示すために0.5及び1.0以内の誤差パーセンテージを報告する。その結果、提案されたCNNは一例によれば、全体的な分類精度に関する従来の研究の方法よりも上回っている。[16]では、専門家のパフォーマンスがベースラインを確立するための専門家の合意に関しても67%であると報告された。
上述したように、一例によれば、ざ瘡評価において整数ラベルを有する回帰タスクの精度を改善するために、回帰と分類学習とを組み合わせる学習方法が採用される。このセクションは、以下の方法の議論および比較を含む:1)MSE損失(REGと表記)によってトレーニングされたスコアの直接出力を有する回帰ブランチを用いること;2)クロスエントロピー損失(CLSと表記)によってトレーニングされた分類ブランチを用いること;3)MSE損失(CLSを介するREGと表記)によってトレーニングされた分類結果からの確率出力に基づいて出力を計算すること;4)セクション2(REG+CLSと表記)で議論され提案された方法。
一例によれば、民族間および性別間のデータセットにおいて、皮膚の特徴は、性別および民族ごとに異なる。一例によれば、補助タスクとして性別予測および民族性予測を追加することによって、全体的なパフォーマンスが改善されることが示される。表3において、ベースラインの方法は分類タスク及び回帰タスクを伴うが、性別および民族性予測ブランチを追加しないトレーニングを指す。他の3つの列は、実施例による対応するブランチを追加した結果である。これらの補助タスクを導入することにより、モデルのパフォーマンスが大幅に向上し、分類精度が7.2%向上し、平均絶対誤差が0.03減少した。
CNNは、多くの視覚タスクにおいて著しい進歩を達成したが、そのようなネットワークは多くの場合、予測のための直接的な視覚的説明を与えない。クラスアクティベーションマップ(CAM)[14、参照により本明細書に組み込まれる]及びGrad-Gradient-重みクラスアクティベーションマッピング(Grad-CAM)[13、参照により本明細書に組み込まれる]などの最近の研究は、各予測結果のそのような説明を視覚化するやり方を提案している。解釈可能性、特に産業での使用を対象とした調査作業は、システムとユーザとの間の信頼を確立するための重要な要因の1つである。
<参考文献(References)>
[1]Abas,F.S.,Kaffenberger,B.,Bikowski,J.,Gurcan,M.N.:Acne image analysis:lesion localization and classification.In:Medical Imaging 2016:Computer-Aided Diagnosis.vol.9785,p.97850B.International Society for Optics and Photonics(2016)
[2]Alamdari,N.,Tavakolian,K.,Alhashim,M.,Fazel-Rezai,R.:Detection and classification of acne lesions in acne patients:A mobile application.In:2016 IEEE International Conference on Electro Information Technology(EIT).pp.0739-0743.IEEE(2016)
[3]Drno,B.,Poli,F.,Pawin,H.,Beylot,C.,Faure,M.,Chivot,M.,Auffret,N.,Moyse,D.,Ballanger,F.,Revuz,J.:Development and evaluation of a global acne severity scale(gea scale)suitable for France and Europe:Global acne assessment scale.Journal of the European Academy of Dermatology and Venereology:JEADV25,43-8(04 2010).URL doi.org/10.1111/j.1468-3083.2010.03685.x
[4]He,K.,Zhang,X.,Ren,S.,Sun,J.:Deep residual learning for image recognition.In:Proceedings of the IEEE conference on computer vision and pattern recognition.pp.770-778(2016)
[5]Jiang,R.,Kezele,I.,Levinshtein,A.,Flament,F.,Zhang,J.,Elmoznino,E.,Ma,J.,Ma,H.,Coquide,J.,Arcin,V.,Omoyuri,E.,Aarabi,P.:A new procedure,free from human assessment,that automatically grades some facial skin structural signs.Comparison with assessments by experts,using referential atlases of skin aging.International Journal of Cosmetic Science41(01 2019).URL doi.org/10.1111/ics.12512.
[6]Kingma,D.P.,Ba,J.:Adam:A method for stochastic optimization.CoRR abs/1412.6980(2014),URL arxiv.org/abs/1412.6980
[7]Malik,A.S.,Ramli,R.,Hani,A.F.M.,Salih,Y.,Yap,F.B.B.,Nisar,H.:Digital assessment of facial acne vulgaris.In:2014 IEEE International Instrumentation and Measurement Technology Conference(I2MTC) Proceedings.pp.546-550.IEEE(2014)
[8]Maroni,G.,Ermidoro,M.,Previdi,F.,Bigini,G.:Automated detection,extraction and counting of acne lesions for automatic evaluation and tracking of acne severity.In:2017 IEEE Symposium Series on Computational Intelligence(SSCI).pp.1-6.IEEE(2017)
[9]Melina,A.,Dinh,N.N.,Tafuri,B.,Schipani,G.,Nistic_o,S.,Cosentino,C.,Amato,F.,Thiboutot,D.,Cherubini,A.:Arti_cial intelligence for the objective evaluation of acne investigator global assessment.Journal of drugs in dermatology:JDD17(9),1006-1009(2018)
[10]Pan,H.,Han,H.,Shan,S.,Chen,X.:Mean-variance loss for deep age estimation from a face.In:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.pp.5285-5294(2018)
[11]Rothe,R.,Timofte,R.,Van Gool,L.:Dex:Deep expectation of apparent age from a single image.In:Proceedings of the IEEE International Conference on Computer Vision Workshops.pp.10-15(2015)
[12]Sandler,M.,Howard,A.,Zhu,M.,Zhmoginov,A.,Chen,L.C.:Mobilenetv2:Inverted residuals and linear bottlenecks.In:The IEEE Conference on Computer Vision and Pattern Recognition(CVPR)(June2018)
[13]Selvaraju,R.R.,Cogswell,M.,Das,A.,Vedantam,R.,Parikh,D.,Batra,D.:Grad-cam:Visual explanations from deep networks via gradient-based localization.In:Proceedings of the IEEE International Conference on Computer Vision.pp.618-626(2017)
[14]Zhou,B.,Khosla,A.,Lapedriza,A.,Oliva,A.,Torralba,A.:Learning deep features for discriminative localization.In:Proceedings of the IEEE conference on computer vision and pattern recognition.pp.2921-2929(2016)
[15]J.P.-O.N.V.-A.A.R.-A.J.D.-C.J.Alfredo Padilla-Medina,Francisco Len-Ordoez,Assessment technique for acne treatments based on statistical parameters of skin thermal images,Journal of Biomedical Optics 19(4)(2014)1-8-8.doi:10.1117/1.JBO.19.4.046019.URL doi.org/10.1117/1.JBO.19.4.046019
[16]La Roche Posay:What is effaclar spotscan?(2019),URL www.laroche-posay.co.uk/what-is-effaclar-spotscan,last accessed=2019-06-25
<その他>
<手段>
技術的思想1の皮膚診断デバイスは、記憶ユニットに結合された処理ユニットを提供する回路を備える皮膚診断デバイスであって、皮膚状態の皮膚診断を生成するために、画像分類のための回帰および分類を備えるディープニューラルネットワークを用いて画像のピクセルを分類する皮膚分析ユニットを提供するように構成される。
技術的思想2の皮膚診断デバイスは、技術的思想1記載の皮膚診断デバイスにおいて、前記処理ユニット及び前記記憶ユニットが前記皮膚診断を視覚化するために前記画像に注釈を付ける視覚化ユニットを提供するようにさらに構成される。
技術的思想3の皮膚診断デバイスは、技術的思想1又は2に記載の皮膚診断デバイスにおいて、前記処理ユニット及び前記記憶ユニットが前記皮膚診断に応答して、前記皮膚状態のための製品を推奨する推奨ユニットを提供するようにさらに構成される。
技術的思想4の皮膚診断デバイスは、技術的思想1から3のいずれかに記載の皮膚診断デバイスにおいて、前記処理ユニット及び前記記憶ユニットが前記皮膚状態のための製品を購入する電子商取引インターフェースを提供するようにさらに構成される。
技術的思想5の皮膚診断デバイスは、技術的思想1から4のいずれかに記載の皮膚診断デバイスにおいて、前記皮膚診断は、前記画像上の前記皮膚状態の重症度を分類するスケールの整数値を備える。
技術的思想6の皮膚診断デバイスは、技術的思想5記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、入力として正規化された顔画像を受信し、前記スケールの全ての可能な整数値にわたる確率分布を表すベクトルを出力し、アクティベーション関数を適用して前記皮膚診断の整数値を決定するように構成される。
技術的思想7の皮膚診断デバイスは、技術的思想1から6のいずれかに記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、民族性予測および性別予測の一方または両方を決定するための補助タスクによってさらに構成される。
技術的思想8の皮膚診断デバイスは、技術的思想1から7のいずれかに記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、前記皮膚診断を生成するように適合された画像分類のための適合ネットワークを備える。
技術的思想9の皮膚診断デバイスは、技術的思想1から8のいずれかに記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、画像処理のための畳み込みニューラルネットワーク(CNN)を備える。
技術的思想10の皮膚診断デバイスは、技術的思想9記載の皮膚診断デバイスにおいて、前記CNNは、回帰および分類の出力を生成するように構成された最終的な完全に接続されたレイヤの前にグローバルプーリングオペレーションを有するエンコーダとしての残差ネットワークを備える。
技術的思想11の皮膚診断デバイスは、技術的思想1から10のいずれかに記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、回帰損失関数と分類損失関数とを組み合わせた複合損失関数でトレーニングされる。
技術的思想12の皮膚診断デバイスは、技術的思想11記載の皮膚診断デバイスにおいて、前記複合損失関数は、数式2に従い、
技術的思想13の皮膚診断デバイスは、技術的思想1から12のいずれかに記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、ユーザモバイルデバイスからのセルフィー画像を備える顔画像データのデータセットを用いてトレーニングされる。
技術的思想14の皮膚診断デバイスは、技術的思想2から13のいずれかに記載の皮膚診断装置であって、そのうち技術的思想3から13は技術的思想2に従属する皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、前記画像に関連して皮膚診断を視覚化するためのヒートマップを生成するように構成される。
技術的思想15の皮膚診断デバイスは、技術的思想14記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、前記ヒートマップを生成するためにクラスアクティベーションマッピング(CAM)技法を適用するように構成される。
技術的思想16の皮膚診断デバイスは、技術的思想1から15のいずれかに記載の皮膚診断デバイスにおいて、前記画像は、ユーザモバイルデバイスからのセルフィー画像を備える。
技術的思想17の皮膚診断デバイスは、技術的思想1から16のいずれかに記載の皮膚診断デバイスにおいて、パーソナルユースのためのコンピューティングデバイスと、通信ネットワークを介して皮膚診断サービスを提供するサーバとのうちの1つを備える。
技術的思想18の皮膚診断デバイスは、技術的思想17記載の皮膚診断デバイスにおいて、パーソナルユースのための前記コンピューティングデバイスは、スマートフォン、タブレット、ラップトップ、パーソナルコンピュータ、又はカメラを有するか、カメラに結合された他のコンピューティングデバイスのうちの1つを備える。
技術的思想19の皮膚診断デバイスは、技術的思想3から18のいずれかに記載の皮膚診断デバイスであって、そのうち技術的思想4から18は技術的思想3に従属する皮膚診断デバイスにおいて、前記推奨ユニットは、前記皮膚診断に応答して、製品推奨および治療計画推奨のうちの少なくとも1つを取得する治療製品セレクタを提供する。
技術的思想20の皮膚診断デバイスは、技術的思想1から19のいずれかに記載の皮膚診断デバイスにおいて、前記処理ユニット及び前記記憶ユニットが前記画像を受信するための画像獲得機能を提供するように構成される。
技術的思想21の皮膚診断デバイスは、技術的思想1から20のいずれかに記載の皮膚診断デバイスにおいて、前記皮膚状態は、尋常性ざ瘡である。
技術的思想22の皮膚診断のコンピュータ実装方法は、皮膚診断のコンピュータ実装方法であって、画像を受信することと、皮膚状態についての皮膚診断を決定するために画像ピクセルを分類するように構成されたディープニューラルネットワークを用いて前記画像を処理することと、を備え、前記ディープニューラルネットワークは、前記皮膚診断を決定するための回帰および分類として構成され、前記画像に関連して前記皮膚診断を視覚化することを備える。
技術的思想23のコンピュータ実装方法は、コンピュータ実装方法であって、皮膚の画像の受信をすることと、皮膚分析結果およびアクティベーションマスクを作り出して、前記画像に関連して皮膚分析結果を視覚化するように構成されたディープニューラルネットワークによって前記画像を処理することと、前記アクティベーションマスク及び前記画像を提示するために提供することと、を備える。
技術的思想24のコンピュータ実装方法は、技術的思想23記載のコンピュータ実装方法において、前記画像を処理することは、前記ディープニューラルネットワークによる処理のためのk個の拡張画像を作り出すように前記画像に複数(k)のデータ拡張を実行することと、k個のアクティベーションマスクを作り出すように前記ディープニューラルネットワークによって前記k個の拡張画像を処理することと、そこから最終アクティベーションマスクを定義することと、を備える。
技術的思想25のコンピュータ実装方法は、技術的思想24記載のコンピュータ実装方法において、前記k個のアクティベーションマスク及び前記最終アクティベーションマスクは、ヒートマップを備える。
技術的思想26のコンピュータ実装方法は、技術的思想25記載のコンピュータ実装方法において、前記ディープニューラルネットワークは、Grad-CAM技法を用いて、それぞれのk個のアクティベーションマスクを作り出す。
技術的思想27のコンピュータ実装方法は、技術的思想24から26のいずれかに記載のコンピュータ実装方法において、前記最終アクティベーションマスクは、平均化を用いて前記k個のアクティベーションマスクから定義される。
技術的思想28のコンピュータ実装方法は、技術的思想27記載のコンピュータ実装方法において、閾値は、平均化された前記k個のアクティベーションマスクからの除去値に適用される。
技術的思想29のコンピュータ実装方法は、技術的思想24から28のいずれかに記載のコンピュータ実装方法において、kの値が2以上20以下(2≦k≦20)の範囲に設定される。
技術的思想30のコンピュータ実装方法は、技術的思想24から29のいずれかに記載のコンピュータ実装方法において、前記k個のデータ拡張を実行する前に、前記皮膚の前記画像を正規化することを備える。
技術的思想31のコンピュータ実装方法は、技術的思想24から30のいずれかに記載のコンピュータ実装方法において、前記k個のデータ拡張のそれぞれは、アフィン変換からランダムに選択された1つの拡張と、水平フリップオペレーションと、を備える。
技術的思想32のコンピュータ実装方法は、技術的思想23から30のいずれかに記載のコンピュータ実装方法において、前記皮膚分析結果に応答する製品推奨を提供することを備える。
技術的思想33のコンピュータ実装方法は、技術的思想32記載のコンピュータ実装方法において、1つ以上の製品を購入するための電子商取引インターフェースを提供することを備え、前記電子商取引インターフェースは、前記製品推奨に応答する。
技術的思想34のコンピュータ実装方法は、技術的思想33記載のコンピュータ実装方法において、前記製品推奨は、推奨製品を用いるための治療計画に関連付けられる。
技術的思想35のコンピュータ実装方法は、技術的思想23から34のいずれかに記載のコンピュータ実装方法において、前記ディープニューラルネットワークは、皮膚状態について前記画像を分析するように構成される。
技術的思想36のコンピュータ実装方法は、技術的思想35記載のコンピュータ実装方法において、前記皮膚状態は、尋常性ざ瘡である。
技術的思想37のコンピュータ実装方法は、技術的思想23から36のいずれかに記載のコンピュータ実装方法において、前記ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)を備える。
技術的思想38のコンピューティングデバイスは、技術的思想23から37のいずれかに記載のコンピュータ実装方法を実行するように構成する回路を備える。
技術的思想39の方法は、方法であって、皮膚診断を決定するために画像のピクセルを分類するように構成された畳み込みニューラルネットワーク(CNN)をトレーニングすることを備え、前記CNNは、前記皮膚診断を生成するように構成された画像分類のためのディープニューラルネットワークを備え、前記CNNは、前記皮膚診断を決定するための回帰および分類として構成され、前記CNNは、ユーザモバイルデバイスからのセルフィー画像を備える顔画像データのデータセットを用いてトレーニングされる。
Claims (34)
- 記憶ユニットに結合された処理ユニットを提供する回路を備える皮膚診断デバイスであって、
皮膚状態の皮膚診断を生成するために、画像分類のための回帰および分類を備えるディープニューラルネットワークを用いて画像のピクセルを分類する皮膚分析ユニットを提供するように構成され、
前記処理ユニットは、
前記画像を受信し、
前記皮膚診断およびアクティベーションマスクを作り出して、前記画像に関連して前記皮膚診断を視覚化するように構成された前記ディープニューラルネットワークによって前記画像を処理し、
前記アクティベーションマスク及び前記画像を提示するために提供するように構成され、
前記ディープニューラルネットワークによる前記画像の処理は、
前記画像から顔領域の矩形を切り取り、顔画像を生成し、
前記ディープニューラルネットワークによる処理のためのk個の拡張画像を作り出すように前記顔画像に複数(k)のデータ拡張を実行し、
k個のアクティベーションマスクを作り出すように前記ディープニューラルネットワークによって前記k個の拡張画像を処理し、そこから最終アクティベーションマスクを定義するように構成され、
前記k個のアクティベーションマスク及び前記最終アクティベーションマスクは、ヒートマップを備え、
前記ヒートマップは、前記顔画像にオーバーレイされ、前記顔画像の前記皮膚状態の重症度をその重症度のレベルに合わせて段階的に強調させるために前記顔画像を修正するように構成される皮膚診断デバイス。 - 前記処理ユニット及び前記記憶ユニットが前記皮膚診断を視覚化するために前記画像に注釈を付ける視覚化ユニットを提供するようにさらに構成される請求項1記載の皮膚診断デバイス。
- 前記処理ユニット及び前記記憶ユニットが前記皮膚診断に応答して、前記皮膚状態のための製品を推奨する推奨ユニットを提供するようにさらに構成される請求項1又は2に記載の皮膚診断デバイス。
- 前記処理ユニット及び前記記憶ユニットが前記皮膚状態のための製品を購入する電子商取引インターフェースを提供するようにさらに構成される請求項1から3のいずれかに記載の皮膚診断デバイス。
- 前記皮膚診断は、前記画像上の前記皮膚状態の重症度を分類するスケールの整数値を備える請求項1から4のいずれかに記載の皮膚診断デバイス。
- 前記ディープニューラルネットワークは、入力として正規化された前記顔画像を受信し、前記スケールの全ての可能な整数値にわたる確率分布を表すベクトルを出力し、アクティベーション関数を適用して前記皮膚診断の整数値を決定するように構成される請求項5記載の皮膚診断デバイス。
- 前記ディープニューラルネットワークは、民族性予測および性別予測の一方または両方を決定するための補助タスクによってさらに構成される請求項1から6のいずれかに記載の皮膚診断デバイス。
- 前記ディープニューラルネットワークは、前記皮膚診断を生成するように適合された画像分類のための適合ネットワークを備える請求項1から7のいずれかに記載の皮膚診断デバイス。
- 前記ディープニューラルネットワークは、画像処理のための畳み込みニューラルネットワーク(CNN)を備える請求項1から8のいずれかに記載の皮膚診断デバイス。
- 前記CNNは、回帰および分類の出力を生成するように構成された最終的な完全に接続されたレイヤの前にグローバルプーリングオペレーションを有するエンコーダとしての残差ネットワークを備える請求項9記載の皮膚診断デバイス。
- 前記ディープニューラルネットワークは、回帰損失関数と分類損失関数とを組み合わせた複合損失関数でトレーニングされる請求項1から10のいずれかに記載の皮膚診断デバイス。
- 前記ディープニューラルネットワークは、ユーザモバイルデバイスからのセルフィー画像を備える顔画像データのデータセットを用いてトレーニングされる請求項1から12のいずれかに記載の皮膚診断デバイス。
- 前記ディープニューラルネットワークは、前記ヒートマップを生成するためにクラスアクティベーションマッピング(CAM)技法を適用するように構成される請求項2から13のいずれかに記載の皮膚診断デバイスであって、そのうち請求項3から13は請求項2に従属する皮膚診断デバイス。
- 前記画像は、ユーザモバイルデバイスからのセルフィー画像を備える請求項1から14のいずれかに記載の皮膚診断デバイス。
- パーソナルユースのためのコンピューティングデバイスと、通信ネットワークを介して皮膚診断サービスを提供するサーバとのうちの1つを備える請求項1から15のいずれかに記載の皮膚診断デバイス。
- パーソナルユースのための前記コンピューティングデバイスは、スマートフォン、タブレット、ラップトップ、パーソナルコンピュータ、又はカメラを有するか、カメラに結合された他のコンピューティングデバイスのうちの1つを備える請求項16記載の皮膚診断デバイス。
- 前記推奨ユニットは、前記皮膚診断に応答して、製品推奨および治療計画推奨のうちの少なくとも1つを取得する治療製品セレクタを提供する請求項3から17のいずれかに記載の皮膚診断デバイスであって、そのうち請求項4から17は請求項3に従属する皮膚診断デバイス。
- 前記処理ユニット及び前記記憶ユニットが前記画像を受信するための画像獲得機能を提供するように構成される請求項1から18のいずれかに記載の皮膚診断デバイス。
- 前記皮膚状態は、尋常性ざ瘡である請求項1から19のいずれかに記載の皮膚診断デバイス。
- コンピュータ実装方法であって、
皮膚の画像の受信をすることと、
皮膚状態の皮膚診断およびアクティベーションマスクを作り出して、前記画像に関連して前記皮膚診断を視覚化するように構成されたディープニューラルネットワークによって前記画像を処理することと、
前記アクティベーションマスク及び前記画像を提示するために提供することと、を備え、
前記画像を処理することは、
前記画像から顔領域の矩形を切り取り、顔画像を生成することと、
前記ディープニューラルネットワークによる処理のためのk個の拡張画像を作り出すように前記顔画像に複数(k)のデータ拡張を実行することと、
k個のアクティベーションマスクを作り出すように前記ディープニューラルネットワークによって前記k個の拡張画像を処理することと、そこから最終アクティベーションマスクを定義することと、を備え、
前記k個のアクティベーションマスク及び前記最終アクティベーションマスクは、ヒートマップを備え、
前記ヒートマップは、前記顔画像にオーバーレイされ、前記顔画像の前記皮膚状態の重症度をその重症度のレベルに合わせて段階的に強調させるために前記顔画像を修正するコンピュータ実装方法。 - 前記ディープニューラルネットワークは、Grad-CAM技法を用いて、それぞれのk個のアクティベーションマスクを作り出す請求項21記載のコンピュータ実装方法。
- 前記最終アクティベーションマスクは、平均化を用いて前記k個のアクティベーションマスクから定義される請求項21又は22に記載のコンピュータ実装方法。
- 閾値は、平均化された前記k個のアクティベーションマスクからの除去値に適用される請求項23記載のコンピュータ実装方法。
- kの値が2以上20以下(2≦k≦20)の範囲に設定される請求項21から24のいずれかに記載のコンピュータ実装方法。
- 前記k個のデータ拡張を実行する前に、前記皮膚の前記画像を正規化することを備える請求項21から25のいずれかに記載のコンピュータ実装方法。
- 前記k個のデータ拡張のそれぞれは、アフィン変換からランダムに選択された1つの拡張と、水平フリップオペレーションと、を備える請求項21から26のいずれかに記載のコンピュータ実装方法。
- 前記皮膚診断に応答する製品推奨を提供することを備える請求項21から26のいずれかに記載のコンピュータ実装方法。
- 1つ以上の製品を購入するための電子商取引インターフェースを提供することを備え、前記電子商取引インターフェースは、前記製品推奨に応答する請求項28記載のコンピュータ実装方法。
- 前記製品推奨は、推奨製品を用いるための治療計画に関連付けられる請求項29記載のコンピュータ実装方法。
- 前記ディープニューラルネットワークは、前記皮膚状態について前記画像を分析するように構成される請求項21から30のいずれかに記載のコンピュータ実装方法。
- 前記皮膚状態は、尋常性ざ瘡である請求項31記載のコンピュータ実装方法。
- 前記ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)を備える請求項21から32のいずれかに記載のコンピュータ実装方法。
- 請求項21から33のいずれかに記載のコンピュータ実装方法を実行するように構成する回路を備えるコンピューティングデバイス。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962872347P | 2019-07-10 | 2019-07-10 | |
US62/872,347 | 2019-07-10 | ||
US201962878464P | 2019-07-25 | 2019-07-25 | |
US62/878,464 | 2019-07-25 | ||
PCT/CA2020/050951 WO2021003574A1 (en) | 2019-07-10 | 2020-07-09 | Systems and methods to process images for skin analysis and to visualize skin analysis |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022540487A JP2022540487A (ja) | 2022-09-15 |
JP7341310B2 true JP7341310B2 (ja) | 2023-09-08 |
Family
ID=74102423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022502098A Active JP7341310B2 (ja) | 2019-07-10 | 2020-07-09 | 皮膚分析のための画像処理、皮膚分析を視覚化するためのシステム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11908128B2 (ja) |
EP (1) | EP3981012A4 (ja) |
JP (1) | JP7341310B2 (ja) |
KR (1) | KR20220158218A (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10878567B1 (en) * | 2019-09-18 | 2020-12-29 | Triage Technologies Inc. | System to collect and identify skin conditions from images and expert knowledge |
US11657481B2 (en) * | 2019-11-18 | 2023-05-23 | Shinyfields Limited | Systems and methods for selective enhancement of skin features in images |
US11508061B2 (en) * | 2020-02-20 | 2022-11-22 | Siemens Healthcare Gmbh | Medical image segmentation with uncertainty estimation |
CN112837304B (zh) * | 2021-02-10 | 2024-03-12 | 姜京池 | 一种皮肤检测方法、计算机存储介质及计算设备 |
EP4075385A1 (en) * | 2021-04-14 | 2022-10-19 | HautAI OÜ | Method and system for anonymizing facial images |
WO2023063772A1 (ko) * | 2021-10-14 | 2023-04-20 | (주)아모레퍼시픽 | 딥 러닝을 이용한 이미지 분석 기반의 피부 진단 시스템 및 방법 |
US20230196551A1 (en) * | 2021-12-16 | 2023-06-22 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin roughness |
US20230196579A1 (en) * | 2021-12-16 | 2023-06-22 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin pore size |
CN115050065B (zh) * | 2022-04-26 | 2024-05-31 | 杭州海马体摄影有限公司 | 一种基于曲线的皮肤滤镜建模方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170246473A1 (en) | 2016-02-25 | 2017-08-31 | Sava Marinkovich | Method and system for managing treatments |
US20180289334A1 (en) | 2017-04-05 | 2018-10-11 | doc.ai incorporated | Image-based system and method for predicting physiological parameters |
JP2019512797A (ja) | 2016-03-21 | 2019-05-16 | ザ プロクター アンド ギャンブル カンパニー | カスタマイズされた製品の推奨を提供するためのシステム及び方法 |
US10311337B1 (en) | 2018-09-04 | 2019-06-04 | StradVision, Inc. | Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6571003B1 (en) * | 1999-06-14 | 2003-05-27 | The Procter & Gamble Company | Skin imaging and analysis systems and methods |
SG109450A1 (en) * | 2000-04-06 | 2005-03-30 | Ntt Docomo Inc | Multicast signal transmission power control method and base station using the same |
US7437344B2 (en) * | 2001-10-01 | 2008-10-14 | L'oreal S.A. | Use of artificial intelligence in providing beauty advice |
US6761697B2 (en) * | 2001-10-01 | 2004-07-13 | L'oreal Sa | Methods and systems for predicting and/or tracking changes in external body conditions |
US7324668B2 (en) * | 2001-10-01 | 2008-01-29 | L'oreal S.A. | Feature extraction in beauty analysis |
US7950925B2 (en) * | 2004-12-30 | 2011-05-31 | Kimberly-Clark Worldwide, Inc. | Interacting with consumers to inform, educate, consult, and assist with the purchase and use of personal care products |
SG11201405783VA (en) * | 2012-03-17 | 2014-10-30 | Univ California | Fast diagnosis and personalized treatments for acne |
US20170330264A1 (en) * | 2016-05-10 | 2017-11-16 | YOURO, Inc. | Methods, apparatuses and systems for computer vision and deep learning |
WO2018222808A1 (en) * | 2017-05-31 | 2018-12-06 | The Procter & Gamble Company | Systems and methods for determining apparent skin age |
KR102151710B1 (ko) * | 2017-11-06 | 2020-09-04 | 주식회사 베이바이오텍 | 이미지 분석 결과 및 학습된 피부 인식기에 기초하여 피부의 상태를 평가하는 방법 및 프로그램 |
WO2019108888A1 (en) * | 2017-11-30 | 2019-06-06 | The Research Foundation For The State University Of New York | SYSTEM AND METHOD TO QUANTIFY TUMOR-INFILTRATING LYMPHOCYTES (TILs) FOR CLINICAL PATHOLOGY ANALYSIS |
US10990858B2 (en) * | 2018-01-05 | 2021-04-27 | L'oreal | Machine-implemented facial health and beauty assistant |
US10943156B2 (en) * | 2018-01-05 | 2021-03-09 | L'oreal | Machine-implemented facial health and beauty assistant |
US20190220738A1 (en) * | 2018-01-18 | 2019-07-18 | Amit Flank | Skin analysis system and method |
CN111819632B (zh) * | 2018-01-29 | 2021-09-14 | 艾托拉皮肤健康公司 | 用于对个性化护肤产品制定配方的系统和方法 |
US20210027897A1 (en) * | 2018-03-26 | 2021-01-28 | Dermala Inc. | Skin health tracker |
EP3928327A1 (en) * | 2019-02-19 | 2021-12-29 | Johnson & Johnson Consumer Inc. | Use of artificial intelligence to identify novel targets and methodologies for skin care treatment |
CN111797249A (zh) * | 2019-04-09 | 2020-10-20 | 华为技术有限公司 | 一种内容推送方法、装置与设备 |
-
2020
- 2020-07-09 KR KR1020227004021A patent/KR20220158218A/ko not_active Application Discontinuation
- 2020-07-09 JP JP2022502098A patent/JP7341310B2/ja active Active
- 2020-07-09 EP EP20836023.0A patent/EP3981012A4/en active Pending
- 2020-08-18 US US16/996,087 patent/US11908128B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170246473A1 (en) | 2016-02-25 | 2017-08-31 | Sava Marinkovich | Method and system for managing treatments |
JP2019512797A (ja) | 2016-03-21 | 2019-05-16 | ザ プロクター アンド ギャンブル カンパニー | カスタマイズされた製品の推奨を提供するためのシステム及び方法 |
US20180289334A1 (en) | 2017-04-05 | 2018-10-11 | doc.ai incorporated | Image-based system and method for predicting physiological parameters |
US10311337B1 (en) | 2018-09-04 | 2019-06-04 | StradVision, Inc. | Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network |
Non-Patent Citations (3)
Title |
---|
Asami Yonekura,Improving the Generalization of Disease Stage Classification with Deep CNN for Glioma Histopathological Images,2017 IEEE International Conference on Bioinformatics and Biomedicine (BIBM),米国,IEEE,2017年11月13日,P.1222-1226 |
藤井 英明,マルチスペクトル画像を利用した尋常性ざ瘡のステージ毎の抽出,電子情報通信学会技術研究報告 Vol.107 No.461,日本,社団法人電子情報通信学会,2008年01月18日,MI2007-118 (2008-1),P.303-306 |
高木 純平,自己蒸留によるDNNの蒸留の効率化,電子情報通信学会技術研究報告 Vol.118 No.470 [online],日本,一般社団法人電子情報通信学会,2019年02月25日,NC2018-83 (2019-03),P.209-214 |
Also Published As
Publication number | Publication date |
---|---|
EP3981012A1 (en) | 2022-04-13 |
US11908128B2 (en) | 2024-02-20 |
EP3981012A4 (en) | 2023-07-19 |
US20210012493A1 (en) | 2021-01-14 |
JP2022540487A (ja) | 2022-09-15 |
KR20220158218A (ko) | 2022-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7341310B2 (ja) | 皮膚分析のための画像処理、皮膚分析を視覚化するためのシステム及び方法 | |
US11832958B2 (en) | Automatic image-based skin diagnostics using deep learning | |
US10470510B1 (en) | Systems and methods for full body measurements extraction using multiple deep learning networks for body feature measurements | |
US10496898B2 (en) | State detection using machine-learning model trained on simulated image data | |
US20190392587A1 (en) | System for predicting articulated object feature location | |
JPWO2020113326A5 (ja) | ||
Chen et al. | PCAT-UNet: UNet-like network fused convolution and transformer for retinal vessel segmentation | |
Hsu et al. | A deep learning framework for heart rate estimation from facial videos | |
Wu et al. | Anti-jamming heart rate estimation using a spatial–temporal fusion network | |
US20220108445A1 (en) | Systems and methods for acne counting, localization and visualization | |
Jha et al. | Estimation of gaze region using two dimensional probabilistic maps constructed using convolutional neural networks | |
US20240161497A1 (en) | Detection of surgical states and instruments | |
Fallah et al. | An ultra-low-computation model for understanding sign languages | |
WO2021003574A1 (en) | Systems and methods to process images for skin analysis and to visualize skin analysis | |
CN117242528A (zh) | 处理图像以进行皮肤分析和可视化皮肤分析的系统和方法 | |
Zhang et al. | A self-supervised learning network for remote heart rate measurement | |
US20240177300A1 (en) | Method, apparatus and system for image-to-image translation | |
KR20240033858A (ko) | 사마귀 또는 티눈 예측에 대한 정보 제공 방법 및 이를 이용한 장치 | |
Grant et al. | TCM Tongue Segmentation and Analysis with a Mobile Device | |
Zhu et al. | GAN-BodyPose: Real-time 3D human body pose data key point detection and quality assessment assisted by generative adversarial network | |
Patel et al. | Autonomous diagnosis of pediatric cutaneous vascular anomalies using a convolutional neural network | |
Moreno et al. | Expresso-AI: An Explainable Video-Based Deep Learning Models for Depression Diagnosis | |
Akshay et al. | Skin-Vision: An Innovative Mobile-Based Automated Skin Disease Detection Application | |
Giavina-Bianchi et al. | Explainability agreement between dermatologists and five visual explanations techniques in deep neural networks for melanoma AI classification | |
CN117036548A (zh) | 图形处理方法、装置、计算机设备和认知能力评估装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220311 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230512 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230829 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7341310 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |