JP7341310B2 - 皮膚分析のための画像処理、皮膚分析を視覚化するためのシステム及び方法 - Google Patents

皮膚分析のための画像処理、皮膚分析を視覚化するためのシステム及び方法 Download PDF

Info

Publication number
JP7341310B2
JP7341310B2 JP2022502098A JP2022502098A JP7341310B2 JP 7341310 B2 JP7341310 B2 JP 7341310B2 JP 2022502098 A JP2022502098 A JP 2022502098A JP 2022502098 A JP2022502098 A JP 2022502098A JP 7341310 B2 JP7341310 B2 JP 7341310B2
Authority
JP
Japan
Prior art keywords
skin
image
neural network
computer
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022502098A
Other languages
English (en)
Other versions
JP2022540487A (ja
Inventor
ジャン・ルオウェイ
ケゼル・イリーナ
ユ・チ
サイテ・ソフィー
フラマン・フレデリック・アントニン・レイモンド・サージ
アーラビ・パラム
ペロット・マシュー
デスポア・ジュリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority claimed from PCT/CA2020/050951 external-priority patent/WO2021003574A1/en
Publication of JP2022540487A publication Critical patent/JP2022540487A/ja
Application granted granted Critical
Publication of JP7341310B2 publication Critical patent/JP7341310B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0633Lists, e.g. purchase orders, compilation or processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Data Mining & Analysis (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Dermatology (AREA)

Description

<クロスリファレンス>
米国に関して、本出願が以下の先行出願の優先権を主張する:1)2019年7月10日に出願された米国仮特許出願第62/872,347号および2)2019年7月25日に出願された米国仮特許出願第62/878,464号。各先行出願の全内容は、適用可能な場合、参照により本明細書に組み込まれる。
本出願は、ニューラルネットワークを用いた画像処理および皮膚科学に関する。より詳細には、本出願が皮膚状態重症度分析を決定し、皮膚分析を視覚化するように画像を処理するシステム及び方法に関する。
<バックグラウンド>
正確な皮膚分析は、医療および化粧品分野の両方において重要な分野である。尋常性ざ瘡は、一般的な皮膚疾患であり、人口の85%が生涯のある時期に罹患する[15]。患者の画像をスコア化することにより、ざ瘡の重症度を体系的に評価する努力がなされている。Global Acne Severity Scaleなどの標準システムは、病変の大きさ、密度、種類および分布に基づいて整数で各患者または画像のざ瘡スコアを評価することが確立されている。
顔の画像のような画像は、その画像のピクセルによって提示される尋常性ざ瘡(皮膚状態)をエンコードする仕方で提示する。画像から尋常性ざ瘡のプレゼンス及び/又は重症度をデコードするために、ディープラーニングを用いて自動画像ベースの診断を実行するか、又は実行することを可能にするコンピュータ実装方法、コンピューティングデバイス及び他の態様を提供することが望まれている。また、このような画像を処理して、皮膚分析を(例えば、ソース画像を修正することによって)視覚化することが望まれている。
皮膚分析に関連して画像を処理するためのシステム及び方法が提供される。一実施形態によれば、学習ベースのモデルは、ディープニューラルネットワーク(例えば、畳み込みニューラルネットワーク(CNN))を用いることによって皮膚科学的評価を実行する。一実施形態によれば、CNNモデルは問題が整数のみのラベルを有する回帰タスクとして定式化されたときに、トレーニングされ、評価された。一実施形態では、補助分類タスク(例えば、性別および民族性予測を備える)がパフォーマンスを改善するために導入される。一実施形態では、元の画像上の結果を視覚化するために、トレーニングされたディープニューラルネットワークモデルに関連して他の画像処理技法が用いられる。皮膚状態(例えば、ざ瘡)に冒された領域を強調する結果の視覚化はまた、モデルについての明白な説明を提供し得ることが実証される。一実施形態では、処理するために複数(k)のデータ拡張がk個の拡張画像を生成するようにソース画像に対して行われる。k個の拡張画像を処理して作り出されたアクティベーションマスク(例えば、ヒートマップ)は、皮膚分析を視覚化するための最終マップを定義するように用いられる。
一実施形態によれば、記憶ユニットに結合された処理ユニットを提供する回路を備える皮膚診断デバイスが提供される:皮膚診断デバイスは、皮膚状態の皮膚診断を生成するために、画像分類用の回帰および分類を備えるディープニューラルネットワークを用いて画像のピクセルを分類する皮膚分析ユニットを提供するように構成される。
一実施形態では、処理ユニット及び記憶ユニットが皮膚診断を視覚化するために画像に注釈を付ける視覚化ユニットを提供するように皮膚診断デバイスをさらに構成する。
一実施形態では、処理ユニット及び記憶ユニットが皮膚診断に応答して皮膚状態のための製品を推奨する推奨ユニットを提供するように皮膚診断デバイスをさらに構成する。
一実施形態では、処理ユニット及び記憶ユニットが皮膚状態のための製品を購入する電子商取引インターフェースを提供するように皮膚診断デバイスをさらに構成する。
一実施形態では、皮膚診断は、画像上の皮膚状態の重症度を分類するスケールの整数値を備える。一実施形態では、ディープニューラルネットワークは、入力として正規化された顔画像を受信し、スケールの全ての可能な整数値にわたる確率分布を表すベクトルを出力し、アクティベーション関数を適用して皮膚診断の整数値を決定するように構成される。
一実施形態では、ディープニューラルネットワークは、民族性予測および性別予測の一方または両方を決定するための補助タスクによってさらに構成される。
一実施形態では、ディープニューラルネットワークは、皮膚診断を生成するように適合された画像分類のための適合ネットワークを備える。
一実施形態では、ディープニューラルネットワークは、画像処理のための畳み込みニューラルネットワーク(CNN)を備える。一実施形態では、CNNは、回帰および分類の出力を生成するように構成された最終的な完全に接続されたレイヤの前にグローバルプーリングオペレーションを有するエンコーダとしての残差ネットワークを備える。
一実施形態では、ディープニューラルネットワークは、回帰損失関数と分類損失関数とを組み合わせた複合損失関数によってトレーニングされる。一実施形態では、複合損失関数は、数式2に従い:
Figure 0007341310000001
ここで、Lmse、Lce、Lgender及びLethnicityは、それぞれ平均二乗誤差(MSE)、クロスエントロピー誤差(CE)、性別予測および民族性予測関数であり、λmse、λce、λgender及びλethnicityは、重み係数である。
一実施形態では、ディープニューラルネットワークは、ユーザモバイルデバイスからのセルフィー画像を備える顔画像データのデータセットを用いてトレーニングされる。
一実施形態では、ディープニューラルネットワークは、画像に関連して皮膚診断を視覚化するためのヒートマップを生成するように構成される。一実施形態では、ディープニューラルネットワークは、ヒートマップを生成するためにクラスアクティベーションマッピング(CAM)技法を適用するように構成される。
一実施形態では、画像は、ユーザモバイルデバイスからのセルフィー画像を備える。
一実施形態では、診断デバイスは、パーソナルユースのためのコンピューティングデバイスと、通信ネットワークを介して皮膚診断サービスを提供するサーバとのうちの1つを備える。一実施形態では、パーソナルユースのためのコンピューティングデバイスがスマートフォン、タブレット、ラップトップ、パーソナルコンピュータ、又はカメラを有するか、カメラに結合された他のコンピューティングデバイスのうちの1つを備える。
一実施形態では、推奨ユニットは、皮膚診断に応答して、製品推奨および治療計画推奨のうちの少なくとも1つを取得する治療製品セレクタを提供する。
一実施形態では、処理ユニット及び記憶ユニットは、画像を受信するための画像獲得機能を提供するように皮膚診断デバイスを構成する。
一実施形態では、皮膚状態は、尋常性ざ瘡である。
一実施形態では、画像を受信することと、皮膚状態についての皮膚診断を決定するために画像ピクセルを分類するように構成されたディープニューラルネットワークを用いて画像を処理することと、を備え、ディープニューラル(ネットワーク)は、皮膚診断を決定するための回帰および分類として構成され;画像に関連して皮膚診断を視覚化する皮膚診断のコンピュータ実装方法が提供される。
一実施形態では、皮膚の画像を受信することと、皮膚分析結果およびアクティベーションマスクを作り出して、画像に関連して皮膚分析結果を視覚化するように構成されたディープニューラルネットワークによって画像を処理することと、アクティベーションマスク及び画像を提示するために提供することと、を備えるコンピュータ実装方法が提供される。一実施形態では、画像を処理することは、ディープニューラルネットワークによる処理のためにk個の拡張画像を作り出すように画像に複数(k)のデータ拡張を実行することと、k個のアクティベーションマスクを作り出すようにディープニューラルネットワークによってk個の拡張画像を処理することと、そこから最終アクティベーションマスクを定義することと、を備える。一実施形態では、k個のアクティベーションマスク及び最終アクティベーションマスクは、ヒートマップを備える。一実施形態では、ディープニューラルネットワークは、Grad-CAM技法を用いて、それぞれのk個のアクティベーションマスクを作り出す。一実施形態では、最終アクティベーションマスクは、平均化を用いてk個のアクティベーションマスクから定義される。一実施形態では、閾値は、平均化されたk個のアクティベーションマスクからの除去値に適用される。一実施形態では、kの値が2以上20以下(2≦k≦20)の範囲に設定される。一実施形態では、この方法がk個のデータ拡張を実行する前に、皮膚の画像を正規化することを備える。一実施形態では、k個のデータ拡張のそれぞれは、アフィン変換からランダムに選択された1つの拡張と、水平フリップオペレーションとを備える。一実施形態では、本方法が皮膚分析結果に応答する製品推奨を提供することを備える。一実施形態では、本方法が1つ以上の製品を購入するための電子商取引インターフェースを提供することを備え、その電子商取引インターフェースは製品推奨に応答する。一実施形態では、製品推奨は、推奨製品を用いるための治療計画に関連付けられる。一実施形態では、ディープニューラルネットワークは、皮膚状態について画像を分析するように構成される。一実施形態では、皮膚状態は、尋常性ざ瘡である。一実施形態では、ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)を備える。一実施形態では、任意の実施形態で前述の方法を実行するようにコンピューティングデバイスを構成する回路を備えるコンピューティングデバイスが提供される。
一実施形態では、皮膚診断を決定するために画像のピクセルを分類するように構成された畳み込みニューラルネットワーク(CNN)をトレーニングすることを備える方法が提供され、CNNは皮膚診断を生成するように構成された画像分類のためのディープニューラルネットワークを備え、CNNは、皮膚診断を決定するための回帰および分類として構成され、CNNは、ユーザモバイルデバイスからのセルフィー画像を備える顔画像データのデータセットを用いてトレーニングされる。
これら及び他の態様は、当業者には明らかであろう。任意のコンピューティングデバイス関連の態様について、対応する方法の態様および対応するコンピュータプログラム製品の態様が提供され、(非一時的)記憶デバイスはコンピューティングデバイスの処理ユニットによって実行されるときに、その方法の態様を実行するようにコンピューティングデバイスを構成する命令を格納する。
本明細書の一例による、CNNの構成要素及び出力を備えるコンピューティングデバイスの記憶デバイスの概略図である。 顔ブロックを有する画像である。 実施例による、尋常性ざ瘡診断スコアによる、CNNモデルの精度を示すグラフである。 一例による、ヒートマップを用いた尋常性ざ瘡診断の視覚化を示した図である。 図5A及び図5Bは、一例による、各画像のアクティベーション値と予測スコアとの間の関係を示すグラフ500及びグラフ502である。 本明細書の実施形態による様々な態様のための環境を提供するコンピュータネットワークを表した図である。 図6のコンピュータネットワークの一例によるコンピューティングデバイスのブロック図である。 図8A及び図8Bは、本明細書の一実施形態によるコンピューティングデバイスのオペレーションのフローチャートである。 本明細書の一実施形態によるコンピューティングデバイスのオペレーションのフローチャートである。 図10A及び10Bは、一例による、それぞれのソース画像および皮膚分析の視覚化を示した図である。
図面に示される顔の例では、目の領域が本明細書での例示のみを目的として、黒い長方形でマスクされている。
本発明の概念は、添付の図面を参照して本明細書で説明される、その特定の実施形態を通して最もよく説明され、ここで、同一の付番は全体を通して同一の特徴を指す。本明細書で使用されるとき、「発明」という単語は、単に実施形態自体ではなく、以下に記載される実施形態の基礎をなす発明概念を暗示することが意図されることを理解されたい。さらに、本発明の一般的な概念は、以下に記載される例示的な実施形態に限定されず、以下の説明はそのような観点から読まれるべきであることが理解されるべきである。
尋常性ざ瘡は一般的な皮膚疾患(皮膚状態)であり、人口の85%、特に10代が時々ざ瘡を経験している。ざ瘡の重症度を評価するには、皮膚科医および臨床医を訪問し、この領域の専門知識に頼る必要がある。医師は患者を手で診察し、病変数、罹患部位およびその他の関連因子に基づいておおよその悪性度分類を行う必要がある。この方法は多くの場合、時間がかかり、労働集約的であり、これはまた、妥当なヒューマンエラーが起こるために、信頼できない不正確な結果をもたらし得る。また、長期にわたって常に繰り返し検査が必要な場合には、医師の過剰な努力が必要である。
この作業に必要な人間の労力を最小限に抑えるために、多くの研究が、ざ瘡の重症度を評価するためのコンピュータ支援技法を探求してきた。[1,7]のようなこの領域における多くの作業は高標準医療画像がアルゴリズムによって処理されることを必要とし、これは、モバイルシステムで展開することが困難であり得る。[8,2]を含む後の研究では、多数の異なったステップを有する携帯電話によって撮影された画像を扱う方法が紹介されている。しかし、これらの研究はすべて、ざ瘡の局在診断と病変の計数に焦点を当ててきた[8,1,2,7]。これは、病変のマスク又は領域位置を出力するために、ブロブ検出および特徴抽出のような従来の画像処理技法の長い経路を伴う。次に、ざ瘡の重症度(すなわち、ざ瘡スコア)を、局在結果および検出された病変の数字に基づく公式を通して演算する。このタイプの方法の1つの主要な限界は、ざ瘡スコアリングの精度がざ瘡局在化および病変の計数のパフォーマンスとグループ化されることである。場合によっては、照明状態および皮膚の色合い(skin tone)が経路の様々な段階でエラー率を増加させ、したがって、最終結果に著しく影響を及ぼす。
ざ瘡の評価に関する最近の研究[9]では、著者らはニューラルネットワークを用いることにより、病変の計数なしに注目すべき結果を得ている。それらは、ニューラルネットワークが与えられた画像データのみを非常に正確に実行できることを示している。
しかしながら、それらの方法は特定のタイプの医療画像を必要とし、これは、ユーザがカメラデバイスの前に座ることを強制し、トレーニング及びテスト中に5つの特定のポーズを作る。このタイプの評価はまた、モバイルデバイスでの使用を制限する。別の研究[16]は携帯電話によって撮影された画像に適合されており、人間による補正を複数回繰り返す必要がある。
一例によれば、畳み込みニューラルネットワーク(CNN)のトレーニング技法が拡張される。例に従って、この等級付け問題の性質に適合する方法、すなわち整数のみのラベルをもつ回帰タスクが導出された。したがって、一例によれば、システムは、トレーニング中に1つの回帰目的および別の補助分類目的を有するように設計される。一例によれば、2つの追加の補助タスクとして、性別予測および民族性予測が追加される。これらのタスクに関する実験は、これらのタスクを導入することにより改善されたパフォーマンスを示す。さらに、一例によれば、医療撮像に関する多くの他の研究とは異なり、モデルはモバイルデバイスによって撮られた顔画像からなるセルフィー画像データセット上でトレーニングされ、テストされ、モデルはこのエンドツーエンドモデルが自然のままのセルフィー画像上で正確に機能することを実証する。一例によれば、モデルは、単一の画像のみをアップロードすることによってモバイルデバイス上で使用される。一例によれば、モデルは、ざ瘡の等級付け精度に関して3%だけ類似の研究[16]を上回った。最後に、一例によれば、CNNモデルの解釈可能性を示すための視覚化ツールとしてGrad-CAM[13]が用いられる。
<データセット>
一実施形態によれば、元のデータセットは5つの異なる民族の1051人の被験者から収集された5971個の画像からなり、3つの画像が、各被験者について携帯電話によって、すなわち正面および2つのプロファイルビューからキャプチャされている。各被験者に、GEA標準[3]を用いて、3人の皮膚科医が、対応する画像に対する専門家の評価に基づいて、0~5の整数スコアを割り当てた。このスコアリングモデルでは、1877個の正面画像のデータセットが使用される。グランドトゥルースは、3名の皮膚科医のスコアの大部分のスコアと定義される。データセットは、トレーニング(80%)、テスト(10%)及び検証(10%)サブセットに無作為に分割される。
<モデル構造>
以前の研究[5、11]では、ResNet[4]及びMobileNetV2[12]などの現代のディープラーニングアーキテクチャが詳細な皮膚の特徴を学習する際に優れた能力を実証した。このための典型的なアプローチは適切な目的関数に関して分類または回帰するために、いくつかの完全に接続されたレイヤを追加することによる、プレトレーニングされた特徴ネットワーク(例えば、ResNet)に基づく伝達学習である。しかし、ざ瘡スコアは連続する整数によって表されるので、回帰損失と共に補助分類損失を導入する。このアイデアは、同様の状況が適用される年齢回帰タスクに関する研究[11,10]によって着想された。一実施形態によれば、図1は、ディープラーニングシステムを提供するコンピューティングデバイスの記憶デバイス100の概略図である。記憶デバイスは処理ユニットに命令を提供するなどのメモリ(RAM/ROM)などを備え、処理ユニットの一例は、グラフィック処理ユニット又はモバイルデバイスやサーバなどの処理ユニットである。
処理のための顔を備えるピクセル(図示せず)の画像を受け取るように、顔およびランドマーク検出器102が提供される。また、正規化された顔画像を出力する顔正規化構成要素104も提供される。構成要素102及び104は、画像を前処理して、正規化された顔画像をCNN106に提供する。CNN106は、エンコーダ構成要素108(例によれば、残差ネットワーク(例えば、ResNet)エンコーダを備える)、グローバルプーリングオペレーション構成要素110、及びデコーダ又は予測構成要素112,114及び116を備える。完全に接続されたレイヤ112は、それぞれの回帰および分類出力118を提供する。性別予測構成要素114は、性別出力120を作り出し、民族性予測構成要素116は、民族性出力122を作り出す。点線124及び126はそれぞれ、回帰オペレーション(線124は平均二乗誤差回帰損失関数を表す)及び分類オペレーション(線122がクロスエントロピー分類損失関数を表す)のための損失関数の、エンコーダ108のCNN入力レイヤへのバックプロパゲーションを概略的に示す。
したがって、テスト時に、CNNモデル(“モデル”と呼ばれることもある)は正規化された顔画像を入力として取り込み、尋常性ざ瘡診断スケールの可能性のあるすべての整数スコアにわたる確率分布を表すベクトルy=fθ(x)を出力する。次いで、最終スコアはsoftmax期待値として計算される(後に、出力整数に丸められる):
Figure 0007341310000002
ここで、a,bはスコアレンジ(例えば、スケール)の下限および上限である。
ネットワークを構築し、トレーニングするために、この例によれば、特徴抽出器は、既存のトレーニングされた画像処理ネットワークを適合させることによって構築された。より具体的には、残差ネットワーク技法を用いて定義された一般的なCNNが適合された。特徴抽出器は、CNNエンコーダ108を定義するその平均プーリングレイヤで、ResNet50を切り取ることによって定義された。CNNグローバルプーリング構成要素110を定義するグローバル最大プーリングレイヤは、CNNエンコーダ108の最後の畳み込みブロックの後に追加された。これらの構成要素を用いて特徴が抽出された後、特徴は、完全に接続されたレイヤ112を画定する2つのより完全に接続されたレイヤ(その間にLeaky ReLUが追加されている)を用いてさらに処理される。これに加えて、2つの追加のブランチ、すなわち、出力120を有する性別予測ブロック114と、出力122を有する民族性予測ブロック116とが追加され、ネットワークがこの民族間および性別間のデータセットにおいてよりよく学習するのを助ける。さらに、2つのブランチを加えることによる実験結果を論じた。図示されていない例によれば、ResNet50以外の(例えば、画像処理のための)基本CNNモデルが使用されることが理解されるであろう。例えば、MobileNetバリアント等が適用される。一例によれば、商業的ニーズに適合するようにモバイルデバイス用に構成されたCNNモデルを用いることが望ましい。メトリックを含む本明細書の例は、適合されたResNet50‘netに関連することを理解されたい。
<学習>
一例によれば、CNN106は、4つのタスク、すなわち、ざ瘡スコア回帰、ざ瘡スコア分類、性別予測および民族性予測でトレーニングされる。CNN106(そのフレームワーク)は、以下の目的(複合損失関数によって定義される)を最適化することによってトレーニングされる:
Figure 0007341310000003
特に、
Figure 0007341310000004
ここで、Nはトレーニングバッチサイズであり、y^はグランドトゥルースラベルである。
この例によれば、スコア分類損失は、スコアクラス確率出力上のクロスエントロピー誤差を最小化することによって、ネットワークがより良好な確率分布を学習するのに役立つ。具体的には、この損失はモデルが期待値を計算する前に正しいスコアクラスを出力することを促す。図1に示されるように、回帰損失は最終出力からCNNエンコーダ108の入力レイヤ(具体的には図示せず)にバックプロパゲーションされ(線124として示される)、一方、分類損失は確率分布から入力レイヤにバックプロパゲーションされる(線126として示される)。
一例によれば、性別および民族性予測損失は両方とも、この性別および民族間データセットにおける正則化項として作用するクロスエントロピー誤差によって計算される。2つの損失はまた、線126と同様に、予測レイヤから入力レイヤにそれぞれバックプロパゲーションされる(図示せず)。
<実験>
<実施内容>
一例によれば、各画像について、60点顔トラッカー(輪郭点なし)を用いることなどによってランドマークが検出され、顔領域の矩形が、トレーニング時にある程度のランダム性をもって入力画像から切り取られる。各顔ボックス(顔の切り抜き)について、トレーニングデータセットにおいて、一意の画像のランダム性が適用されて、例えば、[0.08,0.1)*高さ、[0.2,0.3)*幅、[0.08,0.1)*高さ、[0.07,0.08]*底のランダム値によって、各対応する方向に左端、最上端、右端、最下端点の各々を移動させることによって、さらなる画像を生成する。したがって、顔ボックスは、拡張後に切り取られることになる(図2に示される例が入力画像および顔ボックス202を示す。本開示の目的のために、プライバシーマスク204が、ユーザの身元を不明瞭にするために提供される)。
ソースデータをさらに拡張するために、一例によれば、確率0.5でスケール[0.8,1.0]、ランダム水平フリップでランダムリスケーリングが実行される。それぞれ切り取られた画像は、334×448にサイズ変更され、拡張画像は、RGBチャネル上の[0.229,0.224,0.225]の標準偏差を有する[0.485,0.456,0.406]に中心が置かれる。一例によれば、CNNは、学習レート0.0001でAdam[6]を用いて最適化される。一例によれば、最良のパフォーマンスは、バックボーンフィーチャネット(すなわち、CNNエンコーダ108を定義する構成要素)として、λmse=1.0、λce=1.0、λgender=0.001、λethnicity=0.001及びResNet50である数式2の損失関数を用いて達成された。
<評価>
前述のように、臨床的には、ざ瘡評価が整数のみのラベルを用いた回帰タスクである。したがって、平均絶対誤差および誤差のある閾値内のテストサンプルのパーセンテージが報告される。例えば、0.5以内の誤差も分類精度である。その結果、一例によれば、モデルは、平均絶対誤差0.35を達成し、分類誤差は71%であった。表1に、ざ瘡評価の同じデータセットについての以前の研究と比較した結果を示す。平均絶対誤差は、回帰結果の概観を与えるために報告され、分類精度のレベルを示すために0.5及び1.0以内の誤差パーセンテージを報告する。その結果、提案されたCNNは一例によれば、全体的な分類精度に関する従来の研究の方法よりも上回っている。[16]では、専門家のパフォーマンスがベースラインを確立するための専門家の合意に関しても67%であると報告された。
Figure 0007341310000005
一般的に直面する課題の1つは、異なるクラス間で正しいバランスをとることである。全体的な精度は、大多数のクラスのパフォーマンスと強い相関を有することが多い。ざ瘡評価では共通のスケールを用いて、整数スコア1及びスコア2が典型的にはこの種の問題の大多数のクラスである。一方、スコア0(ざ瘡なし)は、データのサイズ及び元のスコア定義を考慮すると、スコア1(ざ瘡なし)と区別することも困難であった。図3は一例による、スコア(例えば、ラベル対予測)による精度を示すグラフ300である。グラフ300では、本開示の方法がスコア1から4に対してバランスのとれた精度分布を達成するが、クラス0は、時に誤って分類されたことが示されている。
<アブレーション研究>
上述したように、一例によれば、ざ瘡評価において整数ラベルを有する回帰タスクの精度を改善するために、回帰と分類学習とを組み合わせる学習方法が採用される。このセクションは、以下の方法の議論および比較を含む:1)MSE損失(REGと表記)によってトレーニングされたスコアの直接出力を有する回帰ブランチを用いること;2)クロスエントロピー損失(CLSと表記)によってトレーニングされた分類ブランチを用いること;3)MSE損失(CLSを介するREGと表記)によってトレーニングされた分類結果からの確率出力に基づいて出力を計算すること;4)セクション2(REG+CLSと表記)で議論され提案された方法。
表2には、一例による、4つの異なるトレーニング目的についての平均絶対誤差(MAE)および分類精度が示されている。純粋な回帰タスクとして皮膚分析問題を処理することは、スコア分類において68%の結果を達成し、これは問題が純粋な分類タスクとして定式化される場合よりも高いことが分かる。一例によれば、提案されたトレーニング技法は、最小のMAE及び最高の分類精度で、他のすべてのトレーニング手法を上回った。表2の全ての結果は、性別および民族性ブランチを用いてトレーニングされる。
Figure 0007341310000006
<ヘルパーブランチの追加>
一例によれば、民族間および性別間のデータセットにおいて、皮膚の特徴は、性別および民族ごとに異なる。一例によれば、補助タスクとして性別予測および民族性予測を追加することによって、全体的なパフォーマンスが改善されることが示される。表3において、ベースラインの方法は分類タスク及び回帰タスクを伴うが、性別および民族性予測ブランチを追加しないトレーニングを指す。他の3つの列は、実施例による対応するブランチを追加した結果である。これらの補助タスクを導入することにより、モデルのパフォーマンスが大幅に向上し、分類精度が7.2%向上し、平均絶対誤差が0.03減少した。
Figure 0007341310000007
<視覚化>
CNNは、多くの視覚タスクにおいて著しい進歩を達成したが、そのようなネットワークは多くの場合、予測のための直接的な視覚的説明を与えない。クラスアクティベーションマップ(CAM)[14、参照により本明細書に組み込まれる]及びGrad-Gradient-重みクラスアクティベーションマッピング(Grad-CAM)[13、参照により本明細書に組み込まれる]などの最近の研究は、各予測結果のそのような説明を視覚化するやり方を提案している。解釈可能性、特に産業での使用を対象とした調査作業は、システムとユーザとの間の信頼を確立するための重要な要因の1つである。
図4は例えば、各ユーザに対して1つのセルでそれぞれのセルを定義する2つのそれぞれの列および4つの行における8つのユーザ画像についての、視覚化オペレーションによる結果400を示す。それぞれの入力画像は、尋常性ざ瘡診断に応答して修正される。図4は、CNN106(モデル)からGrad-CAM[13]を用いて生成されたアクティベーションマップ(ヒートマップ)を示す。図4は、第1行または最上段の行のクラス1(軽度)から最下段の行または第4行のクラス4(重度)までの異なるクラスアクティベーションマップをそれぞれ示す。さらに、各セルは、元の顔画像(左画像)、Grad-CAMを用いて生成された第1の修正された顔画像(中間画像)およびGrad-CAMを用いて生成された第2の修正された顔画像(右画像)を示す。第1の修正された顔画像および第2の修正された顔画像のそれぞれは、それぞれのGrad-CAM生成ヒートマップでカバーされた(例えば、オーバーレイされた)元の顔画像を含み、第1の修正された顔画像は、n画像内で正規化されたクラスアクティベーションマップ(CAM)を局所的に正規化させて示し、第2の修正された顔画像は、データセット内で正規化されたCAMを全体的に正規化させて示す。CNNによって分析された元の画像のピクセルは、検出されたざ瘡の重症度に応じて元の画像の領域を視覚化または強調提示するためにヒートマップを用いて修正される(例えば、RGBチャネル値が調整される)ことが理解される。一例では、重症度が元の画像内で局所的に正規化される。一例では、データセット内の画像間で重症度が正規化される。例えば、視覚化は、トレーニングされたネットワークの最後の畳み込みレイヤにおいて定義/決定された勾配に基づいてヒートマップ重みを生成するように構成される。次いで、最終ヒートマップは、画像またはデータセット内で正規化される。図4は、複数の異なる顔のための画像のアレイを示すが、一実施形態では視覚化が単一の(ユーザの)顔の1つ以上の画像を提示する。
Grad-CAMは、視覚化方法の一例に過ぎない。それぞれの実施形態では、ガイドバックプロパゲーションなどの他の視覚化方法もこのモデルに適用される。
この回帰タスクに適応するために、一実施形態では特徴マップAに対するクラス0(ざ瘡なし)の勾配を打ち消して、カウンターファクチュアル説明[13](数式4に示される)を取得する。α はクラス0に対する対応するピクセルのヒートマップ値として表され、Wは幅として表され、Hは高さとして表され、yはクラス0の出力値として表される。この方程式に基づいて、アクティベーションマップのより高い値を下げることは、より高い確率でクラス0確率の増加をもたらす。
Figure 0007341310000008
図4に示すように、ざ瘡罹患部位は健常(非罹患)皮膚と比較してアクティベーション値がはるかに高い。さらに、世界的に比較すると、重症例(例えばクラス4)の方が軽症例(例えばクラス1)よりもアクティベーション値がはるかに高くなる傾向がある。一例では、CNNがスコアと、スコアが関連する領域(例えば、顔の)とを備える尋常性ざ瘡診断を作り出す。
図5A及び5Bは、一実施形態による、各画像のアクティベーション値と予測スコアとの間の関係を示すグラフ500及び502である。興味深いことに、“影響を受けた領域”と最終出力との間には正の相関が見られる。この結果画像は、ざ瘡評価モデルのための明確かつ説明可能な視覚化を与える。
一例によれば、Grad-CAMを用いる結果の視覚化は、それぞれのソース画像について平均化技法を用いて実行される。方法は例えば、コンピューティングデバイスによって実行され、分析のためのソース画像を受信し、分析のためのk個の拡張画像を作りだすように、ソース画像をそれぞれ用いて複数のk個のランダムデータ拡張を実行し、k個のアクティベーションマスク/マップを作り出すために記載されたようにGrad-CAM技法を用いて適合されたCNNを用いて、それぞれのk個の拡張画像を分析し、次いで、k個のアクティベーションマップを平均して、最終マスクを作り出す(例えば、加算および除算によって)。一実施形態では、最終マスクは閾値が設定される。例えば、値が閾値(例えば、0.4)未満である領域は、ヒートマップから除去/削除される。
一例によれば、拡張は、アフィン変換(回転、スケーリング、平行移動など)およびランダム水平フリップを含む。一例によれば、拡張は色拡張を備える。実験から、改善はk=2で始まり、k=20で安定する。一例によれば、ソース画像はk個の拡張画像(例えば、ヌル拡張)のうちの1つとして、拡張なしで分析される。
明らかなように、CNNモデルはまた、一例によれば、処理されるk個の拡張画像の各々について、スコアのみならず、性別および民族性ベクトルを出力するように構成されるが、そのような(スコア、性別および民族性ベクトル)出力はk個の拡張画像のうちの1つを処理することから取得され、用いられる。データ拡張および平均化は、マスクを精緻化するのに役立つが、スコア、出力(一例として)の変動は予想されない。k個の拡張画像(又は、例えば、他のクラス出力)の各々を処理することからのスコアの平均化は、省略され、そこからの単一の値が用いられる。
一例によれば、マスク精度は、ざ瘡病変のグラウンドトゥルース座標を用いて計算されたマスクと比較することによってテストされる。例えば、ざ瘡病変の座標を中心とする全ての円を集約してマスクを出力する。
図6は、ユーザ604によって操作されるパーソナルユースのためのコンピューティングデバイス602が遠隔に配置されたサーバコンピューティングデバイス、即ちサーバ606及びサーバ608と通信ネットワーク604とを介して通信する一例であるコンピュータネットワーク600のブロック図である。ユーザ604は、一例によれば、皮膚科医の消費者および/又は患者である。また、通信ネットワーク604を介して通信するように構成された第2のユーザ610及び第2のコンピューティングデバイス612も示されている。第2のユーザ610は、一例によれば、皮膚科医である。コンピューティングデバイス602は、ユーザによるパーソナルユースのためのものであり、公衆が利用することはできない。ただし、サーバからのサービスは公衆に利用できる。ここで、公衆とは、登録されたユーザ及び/又は消費者等を含んでいる。
コンピューティングデバイス602は、一例によれば、本明細書に記載されるような皮膚診断、即ち、尋常性ざ瘡診断を提供するなどのざ瘡重症度を評価することを実行するように構成される。一例によれば、CNN106は、ボードコンピューティングデバイス602上に格納され、利用される。一例によれば、CNN106は、コンピューティングデバイス602から受信した画像からクラウドサービス、ウェブサービス等を介して、サーバ606から提供される。
一例によれば、コンピューティングデバイス602は、例えば、ざ瘡診断情報を提供し、皮膚診断および/又はユーザに関する他の情報(例えば、年齢、性別など)に応答して、製品/治療推奨を受信するために、サーバ608と通信するように構成される。一例によれば、コンピューティングデバイス602は、例えば、データストア(図示せず)に記憶するために、皮膚診断情報(画像データを備えることができる)をサーバ606及び608のいずれか、又は両方に通信するように構成される。一例によれば、サーバ608(又は別のサービス(図示せず))は、推奨製品を販売するための電子商取引サービスを提供する。
コンピューティングデバイス602は、図6の例では手持モバイルデバイス(例えば、スマートフォン又はタブレット)として示されている。しかしながら、一例によれば、コンピューティングデバイス602は、ラップトップ、デスクトップ、ワークステーション等の別の形態またはタイプのコンピューティングデバイスである(例えば、より大きな処理リソースを有する)。一例によれば、本明細書で説明する皮膚診断は、他のコンピューティングデバイスタイプで実装される。一例に従って、コンピューティングデバイス602は、例えば、1つ以上のネイティブアプリケーション又はブラウザベースのアプリケーションを用いて構成される。
一例によれば、コンピューティングデバイス602は、例えば、皮膚、特に顔の写真などの1つ以上の画像を取得し、その画像を処理して皮膚診断を提供するためのユーザデバイスを備える。一例によれば、皮膚診断は、皮膚治療計画に関連して(皮膚治療計画のアクティビティを実行することに関連して)実行され、ここで、画像は周期的に取得され、上述のように、ざ瘡などの皮膚スコアを決定するために分析される。スコアは(ローカルに、リモートに、又はその両方で)記憶され、例えば傾向、改善などを示すためにセッション間で比較される。一例によれば、皮膚スコア及び/又は皮膚画像は、コンピューティングデバイス602のユーザ604にアクセス可能である。一例によれば、皮膚スコア及び/又は皮膚画像は、皮膚科医などのコンピュータシステム600の別のユーザ(例えば、第2のユーザ610)に(例えば、サーバ606を介して、又は通信ネットワーク604を介して別の方法で(電子的に)通信されて)利用可能にされる。一例によれば、第2のコンピューティングデバイス612は、説明したように皮膚診断を実行するように構成される。第2のコンピューティングデバイス612は、リモートソース(例えば、コンピューティングデバイス602、サーバ606、サーバ608など)から画像を受信し、及び/又はそれに結合された光学センサ(例えば、カメラ)を介して、又は任意の他の仕方で画像をキャプチャする。CNN106は上述のように、第2のコンピューティングデバイス612又はサーバ606から記憶され、用いられる。
一例によれば、皮膚診断を実行し、1つ以上の製品を提案し、ある期間にわたる製品の1つ以上の適用(治療計画において1つ以上の治療セッションを定義する)後の皮膚変化をモニタリングするためのアプリケーションが提供される。例に従って、コンピュータ・アプリケーションは以下のアクティビティのいずれかを実行するために、一連の指示的なグラフィカルユーザインターフェース(GUI)及び/又は他のユーザ・インターフェース(通常は対話的であり、ユーザ入力を受信する)などのワークフローを提供する:
・ざ瘡などの皮膚診断;
・治療計画などの製品推奨事項;
・製品の購入やその他の獲得;
・治療セッションごとの製品リマインド、教育および/又は記録(例えば、ログ記録);
・その後の(例えば、1回以上の追跡)皮膚診断;及び
・結果(例えば、比較結果)を提示する;
例えば、皮膚治療計画の進行をモニタリングするための治療計画スケジュールに従って。一例によれば、これらのアクティビティのいずれかは、例えば、レビューするユーザ610、レビューする別の個人、治療計画の有効性を測定する他のユーザのデータとの集約などのために、リモートに格納されるデータを生成する。
一例によれば、比較結果(例えば、結果の前後)は、治療計画の最中および/又は完了時などにかかわらず、コンピューティングデバイス602を介して提示される。上述のように、一例によれば、皮膚診断の態様はコンピューティングデバイス600上で、又はリモート結合されたデバイス(例えば、クラウド内のサーバ又は別の構成)によって実行される。
図7は、本開示の1つ以上の態様による、コンピューティングデバイス602のブロック図である。コンピューティングデバイス602は、1つ以上の処理装置702と、1つ以上の入力デバイス704と、ジェスチャベースのI/Oデバイス706と、1つ以上の通信ユニット708と、1つ以上の出力デバイス710とを備える。コンピューティングデバイス602は、また、1つ以上のモジュール及び/又はデータを記憶する1つ以上の記憶デバイス712を含む。一例によれば、モジュールは(例えば、CNN106からの)ディープニューラルネットワークモデル714、グラフィカルユーザインターフェース(GUI718)のための構成要素を有するアプリケーション716及び/又は治療モニタリングのためのワークフロー(例えば、治療モニタ720)、画像獲得722(例えば、インターフェース)および治療/製品セレクタ730(例えば、インターフェース)を含む。一例によれば、データは処理するための1つ以上の画像(例えば、画像724)、皮膚診断データ(例えば、それぞれのスコア、民族性、性別または他のユーザデータ)、特定の治療に関するロギングデータなどの治療データ728、リマインダなどのスケジュールを伴う治療計画などを含む。
一例によれば、アプリケーション716は、ビデオなどの1つ以上の画像を取得し、その画像を処理して、ニューラルネットワークモデル714によって提供されるディープニューラルネットワークの皮膚診断を決定する機能を提供する。一例によれば、ニューラルネットワークモデル714は、前述のように図1に示すモデルとして構成される。別の例では、ニューラルネットワークモデル714は、リモートに配置され、コンピューティングデバイス602は、アプリケーション716を介して、皮膚診断データの処理および返送のために画像を通信する。一例によれば、アプリケーション716は、これらの前述のアクティビティを実行するように構成される。
一例に従って、記憶デバイス712は、通信モジュール、グラフィックス処理モジュール(例えば、処理装置702のGPU用)、マップモジュール、接触モジュール、カレンダーモジュール、写真/ギャラリーモジュール、写真(画像/メディア)エディタ、メディアプレーヤ及び/又はストリーミングモジュール、ソーシャルメディアアプリケーション、ブラウザモジュールなどを含む、オペレーティングシステム732及びその他のモジュール(図示せず)などの追加モジュールを記憶する。記憶デバイスは、本明細書では記憶ユニットと呼ばれることがある。
一例によれば、通信チャネル738は、構成要素702,704,706,708,710,712のそれぞれと、構成要素間通信のための任意のモジュール714,716,及び732とを、通信可能、物理的および/又は動作可能に結合する。いくつかの例では、通信チャネル738がシステムバス、ネットワーク接続、プロセス間通信データ構造またはデータを通信するための他の任意の方法を含む。
一例に従って、1つ以上の処理装置702は、コンピューティングデバイス602内で機能性を実装し、及び/又は命令を実行する。例えば、処理装置702は、図5に示すモジュールの機能性(例えば、オペレーティングシステム、アプリケーションなど)を実行するために、記憶デバイス712から命令および/又はデータを受信するように構成されている。コンピューティングデバイス602は、データ/情報を記憶デバイス712に記憶する。機能のいくつかは、本明細書において以下にさらに記載される。例によれば、オペレーションは1つのモジュールが別のモジュールの機能を支援するように、図5のモジュール714,716及び732内に正確には含まれないことを理解されたい。
一例によれば、オペレーションを実行するためのコンピュータプログラムコードは、1つ以上のプログラミング言語、例えば、Java(登録商標)、Smalltalk、C++等のオブジェクト指向プログラミング言語または“C”プログラミング言語や同様のプログラミング言語等の従来の手続き型プログラミング言語の任意の組み合わせで書かれる。
一例によれば、コンピューティングデバイス602は、ジェスチャベースのI/Oデバイス706の画面上に提示するための出力、又はいくつかの例ではプロジェクタ、モニタ、又は他のディスプレイデバイスによる提示のための出力を生成する。一例によれば、ジェスチャベースのI/Oデバイス706は、様々な技術(例えば、抵抗性タッチスクリーン、表面弾性波タッチスクリーン、容量性タッチスクリーン、投影キャパシタンスタッチスクリーン、感圧スクリーン、音響パルス認識タッチスクリーン又は別のプレゼンスセンシティブスクリーン技術などの入力能力に関連して、及び出力能力に関連して、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、ドットマトリクスディスプレイ、eインク又は同様のモノクロ又はカラーディスプレイ)を用いて構成されることが理解されるのであろう。
本明細書で説明される例のうちの少なくともいくつかでは、ジェスチャベースのI/Oデバイス706がタッチスクリーンと対話するユーザからの触覚対話またはジェスチャを入力として受信することができるタッチスクリーンデバイスを含む。一例によれば、そのようなジェスチャはタップジェスチャ、ドラッグジェスチャ又はスワイプジェスチャ、フリックジェスチャ、ジェスチャの一時停止(例えば、ユーザが少なくとも閾値期間にわたって画面の同じ位置にタッチする場合)を含み、ユーザはジェスチャベースのI/Oデバイス706の1つ以上の位置にタッチ又はポイントする。一例によれば、ジェスチャベースのI/Oデバイス706は、非タップジェスチャも受信する。一例によれば、ジェスチャベースのI/Oデバイス706は、グラフィカルユーザインターフェースなどの情報をユーザに出力または提示する。ジェスチャベースのI/Oデバイス706はとりわけ、例えば、画像を取得し、画像を閲覧し、画像を処理し、新しい画像を提示するためのアプリケーション716、メッセージングアプリケーション、電話通信、連絡先およびカレンダアプリケーション、ウェブブラウジングアプリケーション、ゲームアプリケーション、電子書籍アプリケーション及び金融、支払い、並びに他のアプリケーション又は機能を含む、コンピューティングデバイス602の様々なアプリケーション、機能および能力を提示する。
本開示は主にI/O能力を有するディスプレイスクリーンデバイス(例えば、タッチスクリーン)の形態のジェスチャベースのI/Oデバイス706を示し、説明するが、ジェスチャベースのI/Oデバイスの他の例が、動きを検出するために想定される。一例によれば、このようなものは、スクリーン自体を含まない。そのような場合、コンピューティングデバイス602は、ディスプレイスクリーンを含むか、又はアプリケーション716の新しい画像およびGUIを提示するためにディスプレイデバイスに結合される。一例によれば、コンピューティングデバイス602は、トラックパッド/タッチパッド、1つ以上のカメラ、又は別のプレゼンス又はジェスチャ感知入力デバイスからジェスチャベースの入力を受信し、ここで、プレゼンスは、例えば、ユーザの全部または一部の動きを含むユーザの存在態様を意味する。
一例によれば、1つ以上の通信ユニット708は、1つ以上のネットワーク上でネットワーク信号を送信および/又は受信することによって、通信ネットワーク604を介してなど、説明した目的および/又は他の目的(たとえば、印刷)などのために、外部デバイス(たとえば、サーバ606、サーバ608、第2のコンピューティングデバイス612)と通信する。一例によれば、通信ユニットは、無線および/又は有線通信のための様々なアンテナ及び/又はネットワークインターフェースカード、チップ(例えば、全地球測位衛星(GPS))などを含む。
一例によれば、入力デバイス704及び出力デバイス710は、1つ以上のボタン、スイッチ、ポインティングデバイス、カメラ、キーボード、マイクロフォン、1つ以上のセンサ(たとえば、バイオメトリックなど)、スピーカ、ベル、1つ以上のライト、触覚(振動)デバイスなどのいずれかを含む。1つ以上の同じものが、ユニバーサルシリアルバス(USB)又はその他の通信チャネル(738など)を介して結合されている。一例によれば、カメラ(入力デバイス804)は、ユーザがジェスチャベースのI/Oデバイス706を見ながらカメラを用いて画像をキャプチャして“セルフィー”を撮ることを可能にするように、前方に向けられている(すなわち、同じ側にある)。
例によれば、1つ以上の記憶デバイス712は、例えば、短期メモリ又は長期メモリとして、異なる形式および/又は構成をとる。一例によれば、記憶デバイス712は、揮発性メモリとしての情報の短期記憶のために構成され、電力が除去されたときに記憶された内容を保持しない。揮発性メモリの例としては、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM)などがある。記憶デバイス712は、いくつかの例では例えば、揮発性メモリよりも大量の情報を記憶し、及び/又は電力が除去されたときに情報を保持しながら長期間そのような情報を記憶するために、1つ以上のコンピュータ可読記憶媒体も含む。不揮発性メモリの例には、磁気ハードディスク、光ディスク、フロッピーディスク、フラッシュメモリ、又は電気的にプログラム可能なメモリ(EPROM)又は電気的に消去およびプログラム可能なメモリ(EEPROM)の形態が含まれる。
図示されていないが、一例によれば、コンピューティングデバイスは例えば、適切なトレーニング及び/又はテストデータと共に図4に示されるようなネットワークを用いてニューラルネットワークモデル714をトレーニングするためのトレーニング環境として構成される。
一例によれば、CNN106/ニューラルネットワークモデル714はラップトップ、デスクトップ、ワークステーション、サーバ又は他の同等世代コンピューティングデバイスなどの“より大きい”デバイスよりも少ない処理リソースを有するモバイルデバイス(例えば、スマートフォン又はタブレット)であるコンピューティングデバイスのための軽いアーキテクチャに適合される。
一例によれば、第2のコンピューティングデバイス612は、コンピューティングデバイス602と同様に構成される。第2のコンピューティングデバイス612は、異なるユーザのためにサーバ606に記憶されたデータから画像およびざ瘡診断を要求し見せるようにGUIを提示する。
一例によれば、図8A及び図8Bは、一例によるコンピューティングデバイス602(又は610)などのための、それぞれオペレーション800及び810のフローチャートである。オペレーション800は、ざ瘡重症度の皮膚診断を実行するためにユーザの顔の画像を備えるセルフィーを取得するためにアプリケーション716などのアプリケーションを用いるコンピューティングデバイス602のユーザに関する。801において、画像は、カメラ又は他の仕方(例えば、メッセージ添付から)を介して、処理装置で受信される。
802で、画像は、CNNに提示する正規化画像を定義するために前処理される。画像は様々に、中心に置かれ、特定のサイズ(解像度)に切り取られて、そのトレーニングに従ってCNNに同じサイズの画像を提示する。803において、正規化された画像はCNN106(ニューラルネットワークモデル714)を用いて処理され、尋常性ざ瘡診断(例えば、整数スコア)を生成する。性別および民族性出力も生成される。ざ瘡診断、性別および民族性ベクトル(又はその単一値)は、804において、例えばGUIを介して提示される。一例によれば、GUIは、説明したようなヒートマップを用いて、画像および/又は正規化画像と、ざ瘡を視覚化する適合画像とを提示する。一例によれば、GUIは画像を提示し、次いで、一旦利用可能になると、ざ瘡を視覚化する適合画像を提示するように遷移する。
図8Bは、オペレーション810を示す。811において、GUIが提示され(一例によれば、オペレーション800,810のいずれかに対してGUIが提示され)、製品および/又は治療推奨が開始される。パフォーマンスを引き出すための入力が受信される。812において、推奨が取得される。推奨を取得するために、一例によれば、デバイス602のオペレーションは、ざ瘡診断情報(例えば、スコア、民族性ベクトル、性別ベクトル、画像、ユーザ情報など)をサーバ608などのリモートサーバに通信して推奨を受信することを備える。一例によれば、推奨は、1つ以上の製品と、皮膚の領域への適用の体制と、スケジュールを有する治療計画に関連するものとを含む。813において、推奨は、例えばGUIを介して提示される。一例によれば、2つ以上の推奨が受信され、提示される。814において、推奨の受け入れを示す選択が行われる。一例によれば、選択は記憶され(記録され)、例えば、コンピューティングデバイス602の治療モニタリング特徴または機能(図示せず)が開始される。一例によれば、815において、サーバ608又は別のサーバを介するなどして、製品購入が促進される。
図示されていないが、一例に従って、モニタリングはコンピューティングデバイス602によって受信されるか、又はブラウザなどを介してアクセス可能な治療計画(例えば、データに記載されるよう)に応答する。一例によれば、治療計画は1週間に1回の第2の製品の適用などのスケジュール(例えば、製品の朝および夕方の適用)を有する。一例によれば、ユーザは、固有のアプリケーションベースである通知を介して、又はカレンダアプリケーションなどの別の手段を介してなど、予定をリマインドされる。一例によれば、GUIは、治療アクティビティを容易にするために提供され、例えば、その発生を記録するために、及び/又はアクティビティを実行するための命令を提供する。アクティビティが実行されたことの確認などの入力が受信される。一例によれば、アクティビティを記録するために画像が含まれる。例に従って、それぞれのデータが(ローカル及び/又はリモートで)ログに記録される。一例によれば、モニタリングは、治療計画がどの程度厳密に追従されるかを測定する。一例によれば、製品の買戻しが容易になる。例えば、一例によれば、治療モニタリングに応答して、手元の製品量がなくなっていることが決定される。
図示されていないが、一例によれば、比較アクティビティが実行される(例えば、モニタリングアクティビティとして実行される)。比較用のGUIは、ユーザ等に提供するために設けられる。(例えば、601で受信された初期画像と比較された)新しい画像が受信され、(任意選択で)記憶される。その後の尋常性ざ瘡診断は新しい画像上のCNN106を用いて(例えば、オペレーション600と同様に、正規化されたものなどとして)実行される。GUIは、初期およびその後のざ瘡診断を用いて、任意選択で第1及び新しい画像と、任意選択でヒートマップを用いて修正されたそのような1つ以上の画像との、治療結果の比較を提示する。
図示されていないが、例に従って、オペレーション800,810及びモニタリング及び/又は比較アクティビティのために受信または生成されたデータは、サーバ606などのリモート記憶デバイスのために通信される。
一例によれば、ざ瘡の診断およびその後の診断(任意選択で他のモニタリングを伴う)並びに集約のためのデータの提供は、製品の有効性および/又は製品および治療の不正請求調査を可能にする。一例によれば、データが収集され、分析され、皮膚科医および/又は他の専門家および/又はユーザに提示される。したがって、本明細書の様々な実施例の技法および/又は方法論は、ざ瘡皮膚治療などのための分散研究モデルを容易にする。
図9は、一例による、コンピューティングデバイス602(又は610)などのためのオペレーション900のフローチャートである。オペレーション900は、オペレーション800と同様であり、アプリケーション716などのアプリケーションを用いて、ユーザの顔の画像を備えるセルフィーを取得し、ざ瘡の重症度についての皮膚診断を実行するコンピューティングデバイス602のユーザに関する。本オペレーション900では、k個のデータ拡張が実行され、k個の画像が解析されて視覚化が作り出される。
この例におけるオペレーション900は同様であるので、オペレーション800からの参照は図9において繰り返される。801において、画像はカメラ又は他の仕方(例えば、メッセージ添付から)を介して、処理装置で受信される。
802で、画像は、CNNに提示する正規化画像を定義するために前処理される。画像は様々に、中心に置かれ、特定のサイズ(解像度)に切り取られて、そのトレーニングに従ってCNNに同じサイズの画像を提示する。902において、k個のランダムなデータ拡張が分析のためにk個の拡張画像を定義するためにそれぞれ適用されるように、データ拡張が、正規化された画像に対して実行される。一例では、オペレーション802及び902が順番に逆にされる。ソース画像は拡張され、次いで正規化されるが、これは特定のオペレーションを繰り返すことができる。
904において、k個の拡張画像の各々は、CNN106(ニューラルネットワークモデル714)を用いて処理され、尋常性ざ瘡診断(例えば、整数スコア)およびk個のアクティベーションマスク(例えば、Grad-CAMを用いて記載されるようなヒートマップ)を生成する。性別および民族性出力も生成される。906において、k個のアクティベーションマスクから最終マスクが画定される。この例では、k個のアクティベーションマスクが平均化され、上述のように閾値が適用されて、皮膚分析の視覚化として最終マスク/ヒートマップが生成される。908において、ざ瘡診断は例えば、GUIを介して、元の画像に対する視覚化と共に提示される。この例では、ヒートマップが分析/診断を視覚化するために元の画像上にオーバーレイされる。任意選択で、性別および民族性ベクトル(又はその単一値)が視覚化と共に提示される。
図10A及び10Bは、一例による、それぞれのソース画像1000,1002並びに皮膚分析の視覚化1004,1006,1008及び1010を示す。第1の修正された顔画像1004及び1006の各々、並びに第2の修正された顔画像1008及び1010の各々は、平均化技法を用いて作り出されたそれぞれのGrad-CAM生成ヒートマップで覆われた(例えば、オーバーレイされた)それぞれの元の顔画像1000,1002を備える。第1の修正された顔画像1004及び1006は、画像内で正規化されたクラスアクティベーションマップ(CAM)を局所的に正規化させて示し、第2の修正された顔画像1008及び1010は、同じ数の拡張のすべての画像内で全体的に正規化されたCAMを示す。図10Bを参照すると、元の画像1002において提示される皮膚状態は、中央額領域において最も厳しく、口および上顎の周りではそれほど厳しくなく、鼻の上ではそれほど厳しくない。視覚化1006及び1010は、元の画像1002の皮膚の詳細をぼかして、ヒートマップを用いて皮膚領域を強調する。一実施形態では、カラーオーバーレイが用いられる。色および/又は勾配などは、重症度結果(例えば、皮膚分析整数値)と整列される。視覚化1006及び1010のヒートマップはそれぞれ、皮膚状態がプレゼンスする領域を強調し、皮膚状態が元の画像1002にプレゼンスしない皮膚の他の領域(例えば、頬、下顎)を最小化する。例えば、頬領域は暗くされ、皮膚状態がプレゼンスする領域は局所的または全体的なデータを用いて正規化されるように、そのためのスコアに対して強調されて提示される。図10Aは、額領域において最も切断されている皮膚状態についての同様の視覚化を示す。強調提示は、皮膚状態を示すセクション内で様々に粒状であってもよい。例えば、1004及び1008、又は、1006及び1010の額領域において、皮膚状態が検出される領域の部分は、その重症度に対して強調提示される。
本開示では、1つ以上の例において、整数のみのラベルを用いて、ざ瘡重症度評価回帰タスク上でCNNをトレーニングする方法が記載される。以前の研究はしばしば、複雑な経路および画像に対する特定の要件を有するが、ざ瘡評価のための記載されたエンドツーエンドモデルは、モバイルデバイスによってキャプチャされた画像で機能することができ、モバイル又はウェブアプリケーションを介してリアルタイムで使用することができる。良好に適合された損失関数およびトレーニング技法を用いて、同様の作業と比較して3%良好な結果が達成された。
1つ以上の例に示されるコンピューティングデバイスの態様に加えて、通常の当業者はコンピュータプログラム製品の態様が開示され、ここで命令が非一時的記憶デバイス(例えば、メモリ、CD-ROM、DVD-ROM、ディスクなど)に記憶されて、本明細書に記載する方法の態様のいずれかを実行するようにコンピューティングデバイスを構成することを理解するのであろう。
コンピューティングデバイスは、記憶ユニットに結合された処理ユニットなどの回路を備えることが理解されよう。そのような回路は様々な特徴および機能を提供するように、及び/又は適用可能な方法を実行するように演算をデバイスに構成する。回路は、それぞれの機能ユニットを規定するように(少なくとも論理的に)考慮されてもよい。機能ユニットの一例は、本明細書に記載の特徴を有する皮膚分析ユニット及び/又は視覚化ユニットなどである。他のものは明らかであろう。一実施形態では、皮膚状態の皮膚診断を生成するために、画像分類のための回帰および分類を備えるディープニューラルネットワークを用いて画像のピクセルを分類する皮膚分析ユニットが提供される。
実際の実施は、本明細書に記載された特徴のいずれか又は全てを含むことができる。これら及び他の態様、特徴、ならびに様々な組み合わせは、本明細書で説明される特徴を組み合わせる、機能、プログラム製品を実行するための方法、機器、システム、手段として、及び他のやり方で表現され得る。多数の実施形態が記載されている。それにもかかわらず、本明細書で説明されるプロセス及び技法的思想および範囲から逸脱することなく、様々な修正を行うことができることが理解されるのであろう。加えて、記載された処理から、他のステップを提供することができ、又はステップを排除することができ、記載されたシステムに他の構成要素を加えるか、又はそこから除去することができる。したがって、他の実施形態は特許請求の範囲の範囲内にある。
本明細書の記載および特許請求の範囲を通して、単語“備える(comprise)”及び“含む(contain)”及びそれらの変形は“含むがこれに限定されない”を意味し、他の構成要素、整数またはステップを排除することを意図しない(及び排除しない)。本明細書全体を通して、単数形は文脈が沿わないことを要求しない限り、複数形を包含する。特に、不定冠詞が使用される場合は本明細書がその状況が他のことを要求していない限り、単数だけでなく複数も意図していると理解されたい。
本発明の特定の局面、実施形態または例に関連して記載される特徴、整数特性、化合物、化学部分または基はそれらと適合しない限り、任意の他の局面、実施形態または例に適用可能であると理解されるべきである。本明細書に開示された特徴(任意の添付の特許請求の範囲、要約書および図面を含む)のすべて、及び/又はそのように開示された任意の方法または処理のステップのすべては、そのような特徴および/又はステップの少なくともいくつかが相互に排他的である組み合わせを除いて、任意の組合せで組み合わせることができる。本発明は、前述の例または実施形態の詳細に限定されない。本明細書(添付の特許請求の範囲、要約書および図面を含む)に開示された特徴の任意の新規なもの、又は任意の新規な組み合わせ、又は開示された任意の方法または処理のステップの任意の新規なもの、又は任意の新規な組み合わせに拡張される。
<参考文献(References)>
[1]Abas,F.S.,Kaffenberger,B.,Bikowski,J.,Gurcan,M.N.:Acne image analysis:lesion localization and classification.In:Medical Imaging 2016:Computer-Aided Diagnosis.vol.9785,p.97850B.International Society for Optics and Photonics(2016)
[2]Alamdari,N.,Tavakolian,K.,Alhashim,M.,Fazel-Rezai,R.:Detection and classification of acne lesions in acne patients:A mobile application.In:2016 IEEE International Conference on Electro Information Technology(EIT).pp.0739-0743.IEEE(2016)
[3]Drno,B.,Poli,F.,Pawin,H.,Beylot,C.,Faure,M.,Chivot,M.,Auffret,N.,Moyse,D.,Ballanger,F.,Revuz,J.:Development and evaluation of a global acne severity scale(gea scale)suitable for France and Europe:Global acne assessment scale.Journal of the European Academy of Dermatology and Venereology:JEADV25,43-8(04 2010).URL doi.org/10.1111/j.1468-3083.2010.03685.x
[4]He,K.,Zhang,X.,Ren,S.,Sun,J.:Deep residual learning for image recognition.In:Proceedings of the IEEE conference on computer vision and pattern recognition.pp.770-778(2016)
[5]Jiang,R.,Kezele,I.,Levinshtein,A.,Flament,F.,Zhang,J.,Elmoznino,E.,Ma,J.,Ma,H.,Coquide,J.,Arcin,V.,Omoyuri,E.,Aarabi,P.:A new procedure,free from human assessment,that automatically grades some facial skin structural signs.Comparison with assessments by experts,using referential atlases of skin aging.International Journal of Cosmetic Science41(01 2019).URL doi.org/10.1111/ics.12512.
[6]Kingma,D.P.,Ba,J.:Adam:A method for stochastic optimization.CoRR abs/1412.6980(2014),URL arxiv.org/abs/1412.6980
[7]Malik,A.S.,Ramli,R.,Hani,A.F.M.,Salih,Y.,Yap,F.B.B.,Nisar,H.:Digital assessment of facial acne vulgaris.In:2014 IEEE International Instrumentation and Measurement Technology Conference(I2MTC) Proceedings.pp.546-550.IEEE(2014)
[8]Maroni,G.,Ermidoro,M.,Previdi,F.,Bigini,G.:Automated detection,extraction and counting of acne lesions for automatic evaluation and tracking of acne severity.In:2017 IEEE Symposium Series on Computational Intelligence(SSCI).pp.1-6.IEEE(2017)
[9]Melina,A.,Dinh,N.N.,Tafuri,B.,Schipani,G.,Nistic_o,S.,Cosentino,C.,Amato,F.,Thiboutot,D.,Cherubini,A.:Arti_cial intelligence for the objective evaluation of acne investigator global assessment.Journal of drugs in dermatology:JDD17(9),1006-1009(2018)
[10]Pan,H.,Han,H.,Shan,S.,Chen,X.:Mean-variance loss for deep age estimation from a face.In:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.pp.5285-5294(2018)
[11]Rothe,R.,Timofte,R.,Van Gool,L.:Dex:Deep expectation of apparent age from a single image.In:Proceedings of the IEEE International Conference on Computer Vision Workshops.pp.10-15(2015)
[12]Sandler,M.,Howard,A.,Zhu,M.,Zhmoginov,A.,Chen,L.C.:Mobilenetv2:Inverted residuals and linear bottlenecks.In:The IEEE Conference on Computer Vision and Pattern Recognition(CVPR)(June2018)
[13]Selvaraju,R.R.,Cogswell,M.,Das,A.,Vedantam,R.,Parikh,D.,Batra,D.:Grad-cam:Visual explanations from deep networks via gradient-based localization.In:Proceedings of the IEEE International Conference on Computer Vision.pp.618-626(2017)
[14]Zhou,B.,Khosla,A.,Lapedriza,A.,Oliva,A.,Torralba,A.:Learning deep features for discriminative localization.In:Proceedings of the IEEE conference on computer vision and pattern recognition.pp.2921-2929(2016)
[15]J.P.-O.N.V.-A.A.R.-A.J.D.-C.J.Alfredo Padilla-Medina,Francisco Len-Ordoez,Assessment technique for acne treatments based on statistical parameters of skin thermal images,Journal of Biomedical Optics 19(4)(2014)1-8-8.doi:10.1117/1.JBO.19.4.046019.URL doi.org/10.1117/1.JBO.19.4.046019
[16]La Roche Posay:What is effaclar spotscan?(2019),URL www.laroche-posay.co.uk/what-is-effaclar-spotscan,last accessed=2019-06-25
<その他>
<手段>
技術的思想1の皮膚診断デバイスは、記憶ユニットに結合された処理ユニットを提供する回路を備える皮膚診断デバイスであって、皮膚状態の皮膚診断を生成するために、画像分類のための回帰および分類を備えるディープニューラルネットワークを用いて画像のピクセルを分類する皮膚分析ユニットを提供するように構成される。
技術的思想2の皮膚診断デバイスは、技術的思想1記載の皮膚診断デバイスにおいて、前記処理ユニット及び前記記憶ユニットが前記皮膚診断を視覚化するために前記画像に注釈を付ける視覚化ユニットを提供するようにさらに構成される。
技術的思想3の皮膚診断デバイスは、技術的思想1又は2に記載の皮膚診断デバイスにおいて、前記処理ユニット及び前記記憶ユニットが前記皮膚診断に応答して、前記皮膚状態のための製品を推奨する推奨ユニットを提供するようにさらに構成される。
技術的思想4の皮膚診断デバイスは、技術的思想1から3のいずれかに記載の皮膚診断デバイスにおいて、前記処理ユニット及び前記記憶ユニットが前記皮膚状態のための製品を購入する電子商取引インターフェースを提供するようにさらに構成される。
技術的思想5の皮膚診断デバイスは、技術的思想1から4のいずれかに記載の皮膚診断デバイスにおいて、前記皮膚診断は、前記画像上の前記皮膚状態の重症度を分類するスケールの整数値を備える。
技術的思想6の皮膚診断デバイスは、技術的思想5記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、入力として正規化された顔画像を受信し、前記スケールの全ての可能な整数値にわたる確率分布を表すベクトルを出力し、アクティベーション関数を適用して前記皮膚診断の整数値を決定するように構成される。
技術的思想7の皮膚診断デバイスは、技術的思想1から6のいずれかに記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、民族性予測および性別予測の一方または両方を決定するための補助タスクによってさらに構成される。
技術的思想8の皮膚診断デバイスは、技術的思想1から7のいずれかに記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、前記皮膚診断を生成するように適合された画像分類のための適合ネットワークを備える。
技術的思想9の皮膚診断デバイスは、技術的思想1から8のいずれかに記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、画像処理のための畳み込みニューラルネットワーク(CNN)を備える。
技術的思想10の皮膚診断デバイスは、技術的思想9記載の皮膚診断デバイスにおいて、前記CNNは、回帰および分類の出力を生成するように構成された最終的な完全に接続されたレイヤの前にグローバルプーリングオペレーションを有するエンコーダとしての残差ネットワークを備える。
技術的思想11の皮膚診断デバイスは、技術的思想1から10のいずれかに記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、回帰損失関数と分類損失関数とを組み合わせた複合損失関数でトレーニングされる。
技術的思想12の皮膚診断デバイスは、技術的思想11記載の皮膚診断デバイスにおいて、前記複合損失関数は、数式2に従い、
Figure 0007341310000009
ここで、L mse 、L ce 、L gender 及びL ethnicity は、それぞれ平均二乗誤差(MSE)、クロスエントロピー誤差(CE)、性別予測および民族性予測関数であり、λ mse 、λ ce 、λ gender 及びλ ethnicity は、重み係数である。
技術的思想13の皮膚診断デバイスは、技術的思想1から12のいずれかに記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、ユーザモバイルデバイスからのセルフィー画像を備える顔画像データのデータセットを用いてトレーニングされる。
技術的思想14の皮膚診断デバイスは、技術的思想2から13のいずれかに記載の皮膚診断装置であって、そのうち技術的思想3から13は技術的思想2に従属する皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、前記画像に関連して皮膚診断を視覚化するためのヒートマップを生成するように構成される。
技術的思想15の皮膚診断デバイスは、技術的思想14記載の皮膚診断デバイスにおいて、前記ディープニューラルネットワークは、前記ヒートマップを生成するためにクラスアクティベーションマッピング(CAM)技法を適用するように構成される。
技術的思想16の皮膚診断デバイスは、技術的思想1から15のいずれかに記載の皮膚診断デバイスにおいて、前記画像は、ユーザモバイルデバイスからのセルフィー画像を備える。
技術的思想17の皮膚診断デバイスは、技術的思想1から16のいずれかに記載の皮膚診断デバイスにおいて、パーソナルユースのためのコンピューティングデバイスと、通信ネットワークを介して皮膚診断サービスを提供するサーバとのうちの1つを備える。
技術的思想18の皮膚診断デバイスは、技術的思想17記載の皮膚診断デバイスにおいて、パーソナルユースのための前記コンピューティングデバイスは、スマートフォン、タブレット、ラップトップ、パーソナルコンピュータ、又はカメラを有するか、カメラに結合された他のコンピューティングデバイスのうちの1つを備える。
技術的思想19の皮膚診断デバイスは、技術的思想3から18のいずれかに記載の皮膚診断デバイスであって、そのうち技術的思想4から18は技術的思想3に従属する皮膚診断デバイスにおいて、前記推奨ユニットは、前記皮膚診断に応答して、製品推奨および治療計画推奨のうちの少なくとも1つを取得する治療製品セレクタを提供する。
技術的思想20の皮膚診断デバイスは、技術的思想1から19のいずれかに記載の皮膚診断デバイスにおいて、前記処理ユニット及び前記記憶ユニットが前記画像を受信するための画像獲得機能を提供するように構成される。
技術的思想21の皮膚診断デバイスは、技術的思想1から20のいずれかに記載の皮膚診断デバイスにおいて、前記皮膚状態は、尋常性ざ瘡である。
技術的思想22の皮膚診断のコンピュータ実装方法は、皮膚診断のコンピュータ実装方法であって、画像を受信することと、皮膚状態についての皮膚診断を決定するために画像ピクセルを分類するように構成されたディープニューラルネットワークを用いて前記画像を処理することと、を備え、前記ディープニューラルネットワークは、前記皮膚診断を決定するための回帰および分類として構成され、前記画像に関連して前記皮膚診断を視覚化することを備える。
技術的思想23のコンピュータ実装方法は、コンピュータ実装方法であって、皮膚の画像の受信をすることと、皮膚分析結果およびアクティベーションマスクを作り出して、前記画像に関連して皮膚分析結果を視覚化するように構成されたディープニューラルネットワークによって前記画像を処理することと、前記アクティベーションマスク及び前記画像を提示するために提供することと、を備える。
技術的思想24のコンピュータ実装方法は、技術的思想23記載のコンピュータ実装方法において、前記画像を処理することは、前記ディープニューラルネットワークによる処理のためのk個の拡張画像を作り出すように前記画像に複数(k)のデータ拡張を実行することと、k個のアクティベーションマスクを作り出すように前記ディープニューラルネットワークによって前記k個の拡張画像を処理することと、そこから最終アクティベーションマスクを定義することと、を備える。
技術的思想25のコンピュータ実装方法は、技術的思想24記載のコンピュータ実装方法において、前記k個のアクティベーションマスク及び前記最終アクティベーションマスクは、ヒートマップを備える。
技術的思想26のコンピュータ実装方法は、技術的思想25記載のコンピュータ実装方法において、前記ディープニューラルネットワークは、Grad-CAM技法を用いて、それぞれのk個のアクティベーションマスクを作り出す。
技術的思想27のコンピュータ実装方法は、技術的思想24から26のいずれかに記載のコンピュータ実装方法において、前記最終アクティベーションマスクは、平均化を用いて前記k個のアクティベーションマスクから定義される。
技術的思想28のコンピュータ実装方法は、技術的思想27記載のコンピュータ実装方法において、閾値は、平均化された前記k個のアクティベーションマスクからの除去値に適用される。
技術的思想29のコンピュータ実装方法は、技術的思想24から28のいずれかに記載のコンピュータ実装方法において、kの値が2以上20以下(2≦k≦20)の範囲に設定される。
技術的思想30のコンピュータ実装方法は、技術的思想24から29のいずれかに記載のコンピュータ実装方法において、前記k個のデータ拡張を実行する前に、前記皮膚の前記画像を正規化することを備える。
技術的思想31のコンピュータ実装方法は、技術的思想24から30のいずれかに記載のコンピュータ実装方法において、前記k個のデータ拡張のそれぞれは、アフィン変換からランダムに選択された1つの拡張と、水平フリップオペレーションと、を備える。
技術的思想32のコンピュータ実装方法は、技術的思想23から30のいずれかに記載のコンピュータ実装方法において、前記皮膚分析結果に応答する製品推奨を提供することを備える。
技術的思想33のコンピュータ実装方法は、技術的思想32記載のコンピュータ実装方法において、1つ以上の製品を購入するための電子商取引インターフェースを提供することを備え、前記電子商取引インターフェースは、前記製品推奨に応答する。
技術的思想34のコンピュータ実装方法は、技術的思想33記載のコンピュータ実装方法において、前記製品推奨は、推奨製品を用いるための治療計画に関連付けられる。
技術的思想35のコンピュータ実装方法は、技術的思想23から34のいずれかに記載のコンピュータ実装方法において、前記ディープニューラルネットワークは、皮膚状態について前記画像を分析するように構成される。
技術的思想36のコンピュータ実装方法は、技術的思想35記載のコンピュータ実装方法において、前記皮膚状態は、尋常性ざ瘡である。
技術的思想37のコンピュータ実装方法は、技術的思想23から36のいずれかに記載のコンピュータ実装方法において、前記ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)を備える。
技術的思想38のコンピューティングデバイスは、技術的思想23から37のいずれかに記載のコンピュータ実装方法を実行するように構成する回路を備える。
技術的思想39の方法は、方法であって、皮膚診断を決定するために画像のピクセルを分類するように構成された畳み込みニューラルネットワーク(CNN)をトレーニングすることを備え、前記CNNは、前記皮膚診断を生成するように構成された画像分類のためのディープニューラルネットワークを備え、前記CNNは、前記皮膚診断を決定するための回帰および分類として構成され、前記CNNは、ユーザモバイルデバイスからのセルフィー画像を備える顔画像データのデータセットを用いてトレーニングされる。

Claims (34)

  1. 記憶ユニットに結合された処理ユニットを提供する回路を備える皮膚診断デバイスであって、
    皮膚状態の皮膚診断を生成するために、画像分類のための回帰および分類を備えるディープニューラルネットワークを用いて画像のピクセルを分類する皮膚分析ユニットを提供するように構成され
    前記処理ユニットは、
    前記画像を受信し、
    前記皮膚診断およびアクティベーションマスクを作り出して、前記画像に関連して前記皮膚診断を視覚化するように構成された前記ディープニューラルネットワークによって前記画像を処理し、
    前記アクティベーションマスク及び前記画像を提示するために提供するように構成され、
    前記ディープニューラルネットワークによる前記画像の処理は、
    前記画像から顔領域の矩形を切り取り、顔画像を生成し、
    前記ディープニューラルネットワークによる処理のためのk個の拡張画像を作り出すように前記顔画像に複数(k)のデータ拡張を実行し、
    k個のアクティベーションマスクを作り出すように前記ディープニューラルネットワークによって前記k個の拡張画像を処理し、そこから最終アクティベーションマスクを定義するように構成され、
    前記k個のアクティベーションマスク及び前記最終アクティベーションマスクは、ヒートマップを備え、
    前記ヒートマップは、前記顔画像にオーバーレイされ、前記顔画像の前記皮膚状態の重症度をその重症度のレベルに合わせて段階的に強調させるために前記顔画像を修正するように構成される皮膚診断デバイス。
  2. 前記処理ユニット及び前記記憶ユニットが前記皮膚診断を視覚化するために前記画像に注釈を付ける視覚化ユニットを提供するようにさらに構成される請求項1記載の皮膚診断デバイス。
  3. 前記処理ユニット及び前記記憶ユニットが前記皮膚診断に応答して、前記皮膚状態のための製品を推奨する推奨ユニットを提供するようにさらに構成される請求項1又は2に記載の皮膚診断デバイス。
  4. 前記処理ユニット及び前記記憶ユニットが前記皮膚状態のための製品を購入する電子商取引インターフェースを提供するようにさらに構成される請求項1から3のいずれかに記載の皮膚診断デバイス。
  5. 前記皮膚診断は、前記画像上の前記皮膚状態の重症度を分類するスケールの整数値を備える請求項1から4のいずれかに記載の皮膚診断デバイス。
  6. 前記ディープニューラルネットワークは、入力として正規化された前記顔画像を受信し、前記スケールの全ての可能な整数値にわたる確率分布を表すベクトルを出力し、アクティベーション関数を適用して前記皮膚診断の整数値を決定するように構成される請求項5記載の皮膚診断デバイス。
  7. 前記ディープニューラルネットワークは、民族性予測および性別予測の一方または両方を決定するための補助タスクによってさらに構成される請求項1から6のいずれかに記載の皮膚診断デバイス。
  8. 前記ディープニューラルネットワークは、前記皮膚診断を生成するように適合された画像分類のための適合ネットワークを備える請求項1から7のいずれかに記載の皮膚診断デバイス。
  9. 前記ディープニューラルネットワークは、画像処理のための畳み込みニューラルネットワーク(CNN)を備える請求項1から8のいずれかに記載の皮膚診断デバイス。
  10. 前記CNNは、回帰および分類の出力を生成するように構成された最終的な完全に接続されたレイヤの前にグローバルプーリングオペレーションを有するエンコーダとしての残差ネットワークを備える請求項9記載の皮膚診断デバイス。
  11. 前記ディープニューラルネットワークは、回帰損失関数と分類損失関数とを組み合わせた複合損失関数でトレーニングされる請求項1から10のいずれかに記載の皮膚診断デバイス。
  12. 前記複合損失関数は、数式2に従い、
    Figure 0007341310000010
    ここで、Lmse、Lce、Lgender及びLethnicityは、それぞれ平均二乗誤差(MSE)、クロスエントロピー誤差(CE)、性別予測および民族性予測関数であり、
    λmse、λce、λgender及びλethnicityは、重み係数である請求項11記載の皮膚診断デバイス。
  13. 前記ディープニューラルネットワークは、ユーザモバイルデバイスからのセルフィー画像を備える顔画像データのデータセットを用いてトレーニングされる請求項1から12のいずれかに記載の皮膚診断デバイス。
  14. 前記ディープニューラルネットワークは、前記ヒートマップを生成するためにクラスアクティベーションマッピング(CAM)技法を適用するように構成される請求項2から13のいずれかに記載の皮膚診断デバイスであって、そのうち請求項3から13は請求項2に従属する皮膚診断デバイス
  15. 前記画像は、ユーザモバイルデバイスからのセルフィー画像を備える請求項1から14のいずれかに記載の皮膚診断デバイス。
  16. パーソナルユースのためのコンピューティングデバイスと、通信ネットワークを介して皮膚診断サービスを提供するサーバとのうちの1つを備える請求項1から15のいずれかに記載の皮膚診断デバイス。
  17. パーソナルユースのための前記コンピューティングデバイスは、スマートフォン、タブレット、ラップトップ、パーソナルコンピュータ、又はカメラを有するか、カメラに結合された他のコンピューティングデバイスのうちの1つを備える請求項16記載の皮膚診断デバイス。
  18. 前記推奨ユニットは、前記皮膚診断に応答して、製品推奨および治療計画推奨のうちの少なくとも1つを取得する治療製品セレクタを提供する請求項3から17のいずれかに記載の皮膚診断デバイスであって、そのうち請求項4から17は請求項3に従属する皮膚診断デバイス。
  19. 前記処理ユニット及び前記記憶ユニットが前記画像を受信するための画像獲得機能を提供するように構成される請求項1から18のいずれかに記載の皮膚診断デバイス。
  20. 前記皮膚状態は、尋常性ざ瘡である請求項1から19のいずれかに記載の皮膚診断デバイス。
  21. コンピュータ実装方法であって、
    皮膚の画像の受信をすることと、
    皮膚状態の皮膚診断およびアクティベーションマスクを作り出して、前記画像に関連して前記皮膚診断を視覚化するように構成されたディープニューラルネットワークによって前記画像を処理することと、
    前記アクティベーションマスク及び前記画像を提示するために提供することと、を備え、
    前記画像を処理することは、
    前記画像から顔領域の矩形を切り取り、顔画像を生成することと、
    前記ディープニューラルネットワークによる処理のためのk個の拡張画像を作り出すように前記顔画像に複数(k)のデータ拡張を実行することと、
    k個のアクティベーションマスクを作り出すように前記ディープニューラルネットワークによって前記k個の拡張画像を処理することと、そこから最終アクティベーションマスクを定義することと、を備え、
    前記k個のアクティベーションマスク及び前記最終アクティベーションマスクは、ヒートマップを備え、
    前記ヒートマップは、前記顔画像にオーバーレイされ、前記顔画像の前記皮膚状態の重症度をその重症度のレベルに合わせて段階的に強調させるために前記顔画像を修正するコンピュータ実装方法。
  22. 前記ディープニューラルネットワークは、Grad-CAM技法を用いて、それぞれのk個のアクティベーションマスクを作り出す請求項21記載のコンピュータ実装方法。
  23. 前記最終アクティベーションマスクは、平均化を用いて前記k個のアクティベーションマスクから定義される請求項21又は22に記載のコンピュータ実装方法。
  24. 閾値は、平均化された前記k個のアクティベーションマスクからの除去値に適用される請求項23記載のコンピュータ実装方法。
  25. kの値が2以上20以下(2≦k≦20)の範囲に設定される請求項21から24のいずれかに記載のコンピュータ実装方法。
  26. 前記k個のデータ拡張を実行する前に、前記皮膚の前記画像を正規化することを備える請求項21から25のいずれかに記載のコンピュータ実装方法。
  27. 前記k個のデータ拡張のそれぞれは、アフィン変換からランダムに選択された1つの拡張と、水平フリップオペレーションと、を備える請求項21から26のいずれかに記載のコンピュータ実装方法。
  28. 前記皮膚診断に応答する製品推奨を提供することを備える請求項21から26のいずれかに記載のコンピュータ実装方法。
  29. 1つ以上の製品を購入するための電子商取引インターフェースを提供することを備え、前記電子商取引インターフェースは、前記製品推奨に応答する請求項28記載のコンピュータ実装方法。
  30. 前記製品推奨は、推奨製品を用いるための治療計画に関連付けられる請求項29記載のコンピュータ実装方法。
  31. 前記ディープニューラルネットワークは、前記皮膚状態について前記画像を分析するように構成される請求項21から30のいずれかに記載のコンピュータ実装方法。
  32. 前記皮膚状態は、尋常性ざ瘡である請求項31記載のコンピュータ実装方法。
  33. 前記ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)を備える請求項21から32のいずれかに記載のコンピュータ実装方法。
  34. 請求項21から33のいずれかに記載のコンピュータ実装方法を実行するように構成する回路を備えるコンピューティングデバイス。
JP2022502098A 2019-07-10 2020-07-09 皮膚分析のための画像処理、皮膚分析を視覚化するためのシステム及び方法 Active JP7341310B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962872347P 2019-07-10 2019-07-10
US62/872,347 2019-07-10
US201962878464P 2019-07-25 2019-07-25
US62/878,464 2019-07-25
PCT/CA2020/050951 WO2021003574A1 (en) 2019-07-10 2020-07-09 Systems and methods to process images for skin analysis and to visualize skin analysis

Publications (2)

Publication Number Publication Date
JP2022540487A JP2022540487A (ja) 2022-09-15
JP7341310B2 true JP7341310B2 (ja) 2023-09-08

Family

ID=74102423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022502098A Active JP7341310B2 (ja) 2019-07-10 2020-07-09 皮膚分析のための画像処理、皮膚分析を視覚化するためのシステム及び方法

Country Status (4)

Country Link
US (1) US11908128B2 (ja)
EP (1) EP3981012A4 (ja)
JP (1) JP7341310B2 (ja)
KR (1) KR20220158218A (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878567B1 (en) * 2019-09-18 2020-12-29 Triage Technologies Inc. System to collect and identify skin conditions from images and expert knowledge
US11657481B2 (en) * 2019-11-18 2023-05-23 Shinyfields Limited Systems and methods for selective enhancement of skin features in images
US11508061B2 (en) * 2020-02-20 2022-11-22 Siemens Healthcare Gmbh Medical image segmentation with uncertainty estimation
CN112837304B (zh) * 2021-02-10 2024-03-12 姜京池 一种皮肤检测方法、计算机存储介质及计算设备
EP4075385A1 (en) * 2021-04-14 2022-10-19 HautAI OÜ Method and system for anonymizing facial images
WO2023063772A1 (ko) * 2021-10-14 2023-04-20 (주)아모레퍼시픽 딥 러닝을 이용한 이미지 분석 기반의 피부 진단 시스템 및 방법
US20230196551A1 (en) * 2021-12-16 2023-06-22 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin roughness
US20230196579A1 (en) * 2021-12-16 2023-06-22 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin pore size
CN115050065B (zh) * 2022-04-26 2024-05-31 杭州海马体摄影有限公司 一种基于曲线的皮肤滤镜建模方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170246473A1 (en) 2016-02-25 2017-08-31 Sava Marinkovich Method and system for managing treatments
US20180289334A1 (en) 2017-04-05 2018-10-11 doc.ai incorporated Image-based system and method for predicting physiological parameters
JP2019512797A (ja) 2016-03-21 2019-05-16 ザ プロクター アンド ギャンブル カンパニー カスタマイズされた製品の推奨を提供するためのシステム及び方法
US10311337B1 (en) 2018-09-04 2019-06-04 StradVision, Inc. Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6571003B1 (en) * 1999-06-14 2003-05-27 The Procter & Gamble Company Skin imaging and analysis systems and methods
SG109450A1 (en) * 2000-04-06 2005-03-30 Ntt Docomo Inc Multicast signal transmission power control method and base station using the same
US7437344B2 (en) * 2001-10-01 2008-10-14 L'oreal S.A. Use of artificial intelligence in providing beauty advice
US6761697B2 (en) * 2001-10-01 2004-07-13 L'oreal Sa Methods and systems for predicting and/or tracking changes in external body conditions
US7324668B2 (en) * 2001-10-01 2008-01-29 L'oreal S.A. Feature extraction in beauty analysis
US7950925B2 (en) * 2004-12-30 2011-05-31 Kimberly-Clark Worldwide, Inc. Interacting with consumers to inform, educate, consult, and assist with the purchase and use of personal care products
SG11201405783VA (en) * 2012-03-17 2014-10-30 Univ California Fast diagnosis and personalized treatments for acne
US20170330264A1 (en) * 2016-05-10 2017-11-16 YOURO, Inc. Methods, apparatuses and systems for computer vision and deep learning
WO2018222808A1 (en) * 2017-05-31 2018-12-06 The Procter & Gamble Company Systems and methods for determining apparent skin age
KR102151710B1 (ko) * 2017-11-06 2020-09-04 주식회사 베이바이오텍 이미지 분석 결과 및 학습된 피부 인식기에 기초하여 피부의 상태를 평가하는 방법 및 프로그램
WO2019108888A1 (en) * 2017-11-30 2019-06-06 The Research Foundation For The State University Of New York SYSTEM AND METHOD TO QUANTIFY TUMOR-INFILTRATING LYMPHOCYTES (TILs) FOR CLINICAL PATHOLOGY ANALYSIS
US10990858B2 (en) * 2018-01-05 2021-04-27 L'oreal Machine-implemented facial health and beauty assistant
US10943156B2 (en) * 2018-01-05 2021-03-09 L'oreal Machine-implemented facial health and beauty assistant
US20190220738A1 (en) * 2018-01-18 2019-07-18 Amit Flank Skin analysis system and method
CN111819632B (zh) * 2018-01-29 2021-09-14 艾托拉皮肤健康公司 用于对个性化护肤产品制定配方的系统和方法
US20210027897A1 (en) * 2018-03-26 2021-01-28 Dermala Inc. Skin health tracker
EP3928327A1 (en) * 2019-02-19 2021-12-29 Johnson & Johnson Consumer Inc. Use of artificial intelligence to identify novel targets and methodologies for skin care treatment
CN111797249A (zh) * 2019-04-09 2020-10-20 华为技术有限公司 一种内容推送方法、装置与设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170246473A1 (en) 2016-02-25 2017-08-31 Sava Marinkovich Method and system for managing treatments
JP2019512797A (ja) 2016-03-21 2019-05-16 ザ プロクター アンド ギャンブル カンパニー カスタマイズされた製品の推奨を提供するためのシステム及び方法
US20180289334A1 (en) 2017-04-05 2018-10-11 doc.ai incorporated Image-based system and method for predicting physiological parameters
US10311337B1 (en) 2018-09-04 2019-06-04 StradVision, Inc. Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Asami Yonekura,Improving the Generalization of Disease Stage Classification with Deep CNN for Glioma Histopathological Images,2017 IEEE International Conference on Bioinformatics and Biomedicine (BIBM),米国,IEEE,2017年11月13日,P.1222-1226
藤井 英明,マルチスペクトル画像を利用した尋常性ざ瘡のステージ毎の抽出,電子情報通信学会技術研究報告 Vol.107 No.461,日本,社団法人電子情報通信学会,2008年01月18日,MI2007-118 (2008-1),P.303-306
高木 純平,自己蒸留によるDNNの蒸留の効率化,電子情報通信学会技術研究報告 Vol.118 No.470 [online],日本,一般社団法人電子情報通信学会,2019年02月25日,NC2018-83 (2019-03),P.209-214

Also Published As

Publication number Publication date
EP3981012A1 (en) 2022-04-13
US11908128B2 (en) 2024-02-20
EP3981012A4 (en) 2023-07-19
US20210012493A1 (en) 2021-01-14
JP2022540487A (ja) 2022-09-15
KR20220158218A (ko) 2022-11-30

Similar Documents

Publication Publication Date Title
JP7341310B2 (ja) 皮膚分析のための画像処理、皮膚分析を視覚化するためのシステム及び方法
US11832958B2 (en) Automatic image-based skin diagnostics using deep learning
US10470510B1 (en) Systems and methods for full body measurements extraction using multiple deep learning networks for body feature measurements
US10496898B2 (en) State detection using machine-learning model trained on simulated image data
US20190392587A1 (en) System for predicting articulated object feature location
JPWO2020113326A5 (ja)
Chen et al. PCAT-UNet: UNet-like network fused convolution and transformer for retinal vessel segmentation
Hsu et al. A deep learning framework for heart rate estimation from facial videos
Wu et al. Anti-jamming heart rate estimation using a spatial–temporal fusion network
US20220108445A1 (en) Systems and methods for acne counting, localization and visualization
Jha et al. Estimation of gaze region using two dimensional probabilistic maps constructed using convolutional neural networks
US20240161497A1 (en) Detection of surgical states and instruments
Fallah et al. An ultra-low-computation model for understanding sign languages
WO2021003574A1 (en) Systems and methods to process images for skin analysis and to visualize skin analysis
CN117242528A (zh) 处理图像以进行皮肤分析和可视化皮肤分析的系统和方法
Zhang et al. A self-supervised learning network for remote heart rate measurement
US20240177300A1 (en) Method, apparatus and system for image-to-image translation
KR20240033858A (ko) 사마귀 또는 티눈 예측에 대한 정보 제공 방법 및 이를 이용한 장치
Grant et al. TCM Tongue Segmentation and Analysis with a Mobile Device
Zhu et al. GAN-BodyPose: Real-time 3D human body pose data key point detection and quality assessment assisted by generative adversarial network
Patel et al. Autonomous diagnosis of pediatric cutaneous vascular anomalies using a convolutional neural network
Moreno et al. Expresso-AI: An Explainable Video-Based Deep Learning Models for Depression Diagnosis
Akshay et al. Skin-Vision: An Innovative Mobile-Based Automated Skin Disease Detection Application
Giavina-Bianchi et al. Explainability agreement between dermatologists and five visual explanations techniques in deep neural networks for melanoma AI classification
CN117036548A (zh) 图形处理方法、装置、计算机设备和认知能力评估装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230512

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230829

R150 Certificate of patent or registration of utility model

Ref document number: 7341310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150