JP6595474B2 - 創傷アセスメントおよびマネジメントのための方法およびシステム - Google Patents

創傷アセスメントおよびマネジメントのための方法およびシステム Download PDF

Info

Publication number
JP6595474B2
JP6595474B2 JP2016536570A JP2016536570A JP6595474B2 JP 6595474 B2 JP6595474 B2 JP 6595474B2 JP 2016536570 A JP2016536570 A JP 2016536570A JP 2016536570 A JP2016536570 A JP 2016536570A JP 6595474 B2 JP6595474 B2 JP 6595474B2
Authority
JP
Japan
Prior art keywords
information
damaged portion
target area
imaging
imaging information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016536570A
Other languages
English (en)
Other versions
JP2017504370A (ja
Inventor
ウー カイル
キム ピーター
チェン パトリック
グーラ オズギュル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Childrens National Medical Center Inc
Original Assignee
Childrens National Medical Center Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Childrens National Medical Center Inc filed Critical Childrens National Medical Center Inc
Publication of JP2017504370A publication Critical patent/JP2017504370A/ja
Application granted granted Critical
Publication of JP6595474B2 publication Critical patent/JP6595474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0073Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Dermatology (AREA)
  • Quality & Reliability (AREA)
  • Epidemiology (AREA)
  • Geometry (AREA)
  • Primary Health Care (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

関連出願の相互参照
本出願は、米国特許法第119条(e)の定めにより、2013年12月3日に出願された米国特許出願第61/911,162号および2014年4月23日に出願された米国特許出願第61/983,022号からの優先権を主張するものであり、各出願の全体の内容をここに参照により援用する。
米国内だけでも数百万人の患者が、静脈性潰瘍、糖尿病性潰瘍、および圧迫潰瘍、外科的創傷、ストーマ創傷および他の複合創傷等をはじめとする慢性創傷および複合創傷に冒されている。米国では年間数十億ドルが慢性創傷の治療に費やされており、そのうち十億ドル以上が創傷ケア製品についてのものである。人口の高齢化および糖尿病・肥満症の発症率の増加に起因して、慢性創傷の治療費は年々増加を続けている。慢性創傷の治療費は、個人および社会にとって非常に大きな経済的負担となっている。
医療技術の進歩はさまざまな種類の創傷に対する新しい治療法の導入に貢献しているが、創傷の深度・体積・面積・周囲長の測定、および創傷の分類等、創傷および創傷治癒経過の正確かつ客観的なアセスメントについて満たされていない大きな要求がある。創傷治癒経過の客観的なアセスメントは、治療の方向性の有用性判断の基準となるものであり、最適な治療計画を選択する上で重要である。しかしながら、臨床の現場においては、そのような測定値は一般に不正確であり、主観的であり、また整合性がない(定規、透過性透写、および深度については綿棒を使って手作業で行われる)。規格と信頼性が欠如しているため、医学的意思決定のための臨床業務に各測定値を適用するのは困難な場合が多い。さらに、創傷アセスメントにおいてそのような非整合性があると、遠隔管理または集学的な創傷ケアの協調連携も実施が困難となる。この問題を解決するため、立体照明およびステレオ撮影を用いた、創傷治療器具が数多く開発されてきた。しかしながら、これらのシステムには、特殊/高価な機器が必要であり、使用が難しく、医療記録管理システムとの統合性に欠け、また総じて創傷の正確な査定には非効率的である。その結果、これらの各創傷治療器具は、治療の現場において実用的でない。
創傷および他の多くの疾病管理の分野(限定はしないが、皮膚科学、美学、化粧品、腫瘍学、眼科学、耳鼻咽喉学等を含む)における別の満たされていない要求とは、視覚的および他のマルチメディア情報を管理するための効率的で安全な協調的システムに対する需要の増大である。
本明細書における「背景技術」の記載は、本開示の背景事情をおおまかに提示することを目的とするものである。ここに挙げた発明者らの研究は、この背景技術の箇所に記載されている限りにおいて、および記載の各態様は、出願時における先行技術と認められない限りにおいて、本発明に対する先行技術であると明示的または黙示的に認めるものではない。
一実施形態による系統図の例を示す図である。 一実施形態による系統図の別の例を示す図である。 一実施形態による、撮像センサおよび構造センサから取得した情報を用いてサーバが実行する処理の概略図である。 二次元画像情報を用いた創傷セグメンテーションのプロセスを示すフロー図である。 一実施形態による、創傷に対応する前景エリアおよび背景エリアを指定した創傷の一例を示す図である。 一実施形態による、具体的実施例を示す図である。 構造センサデータおよび取得したセグメント化画像から三次元測定値を算出するプロセスを示すフロー図である。 撮像センサを用いた、構造センサのキャリブレーションの例を示す図である。 前景マスクを深度データに適用して、エリア内の深度情報のみを取得するようにした状態を示す図である。 創傷内の組織を分類するプロセスを示す図である。 手動セグメンテーションと自動セグメンテーションとの比較を示す図である。 一実施形態によるシステムインタフェースの例を示す図である。 一実施形態による演算システムの一例を示す図である。
本明細書に開示の各実施例およびそれらに付随する多くの利点については、以下の詳細な説明を添付の図面との関連を考慮して参照することにより理解が深まるにつれて、より包括的な理解を容易に得ることができるようになる。
本開示は、医学的損傷の特徴を測定するシステムについて説明する。本システムは、関心(対象)エリアの撮像情報およびトポロジ情報を取得する1つ以上の撮像センサと、回路と、を備え、該回路は、対象エリアの撮像情報内における損傷部分の境界を定め、撮像情報とトポロジ情報とを相関させ、撮像情報内において指定した損傷部分の境界をトポロジ情報に適用してマスクエリアを指定し、およびトポロジ情報および撮像情報に基づいて、マスクエリア内における損傷部分の特徴を測定するように構成する。
本システムのさらなる実施形態において、回路は、さらに、
対象エリアの撮像情報から、対象エリアの代表的な背景部分を指定し、
対象エリアの撮像情報から、対象エリアの代表的な損傷部分を指定し、および、
指定した代表的な背景部分および損傷部分に基づいて、対象エリアの撮像情報内における損傷部分の境界を定めるように構成する。
本システムのさらなる実施形態において、回路は、さらに、ユーザ入力または画素特性の差異に基づいて、対象エリアの撮像情報から対象エリアの代表的な損傷部分を指定するように構成する。
本システムのさらなる実施形態において、回路は、さらに、撮像情報に基づいてマスクエリア内の損傷部分を分類するように構成する。
本システムのさらなる実施形態において、回路は、さらに、損傷部分をタイル状に分割することによりマスクエリア内の損傷部分を分類して、各タイルの撮像値についての中心傾向の測度を算出し、かつ、あらかじめ訓練した分類器によって生成した損傷タイプ情報を用いて各タイルを分類するように構成する。
本システムのさらなる実施形態において、損傷タイプ情報には、健康組織、スラフ(壊死)組織、エスカー(痂皮)組織が含まれる。
本システムのさらなる実施形態において、あらかじめ訓練した分類器はサポートベクターマシンであり、このサポートベクターマシンは、一連の注釈付き画像について、各画像をタイル状に分割して各タイルの撮像値について中心傾向の測度を算出し、損傷のタイプによって各タイルを指定するように構成した回路を用いて損傷タイプ情報を生成する。
本システムのさらなる実施形態において、マスクエリア内における損傷部分の特徴は、損傷の深度、幅、および長さを含む。
本システムのさらなる実施形態において、マスクエリア内における損傷部分の特徴は、損傷の周囲長、面積、体積を含む。
本システムのさらなる実施形態において、回路は、自動画像セグメンテーションアルゴリズムを利用して、対象エリアの撮像情報内における損傷部分の境界を定めるように構成する。
本システムのさらなる実施形態において、回路は、対象エリアの代表的な損傷部分のコンター(contour、輪郭)を検出することにより、対象エリアの撮像情報内における損傷部分の境界を定めるように構成する。
本システムのさらなる実施形態において、回路は、対象エリアの代表的な損傷部分のコンターを検出し、すべてのコンターを反復処理することにより、対象エリアの撮像情報内における損傷部分の境界を定めるように構成する。
本システムのさらなる実施形態において、医学的損傷は創傷である。
本開示は、さらに、医学的損傷の特徴を測定する装置について説明する。本装置は、対象エリアの撮像情報内における損傷部分の境界を定め、1つ以上の撮像センサによって取得した撮像情報とトポロジ情報とを相関させ、撮像情報内において指定した損傷部分の境界をトポロジ情報に適用してマスクエリアを指定し、およびトポロジ情報および撮像情報に基づいて、マスクエリア内における損傷部分の特徴を測定するように構成した回路を備える。
本装置のさらなる実施形態において、回路は、さらに、対象エリアの撮像情報から、対象エリアの代表的な背景部分を指定し、対象エリアの撮像情報から、対象エリアの代表的な損傷部分を指定し、および、指定した代表的な背景部分および損傷部分に基づいて、対象エリアの撮像情報内における損傷部分の境界を定めるように構成する。
本装置のさらなる実施形態において、回路は、さらに、ユーザ入力または画素特性の差異に基づいて、対象エリアの撮像情報から対象エリアの代表的な損傷部分を指定するように構成する。
本装置のさらなる実施形態において、回路は、さらに、撮像情報に基づいてマスクエリア内の損傷部分を分類するように構成する。
本装置のさらなる実施形態において、回路は、さらに、損傷部分をタイル状に分割することによりマスクエリア内の損傷部分を分類して、各タイルの撮像値についての中心傾向の測度を算出し、かつ、あらかじめ訓練したサポートベクターマシンによって生成した損傷タイプ情報を用いて各タイルを分類するように構成する。
本装置のさらなる実施形態において、損傷タイプ情報には、健康組織、スラフ(壊死)組織、エスカー(痂皮)組織が含まれる。
本装置のさらなる実施形態において、あらかじめ訓練したサポートベクターマシンは、一連の注釈付き画像について、各画像をタイル状に分割して各タイルの撮像値について中心傾向の測度を算出し、損傷のタイプによって各タイルを指定するように構成した回路を用いて損傷タイプ情報を生成する。
本装置のさらなる実施形態において、マスクエリア内における損傷部分の特徴は、損傷の深度、幅、および長さを含む。
本装置のさらなる実施形態において、マスクエリア内における損傷部分の特徴は、損傷の周囲長、面積、体積を含む。
本装置のさらなる実施形態において、回路は、グラブカットアルゴリズム(grab cut algorithm)を利用して、対象エリアの撮像情報内における損傷部分の境界を定めるように構成する。
本装置のさらなる実施形態において、回路は、対象エリアの代表的な損傷部分のコンターを検出することにより、対象エリアの撮像情報内における損傷部分の境界を定めるように構成する。
本装置のさらなる実施形態において、回路は、対象エリアの代表的な損傷部分のコンターを検出し、すべてのコンターを反復処理することにより、対象エリアの撮像情報内における損傷部分の境界を定めるように構成する。
本装置のさらなる実施形態において、医学的損傷は創傷である。
本開示は、また、医学的損傷の特徴を測定する方法について説明する。本方法は、処理回路を用いて、対象エリアの撮像情報内における損傷部分の境界を定めるステップと、
処理回路を用いて、1つ以上の撮像センサによって取得した撮像情報とトポロジ情報とを相関させるステップと、
処理回路を用いて、撮像情報内において指定した損傷部分の境界をトポロジ情報に適用してマスクエリアを指定するステップと、および、
処理回路を用いて、トポロジ情報および撮像情報に基づいて、マスクエリア内における損傷部分の特徴を測定するステップと、を含む。
本方法のさらなる実施形態において、本方法は、対象エリアの撮像情報から、対象エリアの代表的な背景部分を指定するステップと、
対象エリアの撮像情報から、対象エリアの代表的な損傷部分を指定するステップと、および、
指定した代表的な背景部分および損傷部分に基づいて、対象エリアの撮像情報内における損傷部分の境界を定めるステップと、をさらに含む。
本方法のさらなる実施形態において、本方法は、ユーザ入力または画素特性の差異に基づいて、対象エリアの撮像情報から対象エリアの代表的な損傷部分を指定するステップをさらに含む。
本方法のさらなる実施形態において、本方法は、撮像情報に基づいてマスクエリア内の損傷部分を分類するステップをさらに含む。
本方法のさらなる実施形態において、本方法は、損傷部分をタイル状に分割することによりマスクエリア内の損傷部分を分類して、各タイルの撮像値についての中心傾向の測度を算出し、かつ、あらかじめ訓練したサポートベクターマシンによって生成した損傷タイプ情報を用いて各タイルを分類するステップをさらに含む。
本方法のさらなる実施形態において、損傷タイプ情報には、健康組織、スラフ(壊死)組織、エスカー(痂皮)組織が含まれる。
本方法のさらなる実施形態において、あらかじめ訓練したサポートベクターマシンは、一連の注釈付き画像について、各画像をタイル状に分割して各タイルの撮像値について中心傾向の測度を算出し、損傷のタイプによって各タイルを指定するように構成した回路を用いて損傷タイプ情報を生成する。
本方法のさらなる実施形態において、マスクエリア内における損傷部分の特徴は、損傷の深度、幅、および長さを含む。
本方法のさらなる実施形態において、マスクエリア内における損傷部分の特徴は、損傷の周囲長、面積、体積を含む。
本方法のさらなる実施形態において、本方法は、グラブカットアルゴリズム(grab cut algorithm)を利用して、対象エリアの撮像情報内における損傷部分の境界を定めるステップをさらに含む。
本方法のさらなる実施形態において、本方法は、対象エリアの代表的な損傷部分のコンターを検出することにより、対象エリアの撮像情報内における損傷部分の境界を定めるステップをさらに含む。
本方法のさらなる実施形態において、本方法は、対象エリアの代表的な損傷部分のコンターを検出し、すべてのコンターを反復処理することにより、対象エリアの撮像情報内における損傷部分の境界を定めるステップをさらに含む。
本方法のさらなる実施形態において、医学的損傷は創傷である。
ここで図面を参照する。いくつかの図面を通して、同様の参照符号は同一または対応する部分を示す。図1に、慢性および複合創傷の体積評価用のシステムを示す。慢性および複合創傷の例としては、限定はしないが、圧迫潰瘍、糖尿病性潰瘍、動脈不全潰瘍、静脈鬱血潰瘍、および火傷創傷等が挙げられる。慢性創傷は、多くの場合、常時モニタリングして注意を払う必要がある。従来の二次元カメラ単体により得られる視覚的情報のほか、三次元表面データの臨床的重要性は特に高い。よって、モバイル機器、構造センサ機能を有する特殊カメラ、クラウド/ネットワーク構造等を用いて臨床データおよび画像を撮影し、分析し、送信することにより、従来技術は大幅に改善しうる。本実施形態は、上記の部品を組み込むことにより、創傷予防および治療を目的として、臨床情報を取り込み、評価し、文書化し、通信する完全なプラットフォームを提供するものである。
図1に、一実施形態による系統図を示す。図1に含まれるモバイル機器1には、二次元撮像センサ2および構造センサ3を取り付け/接続するか、または、内蔵する。本実施形態はモバイル機器1に限定されず、センサ2、3とネットワーク20との間で情報を送信可能な演算装置であればよい。モバイル機器1はネットワーク20を介してサーバ10に接続される。また、サーバ10はポータル11およびインフォマティクス12に接続される。
モバイル機器1は、セルラー式/ワイヤレス式の携帯機器であり、データ処理能力を有し、撮像センサ2を介した二次元写真撮影機能が内蔵されている。モバイル機器1は、タッチスクリーン、スタイラス、マウス、キーボード、またはその他の入力手段によるユーザインタラクションを備えていてもよい。モバイル機器1は、モバイル機器1に入出力ポート(例えば、USBポート)を介して、またはその他の接続方法、例えばブルートゥースまたは近距離無線通信(「NFC」)等を介してモバイル機器1に接続した構造センサ3との接続を介した(三次元)構造検知機能を有してもよい。モバイル機器1としては、アップルコンピュータ社のiPad(商標)またはサムソン社のGalaxy Tab(商標)または、入出力機能を有する任意の他の好適なモバイルまたはタブレット機器とすることができる。
撮像センサ2は、モバイル機器1に内蔵または包含したデジタルCCDセンサであればよく、例えばアップルコンピュータ社のiSightカメラ(商標)等が挙げられる。撮像センサ2は、任意の好適な解像度(例えば、640×480解像度等)を有することができ、任意の好適な画素数(例えば8メガピクセル等)を有しうる。しかしながら、二次元カメラを用いた創傷の測定においては、スケーリング情報および歪み補正が欠如することが問題となる。実際には、撮影対象と同じシーンに、撮影者等が参照オブジェクト(定規、またはあらかじめ寸法がわかっているオブジェクト、例えば硬貨等)を配置して、後から測定値を導出できるようにすることが多い。しかしながら、この方法では、カメラが測定面について垂直であることが要求され、煩雑であり精密さを欠く。しかしながら、この問題の解決のため、いくつかの手法が開発されてきた。例えば、構造センサ3を設けて、撮像センサ2とともに用いる実施形態、および、構造センサ3を設けず、撮像センサ2からの情報とともにオンスクリーンガイドを用いてスケーリング情報を提供し歪み補正を行う実施形態等が挙げられる。
構造センサ3は、オクシピタル社が開発したオクシピタル構造センサ(商標)等の三次元撮像センサとすることができる。撮像センサ2と構造センサ3の空間的相関関係は既知であるため、撮像センサ2で撮像した二次元画像を、構造センサ3によって取得した三次元構造データにマッピングすることができる。よって、創傷の情報を得る際には、撮像センサ2および構造センサ3の両方で画像を取得する。代替的な実施形態において、構造センサ3のみ、または撮像センサ2のみから、撮像情報を得てもよい。
構造センサ3によれば、さらなる特殊装置または煩雑な工程を何ら必要とせずに、モバイル機器1を用いた正確な三次元測定が可能となる。構造センサ3は、ブラケットを用いてモバイル機器1に装着してもよい。構造センサ3はオクシピタル構造センサ(商標)を用いて実装されるほか、三次元ステレオカメラとしても実装しうる。代案として、構造センサ3は、既存のモバイル機器と並行に使用して立体画像を撮影可能な装置であってもよく、既存のカメラとともに用いて立体照明を生成可能な装置(例えば、J. Ryan Kruseによる「手持ち式携帯電話用の三次元スキャナ(three-dimensional scanner for hand-held phones)」、米国特許出願第20120281087号等の教示によるもの)であってもよく、小型レーザレンジスキャナであってもよく、または、モバイル機器1と並行して用いて創傷部位の三次元情報を取得可能な任意の潜在的な装置であってもよい。
構造センサ3は、例えば、ブラケットを用いてモバイル機器1に装着してもよい。代案として、構造センサ3は、外付けであってもよく、モバイル機器1に接続されていなくてもよい。
撮像センサ2および構造センサ3を用いて画像情報および三次元情報を得ようとする場合、画像を得ようとするユーザが望み得る最良の画像を撮影できるように導くオンスクリーンガイドを設けることができる。オンスクリーンガイドは、ユーザが画像を撮影しようとしているときに表示することができ、装置が撮像に最適な位置にあるかどうかについてユーザに注意喚起する。加えて、オンスクリーンガイドは、照明効果および傾きについての情報のほかに、例えばさらに上下左右に動かすようユーザを導くことができる。
撮像センサ2および構造センサ3によって得られた二次元視覚情報および三次元測定値に加え、他の生理学的な情報も臨床診断においては重要である場合がある。当該他の生理学的な情報は、モバイル機器1と追加的な装置を一緒に用いて測定してもよい。たとえば、近赤外熱撮像を用いれば、感染を示す熱を検出することが可能となり、ハイパースペクトル撮像方法をモバイルプラットフォームに適用すれば、組織潅流および壊死を測定することが可能となり、センサを用いれば、臭気を検出して記録することが可能となり、また、他の化学センサまたは細菌検出器を現行のモバイルプラットフォームと並行して用いることができる。これらの追加センサは、構造センサ3と同一の付属装着内に備えてもよく、または、別の構造物として実装してもよい。各追加センサは、有線または無線通信を介してモバイル機器1に接続する外部機器等として実装してもよい。
サーバ10は、医師のオフィス内または病院内でローカルに実装してもよく、アマゾン(商標)AWS等のクラウドサービスを実施するサーバを介してクラウド内に実装してもよい。個人的な医療情報を扱うサーバはいずれもHIPAAに準拠するセキュアサーバとして実装しうる。HIPAA準拠サーバとは、1996年の健康保険の携行性と責任に関する法律(Health Insurance Portability and Accountability Act of 1996(HIPAA);Pub.104〜191、110行、Stat.1936年、1996年8月21日制定)に準拠するものである。当該サーバは、創傷に関する情報を格納したデータベースを含んでもよく、またはそのようなデータベースに接続してもよい。サーバ10は、モバイル機器1が取得した情報を分析する処理を行うことができる。この処理を以下に詳述する。
サーバ10はプラクティショナーポータル11と接続し、患者の創傷に関する情報をプラクティショナーに提供するように設計する。創傷情報は、プラクティショナーが既に有している患者についての電子カルテ(electronic health record)と組み合わせて統合することができる。
インフォマティクス12は、アクセス対象のデータベースにおいて匿名の臨床データへの経路を提供して、臨床研究および健康情報学を支援して創傷ケアを向上する。
図2は、一実施形態によるシステムのフロープロセスを示す図である。本プロセスにおいて、モバイル機器1によって患者の画像を撮影することにより画像情報を生成する。この情報は、前述したように、撮像センサ2および構造センサ3または他のセンサ等からの情報を含んでもよい。
モバイル機器1および関連する撮像センサ2および構造センサ3の機能を用いて、モバイル機器1により創傷の二次元および三次元情報を取り込む。以下の表1に、構造センサ3によって取得した三次元測定値の例を示す。
プラクティショナー5は、モバイル機器1を介して情報を入力し、患者4から得られた撮像情報を増大する。代替的な実施形態において、プラクティショナー5はモバイル機器1とは別の、撮像情報を取り込むインタフェースを介して情報を入力することができる。
表2に、プラクティショナー5から取得した、関連臨床的パラメータの例を示す。
表1および表2に含まれる情報は、モバイル機器1(または他の機器)からサーバ10に転送され、サーバ10は、当該データを、あらかじめ作成した創傷パラメータとともにデータベースに格納する。そして、転送されたデータに基づき画像分析を行う。この画像分析は、サーバ10において行うこともでき、または、代替的な実施形態において、モバイル機器1上でローカルに行うこともできる。
図3は、撮像センサ2および構造センサ3から取得した情報を用いてサーバが実行する処理の概略図である。特に、二次元画像情報を用いて創傷セグメンテーションを行って創傷境界情報を求め、その結果を、計算により求めた三次元メッシュ情報と組み合わせる。よって、二次元画像においてセグメント化した創傷境界を三次元空間にマッピングすることができ、三次元構造データから三次元測定値を算出することができる。サーバ10は、撮像センサ2からの撮像データまたは構造センサ3からの三次元データを用いて処理を行うことに限定されない。サーバ10は、また、保存画像または遠隔取得されてサーバ10に転送された画像を用いて処理を行ってもよい。上述したように、画像処理はモバイル機器1上で行ってもよく、この場合、画像の取得には、内臓カメラを用いてもよく、インターネット(専用サーバ)から画像をダウンロードしてもよく、または、USBインタフェース等の入出力インタフェースを介して入手可能であれば、USBフラッシュドライブを用いてもよい。
図4は、二次元画像情報を用いた創傷セグメンテーションのプロセスを示すフロー図である。画像セグメンテーションは、半自動的なアルゴリズムを用いて行う。画像の処理とは、画像セグメント化プロセス中のユーザまたはプラクティショナーによるインタラクションを含んでもよい。代案として、ユーザインタラクションなしに各プロセスを行うことにより、図4に記載したユーザ入力をすべて自動予測または自動入力により置き換えうるようにしてもよい。
ステップS100において、サーバ10またはモバイル機器1において二次元画像情報を取得する。ステップS101において、取得した画像をスケーリングする。演算時間は画像の大きさによって決まるため、画像を縮小して、セグメンテーションを確実に「リアルタイム」(実行中)で行えるようにする。ステップS102において、取得した画像をトリミングし、トリミングしたエリアを保存する。特に、創傷をさらに詳しく調べるため、システムは画像を(例えば2倍に)拡大して画像中央における既定の領域に焦点を合わせる。これは、画像の略中央に創傷が配置されるであろうことを想定している。画像の見えない部分がトリミング領域を画定する。代案として、例えば、創傷が画像の中央にない状況においては、システムはトリミング工程において創傷検出ステップを含んで創傷の位置を検出しうる。ステップS103において、関心(対象)領域(ROI)を画定する矩形を用いてグラブカットアルゴリズムを初期化する。ROIは、境界から20画素分をオフセットすることにより画定する。代案として、ROIは、任意の数の種々の形状または創傷の位置として、または境界からのオフセットした任意の数の画素として画定しうる。
ステップS104において、取得した画像およびセグメンテーションについての方向をユーザに提示する。具体的には、トリミングして拡大した画像をユーザに提示する。ユーザは、まず、タッチスクリーン上の自分の指またはスタイラスペン、マウスまたはタッチパッドを用いて、オブジェクトの一部または背景の一部、またはその逆を指し示す。よって、創傷(前景エリア)および背景は、ユーザインタラクションにより特定される。図5は、創傷に対応する前景エリア51および背景エリア50をユーザにより指定した、例示的な創傷を示す図である。図5に示すように、エリア53は背景エリアとして指定されており、当該エリアが創傷の一部として検出されないようにしている。しかしながら、代替的な実施形態においては、画像の中央からの距離、および画像中の他の創傷の存在、および/または各創傷間の相対的大きさに基づいて、システムがこのエリアを主創傷から識別する。先に述べたように、画像の前景および背景部分の検出は、サーバ10またはモバイル機器1にて自動で行ってもよい。創傷の形状、色、場所、患者の位置、画像中の他の画像(毛布、手、等)は多様であるため、創傷の検知は困難な作業であり、画素領域を創傷または非創傷と分類できるようになる境界検出方法または機械学習方法で創傷の均一性を評価するグラブカットアルゴリズム等のスマートなアルゴリズムを必要とする。いずれの方法も、ユーザインタラクションなしで自動的に作用して初期成果を提供するように調整可能である。創傷のセグメント化には固有の難しさがあるため、セグメンテーションプロセスにおいて、ユーザにより実行可能な後処理であって、アンダーセグメンテーションおよび/またはオーバーセグメンテーションを修正可能な後処理、または別のアルゴリズムにより実行可能な後処理が要求されることが多い。
ここで、創傷画像のセグメンテーションを自動で行う2つの例示的なアルゴリズムについて説明する。他のアルゴリズムを使用することもできる。第1の例示的なアルゴリズムはグラブカットに基づくものであり、ユーザは創傷を見て矩形を画像中央に重ねる。ユーザは、その矩形の中に創傷を位置合わせして撮像を行うよう求められる。矩形の外側にあるものはすべて背景とみなされ、矩形の内側にあるものはすべて背景または前景となる可能性があるとされる。グラブカットアルゴリズムの初期化後、初期成果が自動的に算出されユーザに示されることになる。
第2の例示的なアプローチは、機械学習に基づくものであり、システムは、数百枚の画像から、皮膚、手、または他のオブジェクトを背景技術と学習し、粒状組織、エスカー組織のスラフ等を前景と学習することが要求される。機械学習アルゴリズムを訓練した後、新規の画像をタイル状に分割して、背景または前景として分類する。
これらの例示的なアプローチのいずれによっても、ユーザは最終的な誤差を修正してセグメンテーションを後から調整することも可能な状態となる。
オブジェクト(前景)および背景それぞれの画定後または画定に応じて、さらなる画像処理が自動的に開始する。代案として、指定が完了したという指示がユーザにより与えられた後、さらなる画像処理を行う。
ステップS105においてさらなる画像処理が開始し、前景画定域(foreground definition)内の中央画素位置を取得する。グラブカットアルゴリズムにより、いくつかの非連続したパッチを創傷として検出することができる。ユーザがある領域を創傷と定義するときは、この領域を創傷としてセグメント化し、それによってこの領域内の1画素を前景として使用するというユーザの意図を示す。そして、システムにより各創傷パッチをそれぞれ反復処理(iterate)して、前景画素を含んでいないパッチを除外する。コンターが1つ以上あったかどうかによって、ステップS107後に反復処理を開始する。
ステップS106において、出力マスクを前景画素についてフィルタリング(選別)する。各反復処理の後、グラブカットアルゴリズムにより、背景を0、前景を1、背景らしきものを2、前景らしきものを3、と定義するマスクを出力する。このマスクを前景画素のみについて選別する。その他の割り当て(0、2、3)はすべて0で置換する。その結果、前景画素について1、背景画素について0を含むバイナリマスクとなる。
ステップS107において、前景マスク中のコンターを検出し、前景マスク中にコンターが1つ以上あるかどうかを判定する。コンターが1つ以上あった場合、ステップS109において、システムはすべてのコンター上を反復処理して、各コンターが前景画素を含むかどうかを検出する。上述したように、セグメンテーション反復処理を1回行った結果、画像上にいくつかの前景パッチが生じる。ステップS107において、バイナリマスクを用いて各パッチのコンターを検出する。ステップS109において、前景画素が各コンターのうちの1つの内部にあるかどうか判定し、もしコンター内にあれば、このコンターを対象の創傷と定義し、一方、もしコンター内に前景画素がなければ、このエリアは創傷ではないと判定する。
前景画素を含まない各コンターについて、ステップS111において当該コンターに背景値を書き込む。ステップS112に進むコンターが1つのみとなるように、システムは、修正されたバイナリマスクにおいて、コンターを再度検出し、各コンター上を反復処理することにより追加のコンターがあれば対処する。コンターが1つだけになったら、フローはステップS112に進む。
ステップS112において、グラブカットアルゴリズムの次の反復処理を行う。このプロセスにより、隆起したポリゴンのオーバーレイ(prominent polygon overlay)を用いてオブジェクトの境界を描く初期セグメンテーションを生成する。
ステップS113において、ユーザが結果に満足しているかを判定する。満足していなければ、フローはステップS104に戻り、それによってユーザは、オブジェクト、背景、またはその両方についての追加の指示を用いることにより、セグメンテーションを納得いくまでさらに精密に行うことができる。
ステップS114においては、保存したトリミングエリアを用いて、結果画像を逆トリミングする。結果画像をセグメント化画像として出力する。
この半自動的なセグメンテーションアルゴリズムは、本明細書において参照として援用するCarsten Rothe、Vladimir Kolmogorov、およびAndrew Blake、2004年、「グラブカット」:反復グラフカットを用いた双方向前景抽出(interactive foreground extraction using iterated graph cuts)、In ACM SIGGRAPH 2004 Papers (SIGGRAPH '04)、Joe Marks (Ed.). ACM、New York, NY,米国、309〜314. DOI=10.1145/1186562.1015720、または、例えばグラブカットアルゴリズム等の別のセグメンテーションアルゴリズムに記載されるようなグラブカットアルゴリズムを用いて実装することができる。本プロセスにおいて、ユーザは、タッチスクリーン上で指をスワイプさせる簡単な動作を用いて、創傷エリアおよび非創傷エリアについてのシード領域を特定する。セグメンテーション結果はリアルタイムで表示し、ユーザは、自由裁量で、必要に応じてセグメンテーションを微調整する。このアルゴリズムは、最小限の指示監視で非常に高速な実施ができる。
検証用の種々の創傷画像60枚を用いて、画像セグメンテーションの有効度の例示的な証拠を得た。5人の臨床医に、Matlabプログラムを実行するWindowsタブレット端末上でスタイラスを用いて創傷境界をなぞるように頼んだ。この結果を、正規化した重複スコア(normalized overlap score)を用いて、本発明の創傷境界セグメンテーションプロセスと比較した。図6に示すように、本発明のセグメンテーションアルゴリズムの実施と、専門家の手動によるセグメンテーションとは、非常に良好に重複した(重複スコア90%前後)。また、本アルゴリズムにより、作業時間が約40秒から4秒未満に減少した。
図7に、構造センサ3のデータおよび図4に示すプロセスから取得したセグメント化画像から三次元測定値を算出するプロセスを示すフロー図を示す。構造センサ3のデータは、医学的損傷(創傷)についての情報を提供するトポロジ情報である。特に、二次元カラー画像において創傷境界がセグメント化されたら、このセグメンテーションを三次元区間にマッピングすることができ、三次元創傷モデルの抽出が可能となる。ポイントクラウド(点群)に主成分分析(Principal Component Analysis(PCA))を適用して幅および長さ等の寸法を算出することができる。代案として、創傷を囲む最小面積の回転矩形を見つけることができる。この矩形の幅および長さにより、創傷の範囲すなわち幅と長さをそれぞれ画定する。周囲の長さは、創傷境界を描く線分を付加することにより算出できる。面積、体積、深度については、まず、三次元創傷モデルに近似適合する放物面を用いて基準面を作成する。この基準面は、周囲の体曲率の解剖学上の形状に沿うものであり、創傷のない正常な皮膚がどのようなものかを表している。創傷の面積は、周囲を創傷境界で囲まれた基準面の表面積として算出することができる。体積は、基準面および創傷表面によってカプセル化した空間であり、深度は、これら2つの面の最長距離である。これらの自動化アルゴリズムは、例えば、OpenCVにおいて実装することができる。
別の重要な態様として、構造センサ3と撮像センサ2との位置合わせが挙げられる。一実施形態において、これら2つのセンサは取り付けブラケットが固定であるため、両センサ間に固定型6DOF変換(rigid 6DOF transform)を有する。本実施形態においては、OpenCVに見られるような、チェス盤ターゲットおよびステレオキャリブレーションアルゴリズムを用いて変換を判定する。判定を行うには、構造センサ3に対してはゼロディストーションモデル、撮像センサ2についてはディストーション・偏心モデルをそれぞれ用いて、個々のセンサをキャリブレートする。そして、内的センサパラメータ(焦点距離を含む)がすべて固定した状態で、OpenCVstereoCalibrate機能等のステレオキャリブレーション機能を用いて、2つのセンサ間における外的変換を算出する。図8に示すように、両センサは同一の平面表面を観測するので、独自のRGBカメラを有するKnect深度カメラと同様の、外部キャリブレーションが可能となる。代案として、深度カメラを有するカラーカメラの自動キャリブレーション法を用いることができる。良好なキャリブレーションにより、カラー画像中のセグメント化した創傷境界を三次元構造データ上により正確にマッピングでき、正確な創傷寸法が算出できる。
図7のステップS200において、構造センサ3および前景マスクにより取得した、セグメント化画像に対応する深度マップを取得する。前景マスクはカラー画像と同じ大きさのバイナリ画像であるが、創傷に属する画素に1、そうでない画素(背景)に0を割り当てることにより、創傷を前景として符号化する。
ステップS201において、すべての深度マップを統合して一つの深度マップにする。このステップを行うことにより、均一な深度マップを得ることができる。特に、深度マップにはノイズが非常に多いため、深度マップ中の一部の深度値が欠落している。いくつかの連続した深度マップを保存することにより、それら深度マップをすべて集約して一つの深度マップにすることによってその欠落部分を補充することが可能である。このステップにより欠落している深度値の大部分は減少するが、それでもなお欠落部分の一部が残ってしまうことがある。ステップS202では、近隣画素の深度値を用いて欠落部分を補充する別の方法を適用する。
ステップS202において、近隣値からの補間により、欠落している深度情報をすべて補充する。
ステップS203において、前景マスクに代表される、エリア内の深度情報を用いて、さらなる処理を行う。例えば、図9に示すように、前景マスク32を深度データに適用してエリア内の深度情報のみを取得する。
ステップS204において、深度マップおよび構造センサ3に固有のパラメータを用いて、二次元画像空間における画素位置をカメラ空間内の対応する三次元座標に変換する。
ステップS205において、前景マスク内のコンターを定め、ステップS206において、定めたコンターを三次元空間に投影することにより、周囲長を算出する。この周囲長は外傷境界の全長(円の周囲と同様)であるが、ただし三次元空間におけるものである。
ステップS207において、最小包含矩形を三次元空間に投影し、創傷の長さと幅を算出する。よって、ステップS206では、創傷の周囲長を算出し、ステップS207では、創傷の最大長さおよび幅を算出する。
ステップS208において、セグメンテーション(前景マスク)を三次元空間に投影して、面積を算出する。
ステップS209において、放物線形状を適合して、コンター深度情報を用いて表面を評価する。
ステップS210において、創傷内の最深点を算出し、ステップS211において、創傷の体積を算出する。
ステップS212において、先行する各ステップにおいて求めた、創傷の幅、長さ、周囲長、面積、体積、深度(最深)およびセグメンテーションを出力する。
サーバ10は、また、創傷組織分類処理を行ってもよい。代案として、この処理はモバイル装置1においても実行しうる。図10に、創傷中の組織を分類するプロセスを示す。このプロセスにおいて、創傷境界を抽出した後、創傷組織を、粒状組織、および/またはスラフ組織、および/またはエスカー組織に分類することができる。タイルベースの多クラスSVM(サポートベクターマシン)分類器を用いればこの作業を自動化することができる。SVMは、数百枚の種々の創傷画像100枚について訓練してもよく、それぞれについて数百枚のタイルを与えて分類器に各特徴を学習させる。クロス確認およびグリッドサーチを用いて、学習プロセスおよび一般化の質を最適化することができる。実験的試験によれば、図11に示すように、手動セグメンテーションと自動セグメンテーションとの間には良好な重複(重複スコア80%超)があった。本図において、図11Aは創傷の原画像を示し、図11Bは分類アルゴリズム出力を用いた重畳を示し、図11Cは粒状組織についての自動分類を示し、図11Dは、スラフ組織についての自動分類を示す。図11Eは、専門家による粒状組織についての手動分類を示し、図11Fは、専門家によるスラフ組織についての手動分類を示す。
図10のステップS300において、撮像センサ2によって取得したカラー画像を、前景マスクとともに取得する。
ステップS301において、前景マスクに対応するカラー画像のエリア内の色情報を取得する。
ステップS302において、マスクを有する色情報を、正方形タイル等のタイル状に分割する。他のタイル形状を用いてもよい。ステップS303において、各タイルについて特徴を算出する。この特徴は抽出要素である。特に、一実施例において、ある画像がRGBカラー形式で与えられた場合、画像をRGBからHSV、LAB,および/またはグレースケール形式に変換して、次のような特徴、すなわち:a)各タイルにおける、H値、S値それぞれの平均偏差および標準偏差;b)各タイルにおけるL値、A値、およびB値それぞれの平均偏差および標準偏差;およびc)グレー値それぞれの平均偏差および標準偏差を抽出する。ステップS304において、訓練されたサポートベクターマシンを用いて各タイルを分類する。この訓練プロセスをステップS400〜S406に示す。
ステップS400において、創傷中の健康組織、スラフ組織、および/またはエスカー組織のエリアに注釈を付けた一連の画像を取得する。次に、ステップS401において、これらの画像をさらに処理し、注釈付きエリア内の各色情報がそれぞれの注釈とリンクするようにする。ステップS402において、各画像を正方形タイル状に分割する。そして、ステップS403において、各タイルについて上記の特徴を算出する。ステップS404において、各タイルが属する組織クラスに応じてタイルに標識する。ステップS405において、クロス確認を適用し、別個のテスト集合を用いてサポートベクターマシンに最適なパラメータを検出する。ステップS506において、SVMモデルを生成する。
ステップS304において、ステップS406で生成したモデルを使用して各タイルを分類する。ステップS305において、各タイルの属するクラスに応じた所定の色を施し、クラスごとに色が異なるようにする。ステップS306において、画像上で各色をハイライトさせた分類済み画像を出力する。
サーバ10において処理を行うと、サーバ10はモバイル機器1にデータを返送してプラクティショナーにデータを表示する。モバイル機器1の代わりに別の機器にデータを送信してもよい。
図12に、プラクティショナーに提供するシステムインタフェースの例を示す。このインタフェース上にある情報は、モバイル機器1内で生成したものか、またはサーバ10からモバイル機器1または別の機器に送信したもののいずれかである。
インタフェースはカラー画像60を表示し、このインタフェースにより、ユーザはトグル61を選択することにより創傷51に印をつけ、トグル62を選択することにより背景50に印をつけることができる。ユーザは、ボタン63により印を消すことができる。印50、51を配置したら、ユーザはセグメンテーションボタン64を選択することができ、これにより図4に示す処理が開始する。この処理が完了したら、創傷境界情報をインタフェースに戻し、この情報は境界72として表示される。
そして、ユーザは測定ボタン65を選択して、図7に示す処理を開始することができる。この処理が完了し処理結果が得られたら、最小包含矩形71を表示し創傷測定値66を提示する。
ユーザは、創傷組織分類ボタン67を選択することもでき、それによって創傷の異なる部分が、クラス68に基づいて、異なる色を用いて分類される。ボタン67を選択すると、図10に示す処理が行われる。処理結果は創傷上に重畳される。
サーバ10によって生成したデータは、モバイル機器1に転送するほか、データベースにも保存する。データベースはサーバ10に対してローカルであっても遠隔地またはクラウド上にあってもよい。データは医学上機密性が高い場合があるため、個人情報保護のため暗号化して保存しても、および/またはプロテクトをかけて保存してもよい。
サーバ10によって生成したデータ、またはモバイル機器1によってローカルに生成したデータはデータベースに保存することができる。このデータは、創傷画像および関連臨床データを含み、両データはいずれも手動で入力し、画像処理方法等を用いて自動で生成したものである。特定の患者についてのデータベース中にある履歴データを用いて、患者の創傷治癒経過を分析して、以下に示す表3に挙げたものと同様のパラメータを出力することができる。よって、この情報を、創傷の他の視覚的特徴等と統合して、臨床(方針)決定を支援することができる。このデータベースから、表1、表2、表3に挙げた情報をはじめとする臨床情報にアクセスすることができ、創傷管理またはプラクティショナーポータル11に報告することができる。データベースに保存した情報は、プラクティショナーが管理している、患者の既存の電子カルテに組み込むことができる。管理ポータル11を用いて、プラクティショナー、すなわち医者、看護婦、研究者、または 適切な権限および資格のある任意の者は、情報にアクセスして、HIPAAに準拠した形で創傷管理を提供することができる。このポータルを介護支援サービス管理に用いることもできる。
同様に、データベース中の匿名化した臨床データにインフォマティクス・インタフェース12を介してアクセスし、臨床研究および健康情報学を支援して創傷ケアを向上することができる。
本発明の実施例によれば顕著な利点が提供される。例えば、本発明のシステムによれば、創傷の画一的な測定を確実に行うことができる。本システムの画一性により、データベースの調査および相互参照の実現可能性がさらに高まる。本システムの別の利点は、万一業務についてのカルテ監査が発生した場合に、医療保険会社およびメディケア/メディカル会計仲介者等とともに文書作成する際のシステム監査プロセスが大幅に強化される。保存した画像等により、治療計画、代用皮膚の適用、および治癒の経過(または欠如)等が判明する。本システムの別の利点は、創傷ベンチマーク治癒プログラムに関する内部組織的監査を補うことができる点である。
加えて、モバイル機器1は、さらに、創傷分類のための指針および最先端治療法、代用皮膚についての現行のCPTコーディングガイドライン、創傷管理/感染予防に関する医薬品等のアップデート等の患者用の教材および医療提供者用の参考試料、および既存の電子健康記録(EHR)システムへのリンクを確保する機能を含みうる。
介護者間の協力を支援するため、本システムによれば、患者が種々の施設間を移転する際に、患者によって病歴データへのアクセス権を許可することが可能となり、患者自身が自己監視および自己報告によって自身の病歴に貢献できるようになるほか、介護チームも連帯して貢献できるようになる。
本発明の各実施形態は、創傷測定以外の他の用途に適用することも可能である。
別の実施形態において、慢性創傷を発症するリスクの高い人々、例えば、糖尿病性下肢潰瘍を発症しやすい糖尿病患者、圧迫潰瘍を発症しやすい寝たきりの患者、末梢血管疾患のある患者等に対する予防手段としても本発明の各実施形態を用いることができる。血液供給の不足が引き起こす虚血組織は潰瘍発症の主な原因の一つであり、最終的に壊死および潰瘍を生じる。本発明の各実施形態をマルチスペクトル撮像技術または他の高度な撮像技術および/または画像分析アルゴリズムと組み合わせて、身体表面上の血液供給または血液潅流を診断することができる。例えば、パルス酸素飽和度測定において用いられる技術と同様に、バンドパスフィルタ、バンドストップフィルタ、ローパスフィルタ、またはハイパスフィルタを用いて、異なる波長光のもとで撮像を行い、それらの画像を用いて皮膚の表層等における血液酸素含有量を分析することができる。例えば、異なる2つの波長を有する近赤外域の光源を用いることができる。光フィルタを光源と一緒に組み合わせて既存のカメラ電話に装備すれば、カメラのマルチスペクトル撮像機能が向上して血液潅流を測定することができる。
さらに別の実施形態において、本発明の各実施形態を用いて、耳、鼻、喉、口、および眼の内部状態を監視することができる。視覚画像を向上するため、補助光源を用いうる。また、導光器を用いて届きにくい箇所を撮像することもでき、場合または状況によっては、ぶれ補正および倍率の変更を行ってもよい。これらの機能は、既存のモバイル機器に装備できるようにすれば、患者はより高画質の画像を撮影できるようになり、コンピュータはより正確に臨床情報を抽出可能となり、医療提供者は疾病の経過をより良好に観察でき、合併症のリスクを検出して対処すること可能となる。
さらに別の実施形態において、本発明の各実施形態を用いて、身体の表面上にある目に見える腫れ、膨張、または突出部分(protruding feature)を有する疾病状態、例えば、限定はしないが、末梢血管疾患、皮膚のしこり、ヘルニア、および痔疾の発生を監視することができる。これらの箇所の形状および大きさは臨床的に重要であり、本発明の各実施形態によれば容易に測定および追跡ができる。
さらに別の実施形態において、本発明の各実施形態を、整形再建手術または体重減少療法に用いれば、身体形状の変化を測定して記録をとることができる。
さらに別の実施形態において、本発明の各実施形態を用いて、患者の排泄、例えば排便および排尿等を監視することができる。ここで、排泄の視覚的特徴は臨床的に重要でありうる。
さらに別の実施形態において、本発明の各実施形態を用いて、水分摂取および固体摂取の両方を監視しなければならない多数の医学的状態について、食物群の体積および識別に基づき患者のカロリー摂取量を監視することができる。
要すれば、本開示は、患者がモバイル機器を使用して行う自己監視および自己報告に基づいて慢性疾患管理を行う方法およびシステムに適用することができる。すなわち、本開示は、カメラ機能付きモバイル機器を(特殊なアドオンデバイス、例えば、ステレオカメラ、立体照明、マルチスペクトル光イメージャ、または他の光源または導光器等の有無にかかわらず)利用して、対象の部位、例えば、限定はしないが、ストーマ、創傷、潰瘍、皮膚の状態、歯の状態、耳、鼻、喉、および眼についての情報を取得する。代案として、この課題は、ウェブカム機能付きラップトップ、またはカメラとコンピュータシステムとを組み合わせたものによって達成しうる。例えば、限定はしないが、大きさ、形状、色彩、色相、飽和度(彩度)、明暗比、質感、模様、三次元表面、または体積測定情報等の視覚情報は、疾病の経過を監視する際には大きな臨床的価値がある。本発明の各実施形態は、カメラ機能付きモバイル機器を(撮像機能を強化し、向上し、または付加する追加の装置の有無にかかわらず)用いて画像を取得し、取得した画像から臨床上重要な特徴を分析して抽出し、その後その情報を遠隔サーバに送信する技術を開示するものである。代案として、すべての画像分析および特徴認識は遠隔サーバサイトで行いうる。医療従事者またはコンピュータによる自動化アルゴリズムは、これらの患者情報にアクセスして、症状悪化のリスク、合併症等の初期警告兆候、または治療等への患者の適合性等を判定することができる。一実施形態において、コンピュータによる自動化は、第一防御線として機能することになる。このシステムによれば、初期警告兆候について患者情報をすべてスクリーニングすることができる。リスクを確認されたら、ある一定の兆候が正常範囲から逸脱または悪化する傾向を示したときに、医療提供者および/または患者に警告することができる。そして、医療提供者は実状を評価し、警告を承認または無視することができ、警告に応じた適切な行為、例えば、患者と連絡する、療法を調整する、または治療を遵守するよう患者に促す等を行う。画像、患者とのやりとり、患者の疾病構造、および医療提供者の治療計画から抽出した臨床データに基づき、本システムを用いてターゲット広告を行い製品の推薦をすることができる。
代替的な実施形態において、深度情報および画像情報は、撮像装置または撮像素子(イメージセンサ)単体で取得することができる。本実施形態において、撮像装置または撮像素子(イメージセンサ)は、創傷の画像を撮影するだけでなく、創傷の深度情報を取得することができる。加えて、画像の各部分、例えば創傷の各部分の距離を、自動焦点情報に基づいて求めることも可能である。例えば、創傷と背景との距離差等を求めることにより、創傷の深度情報を求めることが可能である。
上記の処理のうち、少なくともある一定の部分、例えば、図4、図7、および図10に記載した各プロセスについては、少なくとも1つのマイクロプロセッサを有する何らかの形の内蔵コンピュータまたは外部コンピュータを用いることにより、または回路/処理回路を用いることにより、実装または支援することができる。上記のプロセスはいずれも、コンピュータまたは回路または回路/処理回路を用いて行うことができる。当業者であれば認識されるように、コンピュータプロセッサは、別個の論理ゲートとして、特定用途向け集積回路(ASIC)として、フィールドプログラマブルゲートアレイ(FPGA)として、または他の複合プログラム可能論理デバイス(CPLD)として実装することができる。FPGAまたはCPLDによる実装は、VHDL、Verylog、または任意のハードウェア記述言語で符号化することができ、この符号体系はFPGAまたはCPLD内の電子メモリに直接保存するか、または別個の電子メモリとして保存することができる。さらに、この電子メモリは、例えば、ROM、EPROM、EEPROM、またはフラッシュメモリ等の不揮発性メモリとすることができる。この電子メモリは、また、例えば、静的または動的RAM等の揮発性メモリとすることもでき、マイクロコントローラまたはマイクロプロセッサ等のプロセッサを設けて、電子メモリの管理を行い、また、FPGAまたはCPLDと電子メモリとの間のインタラクションを管理することができる。
代案として、コンピュータプロセッサは、本明細書に記載の各機能を行うコンピュータ読み取り可能な一連の命令を含むコンピュータプログラムを実行することができ、このプログラムは、上記の非一過性の電子メモリのいずれか、および/またはハードディスクドライブ、CD、DVD、フラッシュドライブまたは他の周知の記憶媒体に記憶されている。さらに、コンピュータ読み取り可能な命令は、実用的なアプリケーション、バックグラウンドデーモン、またはオペレーティングシステムの構成要素、またはそれらの組み合わせとして提供することができ、例えば、米国インテル社のXenonプロセッサまたは米国AMD社のオプテロン(Opteron)プロセッサ等のプロセッサおよびマイクロソフトVISTA、UNIX、Solaris、LINUX、Apple、MAC−OSX、および当業者に周知の他のオペレーティングシステム等と協働して動作する。
さらに、各実施形態のある特定の機能は、コンピュータベース・システム(図13)を用いて実装することができる。コンピュータ1000は、情報伝達用のバスBまたは他の通信機構、およびバスBに連結した情報処理用のプロセッサ/CPU1004を備える。コンピュータ1000は、また、ランダムアクセスメモリ(RAM)または他の動的記憶装置(例えば、動的RAM(DRAM)、静的RAM(SRAM)、およびシンクロナスDRAM(SDRAM)等)等のメインメモリ/メモリユニット1003を備え、メインメモリ/メモリユニット1003はバスBに連結されてプロセッサ/CPU1004が実行する命令および情報を記憶する。加えて、CPU1004が命令を実行している間、メモリユニット1003を用いて一時的数値変数または他の中間情報を記憶することができる。コンピュータ1000は、さらに、読み出し専用メモリ(ROM)または他の静的記憶装置(例えば、プログラマブルROM(PROM)、消去可能なPROM(EPROM)、および電気的消去可能なPROM(EEPROM))を備えることもでき、これらはバスBに連結されてプロセッサ/CPU1004用の命令および静的情報を記憶する。
コンピュータ1000は、また、バスBに連結したディスクコントローラを備えることもでき、情報および命令を記憶する1つ以上の記憶装置、例えば大容量記憶装置1002およびドライブ装置1006(例えば、読み取り専用コンパクトディスクドライブ、読み取り/書き込みコンパクトディスクドライブ、コンパクトディスクジュークボックス、およびリムーバブル光磁気ドライブ等)等を制御することができる。各記憶装置は、適切な装置インタフェース機構(例えば、スモールコンピュータシステムインタフェース(SCSI)、集積デバイスエレクトロニクス(integrated device electronics:IDE)、エンハンストIDE(E−IDE)、ダイレクトメモリアクセス(DMA)、またはウルトラ−DMA等)を用いてコンピュータ1000に追加することができる。
コンピュータ1000は、また、限定目的論理装置(例えば、特定用途向け集積回路(ASIC))または構成可能な論理装置(例えば、シンプルプログラム可能論理デバイス(SPLD)、複合プログラム可能論理デバイス(CPLD)、およびフィールド・プログラマブル・ゲート・アレイ(FPGA))等を備えることもできる。
コンピュータ1000は、また、バスBに連結したディスプレイコントローラを備えることもでき、ディスプレイを制御してコンピュータユーザに情報を表示する。コンピュータシステムは、キーボードおよびポインティングデバイスなどの入力デバイスを備え、コンピュータユーザと情報をやりとりして、プロセッサに情報を提供する。ポインティングデバイスの例としては、例えば、マウス、トラックボール、またはポインティングスティック等が挙げられ、方向情報およびコマンド選択をプロセッサに伝達し、ディスプレイ上のカーソルの動きを制御する。加えて、プリンタは、コンピュータシステムによって記憶および/または生成したデータのリストを提供することができる。
コンピュータ1000は、CPU1004がメモリユニット1003等のメモリに記憶した1つ以上の命令を1シーケンス以上実行するのに応じて、本発明の処理ステップの少なくとも一部を行う。これらの命令は、別のコンピュータ可読媒体、例えば、大容量記憶装置1002またはリムーバブル媒体1001等からメモリユニットに読み込むことができる。マルチプロセッシング装置における1つ以上のプロセッサを用いて、メモリユニット1003に含まれる命令の各シーケンスを実行することもできる。代替的な実施形態において、ソフトウェア命令に代えて、または、ソフトウェア命令と組み合わせて、ハードワイヤ回路を用いることができる。よって、各実施形態は、ハードウェア回路とソフトウェアとの特定の組み合わせには何ら限定されない。
以上述べたように、コンピュータ1000は、本発明の教示によってプログラムした命令を保持し、データ構造、表、記録、または本明細書に記載した他のデータを収容する少なくとも1つのコンピュータ可読媒体1001またはメモリを備える。コンピュータ可読媒体の例としては、コンパクトディスク、ハードディスク、光磁気ディスク、PROM(EPROM, EEPROM, flash EPROM)、DRAM、SRAM、SDRAM、または他の任意の磁気媒体、コンパクトディスク(例えば、CD−ROM)、または他の任意の磁気媒体、コンパクトディスク(例えば、CD−ROM)、またはコンピュータが読み取り可能な他の任意の媒体が挙げられる。
コンピュータ可読媒体のいずれか一つまたは組み合わせに記憶したものとして、本発明は、主処理装置1004を制御し、本発明を実装するデバイス等を駆動し、および周処理装置1004が人間のユーザとやりとりできるようにするソフトウェアを備える。ソフトウェアの例としては、限定はしないが、デバイスドライバ、オペレーティングシステム、開発ツール、およびアプリケーションソフトウェア等を挙げることができる。コンピュータ可読媒体は、さらに、本発明を実装する際に行う処理のすべてまたは一部(処理が分配された場合)を実施する本発明のコンピュータプログラム製品を含む。
本発明の媒体上のコンピュータコード素子は、任意の解釈可能または実行可能なコードメカニズムであればよく、例えば、限定はしないが、スクリプト、解釈可能なプログラム、ダイナミックリンクライブラリ(DLL)、Javaクラス、および完全実行可能プログラム(complete executable programs)等を含む。さらに、本発明の処理の一部は分配することができ、性能、信頼性、および/またはコストを向上することができる。
本明細書において用いる用語「コンピュータ可読媒体」とは、CPU1004に実行させる命令を与える際に関与する任意の媒体を指す。コンピュータ可読媒体はさまざまな形態をとり、例えば、限定はしないが、不揮発性媒体および揮発性媒体を含む。不揮発性媒体の例としては、例えば、および大容量記憶装置1002またはリム―バブル媒体1001等の光ディスク、磁気ディスク、光磁気ディスク等が挙げられる。揮発性媒体の例としては、例えばメモリユニット1003等の動的メモリが挙げられる。
CPU1004に与えて実行させる1つ以上の命令を1シーケンス以上実行する際には、様々な形態のコンピュータ可読媒体が関与さえることができる。例えば、各命令は、まず、リモートコンピュータの磁気ディスク上で実行することができる。バスBに連結した入力により、データを受信し、そのデータをバスB上に置くことができる。バスBはデータをメモリユニット1003に伝達し、CPU1004はメモリユニット1003から命令を取り出して実行する。メモリユニット1003が受信した命令は、任意選択で、CPU1004によって実行される前または後のいずれかに、大容量記憶装置1002に記憶することもできる。
コンピュータ1000は、また、バスBに連結した通信インタフェース1005を含む。通信インタフェース1005は、例えば、ローカルエリアネットワーク(LAN)またはインターネット等の別の通信ネットワークに接続したネットワークに連結する2方向データ通信を提供する。例えば、通信インタフェース1005は、任意のパケット交換LANに取り付けるネットワークインタフェースカードであってもよい。別の例として、通信インタフェースは、対応通信回線へのデータ通信接続を提供する非対称型デジタル加入者回線(ADSL)カード、サービス総合デジタル通信網(ISDN)カード、またはモデムであってもよい。ワイヤレスリンクを実装することもできる。上記実装のいずれにおいても、通信インタフェース1005は、種々の情報を表すデジタルデータストリームを伝達する電気信号、電磁気信号、または光学信号を送受信する。
ネットワークは、一般に、1つ以上のネットワークを介して、他のデータ装置へデータ通信を行う。例えば、ネットワークは、ローカルネットワーク(例えば、LAN)を介して、または通信ネットワークを介した通信サービスを提供するサービスプロバイダが運用する機器を介して、別のコンピュータに接続することができる。ローカルネットワークおよび通信ネットワークは、例えば、デジタルデータストリームを伝達する電気信号、電磁信号、または光学信号、および関連する物理層(例えば、CAT5ケーブル、同軸ケーブル、光ファイバ等)を使用する。さらに、ネットワークは、ラップトップコンピュータまたは携帯電話等のモバイル機器への接続も提供することができる。
以上の説明において、フロー図の各プロセス、記述、またはブロックは、いずれも、当該プロセスにおける特定の論理機能またはステップを実施するための1つ以上の実行可能な命令を含むコードの代表的なモジュール、セグメント、または部分と解すべきであり、その代替的な実施も、本提案(present advancements)の例示的な実施形態の範囲に含まれ、各機能は図示または説明したのと異なる順序で実施することができ、例えば、関連する機能性に応じて、実質的に並行して、または逆の順序で実施してもよいことが当業者には理解されよう。
以上、特定の実施形態について説明したが、これらの実施形態は例示にすぎず、本発明の範囲を限定することを意図するものではない。実際に、本明細書において説明した新規の方法、装置、およびシステムは、他の様々な形態によって具現化することができる。さらに、本発明の趣旨を逸脱することなく、本明細書に記載の方法、装置、およびシステムについて、種々の省略、代替、および変更を行うことができる。添付の請求の範囲およびその等価物は、そのような形態および変更をも本発明の趣旨の範囲内にあるものとして含むことを意図している。

Claims (39)

  1. 医学的損傷の特徴を測定するシステムであって、
    関心(対象)エリアの二次元画像情報を含む撮像情報を取得する第1の撮像センサと
    記対象エリア内におけるオブジェクトの三次元情報を含むトポロジ情報を取得する第2の撮像センサと、
    回路と、を備え、
    該回路は、
    前記撮像情報を用いて、前記対象エリアの前記撮像情報内における損傷部分の境界を定め
    記撮像情報の前記二次元画像情報と前記トポロジ情報の前記三次元情報の相関を用いて、前記撮像情報内において指定した前記損傷部分の前記境界を前記トポロジ情報に投影して、前記撮像情報内において指定した前記損傷部分の前記境界の前記トポロジ情報への前記投影によって、前記トポロジ情報の損傷部分に対応する前記トポロジ情報のマスクエリアを指定し、および
    前記トポロジ情報および前記撮像情報に基づいて、前記損傷の深度を含み、かつ前記医学的損傷の医学的評価のために表示される、前記マスクエリア内における前記損傷部分の特徴を測定するように構成した、システム。
  2. 前記回路は、さらに、
    前記対象エリアの撮像情報から、該対象エリアの代表的な背景部分を指定し、
    前記対象エリアの撮像情報から、該対象エリアの代表的な損傷部分を指定し、および、
    前記指定した代表的な背景部分および損傷部分に基づいて、前記対象エリアの撮像情報内における損傷部分の境界を定めるように構成した、請求項1に記載のシステム。
  3. 前記回路は、さらに、ユーザ入力または画素特性の差異に基づいて、前記対象エリアの前記撮像情報から前記対象エリアの代表的な損傷部分を指定するように構成した、請求項2に記載のシステム。
  4. 前記回路は、さらに、前記撮像情報に基づいて前記マスクエリア内の前記損傷部分を分類するように構成した、請求項1に記載のシステム。
  5. 前記回路は、さらに、前記損傷部分をタイル状に分割することにより前記マスクエリア内の前記損傷部分を分類して、各タイルの撮像値についての平均を算出し、かつ、あらかじめ訓練した分類器によって生成した損傷タイプ情報を用いて各タイルを分類するように構成した、請求項4に記載のシステム。
  6. 前記損傷タイプ情報には、健康組織、スラフ(壊死)組織、エスカー(痂皮)組織が含まれる、請求項5に記載のシステム。
  7. 前記あらかじめ訓練した分類器は機械学習分類器であり、該分類器は、一連の注釈付き画像について、各画像をタイル状に分割して各タイルの撮像値について平均を算出し、損傷のタイプによって各タイルを指定するように構成した回路を用いて損傷タイプ情報を生成する、請求項5に記載のシステム。
  8. 前記マスクエリア内における前記損傷部分の特徴は、該損傷の最深深度、幅、および長さを更に含む、請求項1に記載のシステム。
  9. 前記マスクエリア内における前記損傷部分の特徴は、該損傷の周囲長、面積、体積を含む、請求項1に記載のシステム。
  10. 前記回路は、自動画像セグメンテーションアルゴリズムを利用して、前記対象エリアの前記撮像情報内における前記損傷部分の境界を定めるように構成した、請求項1に記載のシステム。
  11. 前記回路は、前記対象エリアの代表的な損傷部分のコンター(輪郭)を検出することにより、前記対象エリアの前記撮像情報内における前記損傷部分の境界を定めるように構成した、請求項1に記載のシステム。
  12. 前記回路は、前記対象エリアの代表的な損傷部分のコンターを検出し、すべてのコンターを反復処理することにより、前記対象エリアの前記撮像情報内における前記損傷部分の境界を定めるように構成した、請求項1に記載のシステム。
  13. 前記医学的損傷は創傷である、請求項1に記載のシステム。
  14. 医学的損傷の特徴を測定する装置であって、
    第1の撮像センサを用いて、対象エリアの二次元画像情報を含む撮像情報を取得し、
    第2の撮像センサを用いて、前記対象エリア内のオブジェクトの三次元情報を含むトポロジ情報を取得し、
    前記撮像情報を用いて、前記対象エリアの前記撮像情報内における損傷部分の境界を定め
    記撮像情報の前記二次元画像情報と前記トポロジ情報の前記三次元情報の相関を用いて、前記撮像情報内において指定した前記損傷部分の前記境界を前記トポロジ情報に投影して、前記撮像情報内において指定した前記損傷部分の前記境界の前記トポロジ情報への前記投影によって、前記トポロジ情報の損傷部分に対応する前記トポロジ情報のマスクエリアを指定し、および
    前記トポロジ情報および前記撮像情報に基づいて、前記損傷の深度を含み、かつ前記医学的損傷の医学的評価のために表示される、前記マスクエリア内における前記損傷部分の特徴を測定するように構成した回路を備える、装置。
  15. 前記回路は、
    前記対象エリアの撮像情報から、該対象エリアの代表的な背景部分を指定し、
    前記対象エリアの撮像情報から、該対象エリアの代表的な損傷部分を指定し、および、
    前記指定した代表的な背景部分および損傷部分に基づいて、前記対象エリアの撮像情報内における損傷部分の境界を定めるように構成した、請求項14に記載の装置。
  16. 前記回路は、さらに、ユーザ入力または画素特性の差異に基づいて、前記対象エリアの前記撮像情報から前記対象エリアの代表的な損傷部分を指定するように構成した、請求項15に記載の装置。
  17. 前記回路は、さらに、前記撮像情報に基づいて前記マスクエリア内の前記損傷部分を分類するように構成した、請求項14に記載の装置。
  18. 前記回路は、さらに、前記損傷部分をタイル状に分割することにより前記マスクエリア内の前記損傷部分を分類して、各タイルの撮像値についての平均を算出し、かつ、あらかじめ訓練した機械学習分類器によって生成した損傷タイプ情報を用いて各タイルを分類するように構成した、請求項17に記載の装置。
  19. 前記損傷タイプ情報には、健康組織、スラフ(壊死)組織、エスカー(痂皮)組織が含まれる、請求項18に記載の装置。
  20. 前記あらかじめ訓練した機械学習分類器は、一連の注釈付き画像について、各画像をタイル状に分割して各タイルの撮像値について平均を算出し、損傷のタイプによって各タイルを指定するように構成した回路を用いて損傷タイプ情報を生成する、請求項18に記載の装置。
  21. 前記マスクエリア内における前記損傷部分の特徴は、該損傷の最深深度、幅、および長さを更に含む、請求項14に記載の装置。
  22. 前記マスクエリア内における前記損傷部分の特徴は、該損傷の周囲長、面積、体積を含む、請求項14に記載の装置。
  23. 前記回路は、グラブカットアルゴリズム(grab cut algorithm)を利用して、前記対象エリアの前記撮像情報内における前記損傷部分の境界を定めるように構成した、請求項14に記載の装置。
  24. 前記回路は、前記対象エリアの代表的な損傷部分のコンターを検出することにより、前記対象エリアの前記撮像情報内における前記損傷部分の境界を定めるように構成した、請求項14に記載の装置。
  25. 前記回路は、前記対象エリアの代表的な損傷部分のコンターを検出し、すべてのコンターを反復処理することにより、前記対象エリアの前記撮像情報内における前記損傷部分の境界を定めるように構成した、請求項14に記載の装置。
  26. 前記医学的損傷は創傷である、請求項1に記載のシステム。
  27. 医学的損傷の特徴を測定するため撮像処理装置の作動方法であって、
    第1の撮像センサ、対象エリアの二次元画像情報を含む撮像情報を取得すること、
    第2の撮像センサが、前記対象エリア内のオブジェクトの三次元情報を含むトポロジ情報を取得すること、
    処理回路が、前記撮像情報を用いて、前記対象エリアの撮像情報内における損傷部分の境界を定めること、
    前記処理回路が、前記撮像情報の前記二次元画像情報と前記トポロジ情報の前記三次元情報の相関を用いて、前記撮像情報内において指定した前記損傷部分の前記境界を前記トポロジ情報に投影して、前記撮像情報内において指定した前記損傷部分の前記境界の前記トポロジ情報への前記投影によって、前記トポロジ情報の損傷部分に対応する前記トポロジ情報のマスクエリアを指定すること、および、
    前記処理回路、前記トポロジ情報および前記撮像情報に基づいて、前記損傷の深度を含み、かつ前記医学的損傷の医学的評価のために表示される、前記マスクエリア内における前記損傷部分の特徴を測定すること、を含む方法。
  28. 前記処理回路が、前記対象エリアの撮像情報から、該対象エリアの代表的な背景部分を指定すること、
    前記処理回路が、前記対象エリアの撮像情報から、該対象エリアの代表的な損傷部分を指定すること、および、
    前記処理回路が、前記指定した代表的な背景部分および損傷部分に基づいて、前記対象エリアの撮像情報内における損傷部分の境界を定めること、をさらに含む請求項27に記載の方法。
  29. 前記処理回路が、ユーザ入力または画素特性の差異に基づいて、前記対象エリアの前記撮像情報から前記対象エリアの代表的な損傷部分を指定することをさらに含む、請求項28に記載の方法。
  30. 前記処理回路が、前記撮像情報に基づいて前記マスクエリア内の前記損傷部分を分類することをさらに含む、請求項27に記載の方法。
  31. 前記処理回路が、前記損傷部分をタイル状に分割することにより前記マスクエリア内の前記損傷部分を分類して、各タイルの撮像値についての平均を算出し、かつ、あらかじめ訓練した機械学習分類器によって生成した損傷タイプ情報を用いて各タイルを分類することをさらに含む、請求項30に記載の方法。
  32. 前記損傷タイプ情報には、健康組織、スラフ(壊死)組織、エスカー(痂皮)組織が含まれる、請求項31に記載の方法。
  33. 前記あらかじめ訓練した機械学習分類器は、一連の注釈付き画像について、各画像をタイル状に分割して各タイルの撮像値について平均を算出し、損傷のタイプによって各タイルを指定するように構成した回路を用いて損傷タイプ情報を生成する、請求項31に記載の方法。
  34. 前記マスクエリア内における前記損傷部分の特徴は、該損傷の最深深度、幅、および長さを更に含む、請求項27に記載の方法。
  35. 前記マスクエリア内における前記損傷部分の特徴は、該損傷の周囲長、面積、体積を含む、請求項27に記載の方法。
  36. 前記処理回路が、グラブカットアルゴリズムを利用して、前記対象エリアの前記撮像情報内における前記損傷部分の境界を定めることをさらに含む、請求項27に記載の方法。
  37. 前記処理回路が、前記対象エリアの代表的な損傷部分のコンターを検出することにより、前記対象エリアの前記撮像情報内における前記損傷部分の境界を定めることをさらに含む、請求項27に記載の方法。
  38. 前記処理回路が、前記対象エリアの代表的な損傷部分のコンターを検出し、すべてのコンターを反復処理することにより、前記対象エリアの前記撮像情報内における前記損傷部分の境界を定めることをさらに含む、請求項27に記載の方法。
  39. 前記医学的損傷は創傷である、請求項27に記載の方法。
JP2016536570A 2013-12-03 2014-09-19 創傷アセスメントおよびマネジメントのための方法およびシステム Active JP6595474B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361911162P 2013-12-03 2013-12-03
US61/911,162 2013-12-03
US201461983022P 2014-04-23 2014-04-23
US61/983,022 2014-04-23
PCT/US2014/056587 WO2015084462A1 (en) 2013-12-03 2014-09-19 Method and system for wound assessment and management

Publications (2)

Publication Number Publication Date
JP2017504370A JP2017504370A (ja) 2017-02-09
JP6595474B2 true JP6595474B2 (ja) 2019-10-23

Family

ID=53264054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016536570A Active JP6595474B2 (ja) 2013-12-03 2014-09-19 創傷アセスメントおよびマネジメントのための方法およびシステム

Country Status (8)

Country Link
US (2) US11337612B2 (ja)
EP (1) EP3077956B1 (ja)
JP (1) JP6595474B2 (ja)
KR (1) KR102317478B1 (ja)
CN (1) CN106164929B (ja)
AU (2) AU2014357720A1 (ja)
CA (1) CA2930184C (ja)
WO (1) WO2015084462A1 (ja)

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043899A1 (en) 2005-10-14 2007-04-19 Applied Research Associates Nz Limited A method of monitoring a surface feature and apparatus therefor
US9179844B2 (en) 2011-11-28 2015-11-10 Aranz Healthcare Limited Handheld skin measuring or monitoring device
US9286537B2 (en) * 2014-01-22 2016-03-15 Cognizant Technology Solutions India Pvt. Ltd. System and method for classifying a skin infection
WO2015123468A1 (en) 2014-02-12 2015-08-20 Mobile Heartbeat Llc System for setting and controlling functionalities of mobile devices
US10531977B2 (en) 2014-04-17 2020-01-14 Coloplast A/S Thermoresponsive skin barrier appliances
US9959486B2 (en) * 2014-10-20 2018-05-01 Siemens Healthcare Gmbh Voxel-level machine learning with or without cloud-based support in medical imaging
JP6192853B2 (ja) * 2014-12-19 2017-09-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 超音波深度検出を使用するオプティカルフロー画像化システム及び方法
US9990472B2 (en) * 2015-03-23 2018-06-05 Ohio State Innovation Foundation System and method for segmentation and automated measurement of chronic wound images
US10357317B2 (en) * 2015-07-29 2019-07-23 Synaptive Medical (Barbados) Inc. Handheld scanner for rapid registration in a medical navigation system
FR3046692B1 (fr) * 2016-01-07 2018-01-05 Urgo Recherche Innovation Et Developpement Analyse numerique d'une image numerique representant une plaie pour sa caracterisation automatique
KR102508831B1 (ko) * 2016-02-17 2023-03-10 삼성전자주식회사 원격 이미지 전송 시스템, 디스플레이 장치 및 그의 가이드 표시 방법
US10013527B2 (en) 2016-05-02 2018-07-03 Aranz Healthcare Limited Automatically assessing an anatomical surface feature and securely managing information related to the same
DE102016111327A1 (de) * 2016-06-21 2017-12-21 Jonathan Volker Herrmann Verfahren und System zur Beurteilung von Wunden
WO2018013321A1 (en) 2016-06-28 2018-01-18 Kci Licensing, Inc. Semi-automated mobile system for wound image segmentation
US11116407B2 (en) * 2016-11-17 2021-09-14 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
US11612307B2 (en) 2016-11-24 2023-03-28 University Of Washington Light field capture and rendering for head-mounted displays
US10425633B2 (en) 2016-12-30 2019-09-24 Konica Minolta Laboratory U.S.A., Inc. Method and system for capturing images for wound assessment with moisture detection
CN106691821A (zh) * 2017-01-20 2017-05-24 中国人民解放军第四军医大学 一种伤口局部给氧式红外快速愈合装置
US10366490B2 (en) * 2017-03-27 2019-07-30 Siemens Healthcare Gmbh Highly integrated annotation and segmentation system for medical imaging
EP3606410B1 (en) * 2017-04-04 2022-11-02 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
CN107071071B (zh) * 2017-06-15 2018-10-26 北京康智乐思网络科技有限公司 一种基于移动终端和云计算的医疗健康系统
SG10201706752XA (en) * 2017-08-17 2019-03-28 Iko Pte Ltd Systems and methods for analyzing cutaneous conditions
WO2019070775A1 (en) 2017-10-03 2019-04-11 Ohio State Innovation Foundation SYSTEM AND METHOD FOR IMAGE SEGMENTATION AND DIGITAL ANALYSIS FOR CLINICAL TRIAL NOTATION IN SKIN DISEASE
AU2017415626B2 (en) * 2017-10-17 2020-08-06 Kronikare Pte Ltd System and method for facilitating analysis of a wound in a target subject
US10909684B2 (en) * 2017-11-20 2021-02-02 University Of Iowa Research Foundation Systems and methods for airway tree segmentation
EP3727241A1 (en) 2017-12-22 2020-10-28 Coloplast A/S Data collection schemes for an ostomy appliance and related methods
EP4074291A1 (en) 2017-12-22 2022-10-19 Coloplast A/S Base plate for an ostomy appliance
WO2019120437A1 (en) 2017-12-22 2019-06-27 Coloplast A/S 2017118-wo
LT3727242T (lt) 2017-12-22 2022-04-11 Coloplast A/S Ostomijos sistemos monitoriaus prietaisas, turintis jungtį, skirtą prijungimui tiek prie pagrindinės plokštės tiek prie pagalbinio įtaiso
US10500084B2 (en) 2017-12-22 2019-12-10 Coloplast A/S Accessory devices of an ostomy system, and related methods for communicating leakage state
US10849781B2 (en) 2017-12-22 2020-12-01 Coloplast A/S Base plate for an ostomy appliance
WO2019120452A1 (en) 2017-12-22 2019-06-27 Coloplast A/S Coupling part with a hinge for an ostomy base plate and sensor assembly part
US10799385B2 (en) 2017-12-22 2020-10-13 Coloplast A/S Ostomy appliance with layered base plate
WO2019120427A1 (en) 2017-12-22 2019-06-27 Coloplast A/S Sensor assembly part for an ostomy appliance and a method for manufacturing a sensor assembly part
EP3727238B1 (en) 2017-12-22 2024-05-01 Coloplast A/S Sensor assembly part and a base plate for an ostomy appliance and a method for manufacturing a base plate or a sensor assembly part
US11607334B2 (en) 2017-12-22 2023-03-21 Coloplast A/S Base plate for a medical appliance, a monitor device and a system for a medical appliance
US11559423B2 (en) 2017-12-22 2023-01-24 Coloplast A/S Medical appliance system, monitor device, and method of monitoring a medical appliance
CN111465373B (zh) 2017-12-22 2022-07-08 科洛普拉斯特公司 造口术系统和具有角形泄漏检测的监测装置
EP3996106A1 (en) 2017-12-22 2022-05-11 Coloplast A/S Monitor device of an ostomy system and associated method for operating a monitor device
US11819443B2 (en) 2017-12-22 2023-11-21 Coloplast A/S Moisture detecting base plate for a medical appliance and a system for determining moisture propagation in a base plate and/or a sensor assembly part
US11590015B2 (en) 2017-12-22 2023-02-28 Coloplast A/S Sensor assembly part and a base plate for a medical appliance and a method for manufacturing a sensor assembly part and a base plate
US11627891B2 (en) 2017-12-22 2023-04-18 Coloplast A/S Calibration methods for medical appliance tools
US11998473B2 (en) 2017-12-22 2024-06-04 Coloplast A/S Tools and methods for cutting holes in a medical appliance
LT3727227T (lt) 2017-12-22 2023-07-25 Coloplast A/S Ostomijos prietaiso pagrindo plokštė ir pagrindo plokštės jutiklių montavimo dalis ir pagrindo plokštės ir jutiklių montavimo dalies gamybos būdas
JP7402161B2 (ja) 2017-12-22 2023-12-20 コロプラスト アクティーゼルスカブ 選択的センサ点を有するオストミー装具及び関連する方法
US11628084B2 (en) 2017-12-22 2023-04-18 Coloplast A/S Sensor assembly part and a base plate for a medical appliance and a device for connecting to a base plate or a sensor assembly part
US11540937B2 (en) 2017-12-22 2023-01-03 Coloplast A/S Base plate and sensor assembly of a medical system having a leakage sensor
CA3089345A1 (en) * 2018-02-02 2019-08-08 Moleculight Inc. Wound imaging and analysis
WO2019161861A1 (en) 2018-02-20 2019-08-29 Coloplast A/S Sensor assembly part and a base plate for an ostomy appliance and a device for connecting to a base plate and/or a sensor assembly part
LT3764961T (lt) 2018-03-15 2024-03-25 Coloplast A/S Aparatas ir būdai ostomijos prietaiso vartotojo navigacijai į persisirengimo kambarį
CN108596232B (zh) * 2018-04-16 2022-03-08 杭州睿珀智能科技有限公司 一种基于形状和颜色特征的鞋垫自动分类方法
CN108606782A (zh) * 2018-04-28 2018-10-02 泰州市榕兴医疗用品股份有限公司 一种创面成像系统
WO2019241288A1 (en) * 2018-06-11 2019-12-19 The General Hospital Corporation Skin construct transfer system and method
CN109009134A (zh) * 2018-07-06 2018-12-18 上海理工大学 一种人体体表三维信息的扫描装置
CN109087285A (zh) * 2018-07-13 2018-12-25 中国人民解放军海军工程大学 外科创伤检测清创机器人
CN109065151A (zh) * 2018-07-13 2018-12-21 中国人民解放军海军工程大学 智疗非手术性创伤处理系统
CN109410318B (zh) * 2018-09-30 2020-09-08 先临三维科技股份有限公司 三维模型生成方法、装置、设备和存储介质
CN109330566A (zh) * 2018-11-21 2019-02-15 佛山市第人民医院(中山大学附属佛山医院) 一种伤口监测方法及装置
IT201800010536A1 (it) * 2018-11-23 2020-05-23 Torino Politecnico Dispositivo e metodo per la rilevazione ed il monitoraggio di patologie cutanee
JP6531273B1 (ja) * 2018-11-30 2019-06-19 Arithmer株式会社 寸法データ算出装置、プログラム、方法、製品製造装置、及び製品製造システム
US11922649B2 (en) 2018-11-30 2024-03-05 Arithmer Inc. Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus
KR102282348B1 (ko) * 2018-12-04 2021-07-27 주식회사 하이로닉 피부 미용 시술을 위한 시술 정보 제공장치, 시스템 및 방법
BR112021009708A2 (pt) * 2018-12-18 2021-08-17 Mölnlycke Health Care Ab método para selecionar um produto para ferida de um paciente
CN113260341A (zh) * 2018-12-20 2021-08-13 科洛普拉斯特公司 利用掩蔽进行造口术状况分类的装置和相关方法
KR20210110805A (ko) 2018-12-20 2021-09-09 컬러플라스트 에이/에스 이미지 데이터 변환을 이용한 장루ㆍ요루 상태 분류, 장치 및 관련 방법
CN109700465A (zh) * 2019-01-07 2019-05-03 广东体达康医疗科技有限公司 一种移动式三维伤口扫描设备及其工作流程
US11612512B2 (en) 2019-01-31 2023-03-28 Coloplast A/S Moisture detecting base plate for an ostomy appliance and a system for determining moisture propagation in a base plate and/or a sensor assembly part
US10957043B2 (en) * 2019-02-28 2021-03-23 Endosoftllc AI systems for detecting and sizing lesions
US11308618B2 (en) 2019-04-14 2022-04-19 Holovisions LLC Healthy-Selfie(TM): a portable phone-moving device for telemedicine imaging using a mobile phone
US12014500B2 (en) 2019-04-14 2024-06-18 Holovisions LLC Healthy-Selfie(TM): methods for remote medical imaging using a conventional smart phone or augmented reality eyewear
US11756681B2 (en) 2019-05-07 2023-09-12 Medtronic, Inc. Evaluation of post implantation patient status and medical device performance
KR102165699B1 (ko) * 2019-05-24 2020-10-14 동서대학교 산학협력단 사용자 맞춤형 실시간 피부질환 관리시스템
CN110151141A (zh) * 2019-06-20 2019-08-23 上海市肺科医院 一种压力性损伤智能评估系统
US11324401B1 (en) 2019-09-05 2022-05-10 Allscripts Software, Llc Computing system for wound tracking
EP4041125A1 (en) * 2019-10-07 2022-08-17 Intuitive Surgical Operations, Inc. Physical medical element placement systems
US11961608B2 (en) * 2019-11-11 2024-04-16 Healthy.Io Ltd. Image processing systems and methods for caring for skin features
US20210137453A1 (en) * 2019-11-12 2021-05-13 Md Ortho Systems Llc Systems and methods for self-guided injury treatment
US20210153959A1 (en) * 2019-11-26 2021-05-27 Intuitive Surgical Operations, Inc. Physical medical element affixation systems, methods, and materials
US11977723B2 (en) * 2019-12-17 2024-05-07 Palantir Technologies Inc. Image tiling and distributive modification
CN113119103B (zh) * 2019-12-31 2022-10-14 深圳富泰宏精密工业有限公司 确定标记物的深度标准值的方法、计算机装置
CN111184517A (zh) * 2020-01-14 2020-05-22 南方医科大学珠江医院 伤口测量及记录系统
US20210228148A1 (en) * 2020-01-28 2021-07-29 Zebra Technologies Corporation System and Method for Lesion Monitoring
US11659998B2 (en) 2020-03-05 2023-05-30 International Business Machines Corporation Automatic measurement using structured lights
US11484245B2 (en) * 2020-03-05 2022-11-01 International Business Machines Corporation Automatic association between physical and visual skin properties
KR102192953B1 (ko) * 2020-03-31 2020-12-18 신현경 인공지능에 기반한 피부손상 치료 및 원격 의료 서비스 제공을 위한 시스템
DE102020118976A1 (de) * 2020-05-26 2021-12-16 Medical & Science Aktiengesellschaft Verfahren und Anordnung zur Bestimmung der flächig-räumlichen Temperaturverteilung im Mund- und Rachenraum eines Probanden
KR102304370B1 (ko) * 2020-09-18 2021-09-24 동국대학교 산학협력단 딥러닝 기반 상처 변화 및 상태 분석 장치 및 방법
CN112151177B (zh) * 2020-09-27 2023-12-15 甘肃省人民医院 一种慢性创面的评估管理系统及方法
CN112155553B (zh) * 2020-09-27 2023-05-23 甘肃省人民医院 一种基于结构光3d测量的创面评估系统及方法
EP3979258A1 (en) * 2020-10-05 2022-04-06 Hill-Rom Services, Inc. Wound healing analysis and tracking
WO2022106672A1 (en) * 2020-11-23 2022-05-27 Roche Diagnostics Gmbh Method and devices for point-of-care applications
US11430562B2 (en) * 2021-01-04 2022-08-30 Healthy.Io Ltd. Selective reaction to failure to complete medical action
US11908154B2 (en) * 2021-02-04 2024-02-20 Fibonacci Phyllotaxis Inc. System and method for evaluating tumor stability
KR102550631B1 (ko) * 2021-03-16 2023-07-03 (주)파인헬스케어 인공지능을 이용한 욕창 단계 평가 및 치료 추천을 제공하는 장치 및 방법
KR102540755B1 (ko) * 2021-04-30 2023-06-07 성균관대학교산학협력단 피부영상, 또는 건강 정보 및 신체 정보를 이용하여 헤모글로빈 농도를 추정하는 방법 및 상기 방법을 수행하는 헤모글로빈 농도 추정 장치
WO2022248964A1 (en) * 2021-05-28 2022-12-01 Kci Manufacturing Unlimited Company Method to detect and measure a wound site on a mobile device
TWI801311B (zh) * 2021-09-30 2023-05-01 賴飛羆 一種使用深度學習模型分析慢性傷口數位影像的方法及系統
EP4202946A1 (en) * 2021-12-21 2023-06-28 Bull SAS Method and system for tracking the evolution of a wound
US20230255492A1 (en) * 2022-02-13 2023-08-17 National Cheng Kung University Wound analyzing system and method
EP4282330A1 (en) * 2022-05-25 2023-11-29 AI Labs Group, S.L. Ai marker device, method for standardising an image using the ai marker device and method for grading the severity of a skin disease using both
CN117442190B (zh) * 2023-12-21 2024-04-02 山东第一医科大学附属省立医院(山东省立医院) 一种基于目标检测的创面自动测量方法及系统

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5301105A (en) * 1991-04-08 1994-04-05 Desmond D. Cummings All care health management system
US5967979A (en) * 1995-11-14 1999-10-19 Verg, Inc. Method and apparatus for photogrammetric assessment of biological tissue
US6081612A (en) 1997-02-28 2000-06-27 Electro Optical Sciences Inc. Systems and methods for the multispectral imaging and characterization of skin tissue
WO1998037811A1 (en) * 1997-02-28 1998-09-03 Electro-Optical Sciences, Inc. Systems and methods for the multispectral imaging and characterization of skin tissue
US6081739A (en) * 1998-05-21 2000-06-27 Lemchen; Marc S. Scanning device or methodology to produce an image incorporating correlated superficial, three dimensional surface and x-ray images and measurements of an object
US7450783B2 (en) * 2003-09-12 2008-11-11 Biopticon Corporation Methods and systems for measuring the size and volume of features on live tissues
GB0505202D0 (en) * 2005-03-14 2005-04-20 Intercytex Ltd Skin equivalent culture
CN1907225B (zh) * 2005-08-05 2011-02-02 Ge医疗系统环球技术有限公司 用于脑内出血损伤分割的方法和设备
DE102006013476B4 (de) * 2006-03-23 2012-11-15 Siemens Ag Verfahren zur positionsgenauen Darstellung von interessierenden Gewebebereichen
US20070276309A1 (en) 2006-05-12 2007-11-29 Kci Licensing, Inc. Systems and methods for wound area management
US8063915B2 (en) * 2006-06-01 2011-11-22 Simquest Llc Method and apparatus for collecting and analyzing surface wound data
US20080045807A1 (en) * 2006-06-09 2008-02-21 Psota Eric T System and methods for evaluating and monitoring wounds
US8000777B2 (en) 2006-09-19 2011-08-16 Kci Licensing, Inc. System and method for tracking healing progress of tissue
US8213695B2 (en) 2007-03-07 2012-07-03 University Of Houston Device and software for screening the skin
US8918162B2 (en) * 2007-04-17 2014-12-23 Francine J. Prokoski System and method for using three dimensional infrared imaging to provide psychological profiles of individuals
US8155405B2 (en) * 2007-04-20 2012-04-10 Siemens Aktiengsellschaft System and method for lesion segmentation in whole body magnetic resonance images
EP2239675A1 (en) 2009-04-07 2010-10-13 BIOCRATES Life Sciences AG Method for in vitro diagnosing a complex disease
US20130053677A1 (en) * 2009-11-09 2013-02-28 Jeffrey E. Schoenfeld System and method for wound care management based on a three dimensional image of a foot
US20120206587A1 (en) * 2009-12-04 2012-08-16 Orscan Technologies Ltd System and method for scanning a human body
US20110312520A1 (en) * 2010-05-11 2011-12-22 Veracyte, Inc. Methods and compositions for diagnosing conditions
US20120078113A1 (en) * 2010-09-28 2012-03-29 Point of Contact, LLC Convergent parameter instrument
DE102011006398A1 (de) * 2011-03-30 2012-10-04 Siemens Aktiengesellschaft Verfahren, Bildverarbeitungseinrichtung und Computertomographiesystem zur Ermittlung eines Anteils von nekrotischem Gewebe sowie Computerprogrammprodukt mit Programmcodeabschnitten zur Ermittlung eines Anteils von nekrotischem Gewebe
CN102930552B (zh) * 2012-11-22 2015-03-18 北京理工大学 基于对称结构减影的脑肿瘤自动提取方法

Also Published As

Publication number Publication date
AU2020203128A1 (en) 2020-06-04
AU2014357720A1 (en) 2016-05-26
US20160206205A1 (en) 2016-07-21
CN106164929B (zh) 2021-02-19
KR20160092013A (ko) 2016-08-03
CN106164929A (zh) 2016-11-23
US20150150457A1 (en) 2015-06-04
JP2017504370A (ja) 2017-02-09
EP3077956A1 (en) 2016-10-12
CA2930184A1 (en) 2015-06-11
CA2930184C (en) 2024-04-23
US11337612B2 (en) 2022-05-24
EP3077956B1 (en) 2023-10-11
KR102317478B1 (ko) 2021-10-25
EP3077956A4 (en) 2017-04-05
WO2015084462A1 (en) 2015-06-11

Similar Documents

Publication Publication Date Title
JP6595474B2 (ja) 創傷アセスメントおよびマネジメントのための方法およびシステム
US20180279943A1 (en) System and method for the analysis and transmission of data, images and video relating to mammalian skin damage conditions
US10872408B2 (en) Method and system for imaging and analysis of anatomical features
US11967412B2 (en) Selective reaction to failure to complete medical action
KR102304370B1 (ko) 딥러닝 기반 상처 변화 및 상태 분석 장치 및 방법
Dhane et al. Spectral clustering for unsupervised segmentation of lower extremity wound beds using optical images
Park et al. Caries detection with tooth surface segmentation on intraoral photographic images using deep learning
US20170091411A1 (en) Systems and methods for serial treatment of a muscular-skeletal deformity
US20140354830A1 (en) System and method for adding scale to photographic images
Pires et al. Wound area assessment using mobile application
Prathibha et al. Diabetic Foot Ulcer Analysis System
Kluwe Early-Detection of Diabetic Foot Ulceration Using Thermal Images
KR20230024234A (ko) 증강 현실 및 가상 현실을 이용하여 원격으로 피부 질환을 진단하는 진단 방법 및 장치
WO2022251925A1 (en) Method, system and software product for processing skin field images
Vasefi et al. Diagnosis and management of hand arthritis using a mobile medical application
Dixit et al. SYSTEMATIC FOOT ULCERS ANALYSIS SYSTEM FOR DIABETES PATIENT

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190408

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190926

R150 Certificate of patent or registration of utility model

Ref document number: 6595474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250