JP2019531788A - 自己色調補正による創傷評価のための画像撮影方法及びシステム - Google Patents

自己色調補正による創傷評価のための画像撮影方法及びシステム Download PDF

Info

Publication number
JP2019531788A
JP2019531788A JP2019511746A JP2019511746A JP2019531788A JP 2019531788 A JP2019531788 A JP 2019531788A JP 2019511746 A JP2019511746 A JP 2019511746A JP 2019511746 A JP2019511746 A JP 2019511746A JP 2019531788 A JP2019531788 A JP 2019531788A
Authority
JP
Japan
Prior art keywords
image
color
images
wound
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019511746A
Other languages
English (en)
Other versions
JP6945620B2 (ja
Inventor
イ メイ,
イ メイ,
Original Assignee
コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド, コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド filed Critical コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
Publication of JP2019531788A publication Critical patent/JP2019531788A/ja
Application granted granted Critical
Publication of JP6945620B2 publication Critical patent/JP6945620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dermatology (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Psychiatry (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

自己色調補正を用いて撮影画像の色一致性と色に基づく創傷検出の信頼性を向上させる創傷画像撮影方法。本方法は、色較正及び色調補正のために患者自身の身体の複数部分の肌の色合いを用いる。データ登録処理の際に、新たな患者の身体の複数部分を基準画像として撮像し、基準画像の色データを基準色データとしてシステムに登録する。その後の創傷画像撮影及び創傷評価処理の間に患者身体の同じ部分を基準画像として再び撮像し、創傷及びその周囲領域も撮像する。新たに撮影された基準画像の色データを登録基準色データと比較して創傷画像の色調補正を行うために用いる。

Description

本発明は、傷評価の装置及び方法に関し、より具体的には目に見える外傷又は創傷を撮影する方法及びシステムに関する。
多くの種類の創傷、例えば褥瘡では、回復には長い時間がかかる場合がある。創傷の進行を追跡し、適切な処置を行うための最初の段階は、創傷の画像を適切に撮影することである。創傷の色は、創傷評価に有用な情報となる。しかし、問題になるのは、環境光、撮影装置、シャッター速度やアパーチャーの直径などの撮影条件が異なるために、被写体の色が異なるものと感じられたり撮影されたりすることである。上記の要因で生じる色の変動を補正する1つの方法は、分光放射照度計又は分光計を用いることであり、これらは高い精度の結果を提供するが、高価である。別の方法は、色較正用の標準色チェッカー(既知の色見本を持つ板)又は特注の色見本を用いること、つまり創傷の横に置いた色チェッカーと共に創傷画像を撮影することである。この方法はあまり高価ではないが、追加の装置又は色チェッカーを用いるのは、多くの外来診療所環境で、特に、決められた、又は日常的な処置では非常に不便である。
したがって、本発明は、従来技術の限界及び欠点による問題のうちの1つ以上を実質的に防止する創傷画像撮影方法を対象とする。
本発明の目的は、追加の分光測定装置又は色チェッカーを用いることなく、決められた手順又は日常的な手順で撮影された創傷画像の色調補正を提供することである。
本発明のさらなる特徴及び利点を以下の明細書に記載するが、特徴及び利点は部分的には本明細書から明らかとなり、あるいは本発明の実施から分かる場合もある。本発明の目的及び他の利点は、本明細書及び特許請求の範囲、並びに添付の図面で具体的に指摘する構造から理解及び実現される。
具体化され、広範囲にわたって記載されるように、これら及び/又は他の目的を達成するために、本発明は、色画像を用いて患者の創傷を評価する画像撮影装置を含むシステムで実行される方法を提供する。本方法は、初期登録段階中に(a)患者の身体の一部である1つ以上の基準領域の1つ以上の第1の画像を撮影する工程、(b)データベース中に1つ以上の第1の画像及び/又は1つ以上の第1の画像の色データを保存する工程、創傷評価段階中に(c)データベースから1つ以上の第1の画像及び/又は1つ以上の第1の画像の色データを読み出す工程、(d)1つ以上の基準領域の1つ以上の第2の画像を撮影する工程、(e)創傷及びその周囲領域を含む第3の画像を撮影する工程、(f)第2の画像の色データを第1の画像の対応する色データと比較して色調補正データを計算し、計算された色調補正データに基づいて第3の画像の色値を補正する工程、及び(g)創傷及びその周囲領域を含む補正された第3の画像を用いて創傷を評価する工程を含む。
好ましくは、工程(a)で撮影された1つ以上の第1の画像のそれぞれは、基準領域とともに撮像された色チェッカーを含み、色チェッカーは、既知の色値を持つ複数の色見本を含む物理的対象である。このカラーチェッカーを用いて撮影画像の予備色調補正を行うことができる。
好ましくは、本方法は、初期登録段階中に創傷及びその周辺領域を含む第4の画像を撮影する工程、第4の画像の周囲領域の1つ以上の領域を補助基準領域として指定する工程、及びデータベース内に第4の画像及び第4の画像の指定された補助基準領域の位置を保存する工程をさらに含む。
別の側面では、本発明は、画像撮影装置を制御するために、画像処理装置に上記の方法を実行させるようになっているコンピューター可読プログラムコードを組み込んだコンピューターで使用可能な非一時媒体(例えばメモリー又は記憶装置)を含むコンピュータープログラム製品を提供する。
なお当然のことであるが、上記の一般的記載及び以下の詳細な記載の両方は、例示かつ説明のためのものであり、特許請求される本発明のさらなる説明を提供することを意図している。
例示的な実施形態によるグラフィカル・ユーザー・インターフェースを用いる創傷評価用の撮像装置を示す。 図1の撮像装置の構造を示すハードウェア概略ブロック図である。 本発明の実施形態による創傷画像撮影・色調補正処理を概略的に示す。 図3の処理の様々な工程の詳細を概略的に示す。 図3の処理の様々な工程の詳細を概略的に示す。 図3の処理の様々な工程の詳細を概略的に示す。 図3の処理の様々な工程の詳細を概略的に示す。 図3の処理の様々な工程の詳細を概略的に示す。 図3の処理の様々な工程の詳細を概略的に示す。 図3の処理の様々な工程における撮像装置の例示的な画面を概略的に示す。 図3の処理の様々な工程における撮像装置の例示的な画面を概略的に示す。 図3の処理の様々な工程における撮像装置の例示的な画面を概略的に示す。 図3の処理の様々な工程における撮像装置の例示的な画面を概略的に示す。 図3の処理の様々な工程における撮像装置の例示的な画面を概略的に示す。 図3の処理の様々な工程における撮像装置の例示的な画面を概略的に示す。
図1に、本発明の実施形態によるグラフィカル・ユーザー・インターフェースを用いる創傷評価用の撮像装置1を示す。図2は、撮像装置1の構造を示すハードウェアブロック図である。図1に示すように、装置1は、グラフィカル・ユーザー・インターフェース又は画面15を含む。グラフィカル・ユーザー・インターフェース15は、タッチ画面又はパネル16を前面に含むのが好ましい。装置1は、背面に1つ以上のカメラ13及び14も含む。カメラ13は、二次元カメラの形態であり、カメラ14は、三次元カメラの形態であるのが好ましい。例えば、撮像装置1は、タブレットコンピューター、例えば三次元画像の撮影及び生成機能を持つ1つ以上のカメラを含むiPhone(登録商標)、iPad(登録商標)、Android使用可能装置、及び/又は他の様々な手持ち式携帯装置であってもよい。図1に示すように、装置1は、ユーザー・インターフェース又は画面15と外部筐体30を含むタブレット又はタブレット様装置であってもよい。
筐体内に電気部品が配置されている。電気部品は、装置1の具体的な機能に応じて変わってもよい。しかし、例示の電気部品は、通信インターフェース17、処理部11、及びコンピューター実行可能プログラムを保存する記憶部12を含んでもよい。撮像装置1は、ネットワーク19経由でデータ処理・記憶サーバー2と通信してもよい。以下に記載する方法は、撮像装置1及び/又はサーバー2に保存され、撮像装置及び/又はサーバーで実行されるコンピューター実行可能プログラムで実装してもよい。
本発明の実施形態は、自己色調補正を用いて撮影した画像の色一致性と色に基づく創傷検出の信頼性を向上させる創傷画像撮影方法を提供する。本方法は、色較正及び色調補正のために患者自身の身体の複数部分の肌の色合いを用いる。新たな患者の肌の色合いをデータ登録処理の際にシステムに登録し、その後の創傷画像撮影及び創傷評価の間に色調補正の基準として用いる。より具体的には、データ登録処理の際に新たな患者の身体の複数部分を基準画像として撮像し、基準画像の色データを基準色データとしてシステム内に登録する。その後の創傷画像撮影及び創傷評価処理の間に患者身体の同じ部分を基準画像として再び撮像し、創傷とその周囲領域も撮像する。新たに撮影した基準画像の色データを登録基準色データと比較して創傷画像の色調補正を行うために用いる。
図3に、本発明の実施形態による創傷画像撮影・色調補正処理を概略的に示す。図4〜図9は、図3の処理の様々な工程の詳細を概略的に示す。
図3に示すように、方法全体としては2つの段階を含む。1回目に行われる創傷を評価のために撮像する(工程S101で“yes”)第1の段階(登録段階。工程S102〜S106)では、患者自身の身体から基準色が取得されてシステム内に登録される。この登録段階は1回だけ行われる。創傷画像が日常的又は決められた処置で撮影される(工程S101で“no”)第2の段階(創傷評価段階。工程S107〜S116)は、2回目及びそれ以降に行われ、色調補正には、登録されている基準色が用いられる。
図3に示すように、第1の段階(基準色登録)は、以下の工程を含む。まず、患者の身体の様々な部分で複数の基準画像が標準色チェッカーとともに撮影され、画像中の適切な領域が基準領域として指定される(工程S102)。
基準領域は、(1)日光に直接かつ頻繁に露出しない、(2)健康状態、気分又は身体行動により変化しない肌の色合いを持つ、及び(3)比較的平坦である、複数の身体部分にあることが好ましい。いくつかの例では、基準領域は、腹部、背中、前腕又は上腕の内側等にあってもよい。色チェッカーは、既知の色値を持つ印刷色の色見本配列を持つ板である。基準画像が撮影される際には、色チェッカーは身体面又は身体近くに配置される。画像を撮影するときには、撮像装置のライト(例えば電灯又はフラッシュ)を点けるのが好ましい。
図4に、一実施形態による工程S102の詳細を示す。まず、撮像装置は、基準領域として用いるべき患者身体の1つ以上の部分のユーザー選択を受信する(工程S201)。これは、例えば図10に示すものなど基準領域として用いるのに典型的に適している身体部分を示す表示を含む身体概略図を撮像装置表面に表示することで行ってもよい。ユーザーは、画像撮影のためにタッチ画面を用いてこれらの部分のうちの1つ以上を選択することができる。
次に、撮像装置はメッセージを表示し、ユーザーは選択した基準領域のうちの1つに対してカメラを動かし、当該領域近くに色チェッカーを配置する(工程S202)。ユーザーは撮影命令を送信し(工程S203)、撮像装置は画像(二次元画像)を撮影する(工程S204)。図11に、基準領域、ここでは患者の腕101の一部にわたって色チェッカー板102を配置して撮影した画像を表示する例示画面を概略的に示す。次に、撮像装置は、ユーザー入力を受信し、画像の特定領域を色基準に用いるべき基準領域として指定する(工程S205)。この指定は、タッチ画面を用いてユーザーが行ってもよい。例えば、撮像装置は、ボックスを表示してユーザーがボックスを所望の位置にドラッグできるようにしてもよい。工程S202〜S205は、選択したすべての基準領域の画像を撮影するまで繰り返される(工程S206で“no”)。
図8に、別の実施形態による工程S102の詳細を示す。工程S601、S602、S603、及びS607は、工程S201、S202、S203、及びS206と同じである。撮像装置は、撮影命令に応答して立体画像を撮影し(工程S604)、立体画像から三次元画像を形成する(工程S605)。次に、撮像装置は、撮影画像中で基準領域として用いるべき領域を選択する(工程S606)。例えば、この工程で撮像装置は、三次元画像を用いて基準領域に適している平坦な領域を検出してもよい。撮像装置は、画像全体で色の均一性も測定して選択した基準領域が均一な色を確実に持つようにしてもよい。
再び図3を参照すると、工程S102の後、評価すべき創傷及び周囲領域の1つ以上の画像が撮影され、周囲領域内の1つ以上のより小さい領域が補助基準領域として指定される(工程S103)。
図5に、一実施形態による工程S103の詳細を示す。まず、撮像装置はメッセージを表示し、ユーザーはカメラを創傷とその周囲領域に対して動かす(工程S301)。撮像装置は、ビューファインダーに映っている被写体の二次元画像を撮影(工程S302)・表示し(工程S303)、ユーザーからの撮影命令を待つ(工程S304)。撮像装置は、撮影命令に応答して創傷及び周囲領域の立体画像を撮影し(工程S305)、三次元画像を形成する(工程S306)。画像の撮影には、撮像装置のライト(例えば電灯又はフラッシュ)を点けるのが好ましい。
次に、撮像装置は、撮影画像中の補助色基準領域として用いるべき周囲領域の1つ以上のより小さい領域を決定する(工程S307)。補助基準領域は平坦であり、創傷の中央部と同一平面上にあるか、当該平面の近くにあるのが好ましい。撮像装置は、三次元画像を用いて周囲領域が創傷と同一平面上にあるか、あるいは当該平面に近いかを判断する。撮像装置は、周辺領域の均一性も測定して選択した各補助基準領域が均一な色を確実に持つようにしてもよい。あるいは、補助基準領域の選択をユーザーが手動で、例えばタッチ画面を用いて(すなわち表示されたボックスをドラッグすることで)行ってもよい(図示せず)。典型的には、身体の頭部からつま先への方向が画像の上から下への方向になるように画像が撮影される。そのような画像の向きで、補助基準領域は創傷の上方又は下方、創傷の左側又は右側、あるいは任意の方向にあってもよい。
図12に、創傷103及び指定した補助基準領域104を表示する、工程S307の後の撮像装置の例示画面を概略的に示す。必要であれば、身体の頭部からつま先への方向を示す概略表示110を画像上に重ねる。
工程S103では、同じ画像又は別々の画像で創傷とその周囲領域が撮影されてもよい。1つの撮影画像が十分な詳細及び明暗差で創傷及び周囲領域を含むことができる場合には、同じ画像の創傷及び周囲領域を撮影するのが好ましい。さらに、可能であれば3つの領域、すなわち基準領域のうちの1つ、創傷、及びその周囲領域をすべて1つの画像に撮影するのがより好ましい。例えば、患者は腕を創傷に隣接するように動かして、その結果腕の内側を創傷及びその周囲領域ととともに同じ画像に撮影することができる。
再び図3を参照すると、工程S103の後に、撮像装置は、色チェッカーの画像に基づいてすべての撮影画像(基準及び創傷)に対して予備色調補正を行う(工程S104)。より具体的には、カラーバランス(色順応とも呼ばれる)演算を色チェッカーを含む各基準画像に適用して、画像中の色チェッカーの色見本の色値が色チェッカーの対応する色見本の既知の色値にほぼ等しくなるまで、画像の色を調整する。次に、同じカラーバランス(又は複数の基準画像の平均)を他の撮影画像に適用して、色を調整する。フォン・クリース法、ブラッドフォードXYZスケーリング、RGBスケーリングなどを含むがこれらに限定されない任意の好適なカラーバランスアルゴリズムを用いてもよい。
撮像装置は、基準領域及び創傷とその周囲領域の予備色調補正済み画像を色データとともにシステム(サーバー及び/又は撮像装置)に登録する(工程S105)。これは、データベースに(撮像装置内又はサーバーに)上記の予備色調補正済み画像、患者身体の基準領域の位置、補助基準領域の位置、各基準領域と各補助基準領域の平均色値(例えばRGB。必要に応じて。)、及び工程S104で色チェッカーに基づいて計算されたカラーバランスを保存することを含む。補助基準領域の位置を創傷の中央部及び身体の所定の方向(例えば頭部からつま先への方向)に対する位置として特定することができ、各肢の所定の区域の数などを用いて基準領域の位置を特定してもよい。必要であれば、元の(未補正の)撮影画像も保存することができる。あるいは、基準画像すべてではなくこれらの画像中の基準領域のみの部分画像を保存する。
創傷の撮影画像を用いて創傷評価を行ってもよく、結果をサーバー及び/又は撮像装置に保存してもよい(工程S106。登録段階で必要に応じて)。創傷評価手順は例えば、色及び/又は組織に基づいて創傷を検出すること、創傷の幅、高さ、及び奥行きと、創傷の色を測定することなどを含んでもよい。
日常的又は決められた手順として行われる第2の段階(創傷評価)では、撮像装置は、基準領域の登録基準色データと補助基準領域をシステム(サーバー及び/又は撮像装置)から読み出す(工程S107)。次に、撮像装置はメッセージを表示し、ユーザーはカメラを動かして基準領域に1つずつ狙いを定めて基準領域の画像を撮影する(工程S108)。これらの基準画像で色チェックは必要とされない。
図6に、一実施形態による工程S108の詳細を示す。まず、撮像装置はメッセージを表示し、ユーザーは基準領域のうちの1つに対してカメラを動かす(工程S401)。図13にこの工程の例示画面を概略的に示す。この例に見るように、画面は基準領域として以前に撮影された身体部分を示す表示を含む身体の概略図(図10の概略図に類似する)を含んでもよい。次に、撮像装置は、撮影命令に応答して(工程S402)基準領域の二次元画像を撮影する(工程S403)。次に、撮像装置は、登録段階中の工程S205と同様に、ユーザー入力を受信し、画像の特定の領域を色基準に用いるべき基準領域として指定する(工程S404)。工程S401〜S404は、すべての基準領域の画像を撮影するまで繰り返される(工程S405で“no”)。次に、撮像装置は、保存したカラーバランス、例えば工程S104で色チェッカーに基づいて計算されたカラーバランスを用いて、新たに撮影された基準画像に対して予備色調補正を行う(工程S406)。
図9に、別の実施形態による工程S108の詳細を示す。工程S701及びS702は、工程S401及びS402と同じである。撮像装置は立体画像を撮影し(工程S703)、三次元画像を形成する(工程S704)。次に、撮像装置は、撮影した画像中の基準領域として用いるべき領域を選択する(工程S705)。この工程は、図8の登録段階中の工程S606と同様である。次に、撮像装置は、保存したカラーバランス、例えば工程S104で色チェッカーに基づいて計算されたカラーバランスを用いて、新たに撮影された基準画像に対して予備色調補正を行う(工程S708)。
図3を再び参照すると、基準領域を撮影した後(予備色調補正を含む)、撮像装置は、各基準領域の平均色値を計算して、予備色調補正が行われた、登録された基準色データと比較する(工程S109)。この工程は、新たに撮影された基準領域毎に、新たに撮影された基準領域と、対応する登録基準領域との間の色差値を計算すること、及び計算された色差値を所定の第1の閾値と比較することを含む。
1つの実施例では、色差値は次式を用いて計算される。
Figure 2019531788
式中、R、G、及びBは、新たに撮影された基準領域の赤、緑、及び青の平均値であり、R0、G0、B0は、対応する登録基準領域の赤、緑、及び青の平均値である。上記の計算で、好適なフィルター技術を用いて平均値から離れている色を取り除いてもよい。所定の閾値は、例えばdE=10であってもよい(RGB値0〜255の範囲の場合)。他の色空間、例えばXYZ座標も用いて色差を計算してもよい。
複数の基準領域を処理し、かつ基準領域のすべて又は(閾値を超える)多くの基準領域が第1の閾値を超える色差値を持つ場合、又は基準領域が1つのみ存在し、かつその色差値が第1の閾値を超える場合(工程S110で“yes”)、撮像装置は警告メッセージを表示し、ユーザーは撮像条件、例えば周囲照明、身体部分の位置、撮影装置の設定などを確認する(工程S111)。処理は、工程S108に戻って基準画像を再び撮影する。例えば、この工程で表示されるメッセージに「多くの基準領域の登録基準と撮影した基準の間の色差が高すぎます。周囲照明、装置設定、及び撮影位置を確認し、基準画像を再度撮影してください」と記載してもよい。十分な数の基準領域が第1の閾値以下の色差値を持つまでこの処理を繰り返してもよい。
十分な数の新たに撮影された基準領域が第1の閾値以下の色差値を持っている場合(工程S110で“no”)、新たに撮影された基準画像が承認され、創傷及びその周囲領域の1つ以上の画像が撮影される(工程S112)。
図7に、一実施形態による工程S112の詳細を示す。まず、撮像装置はメッセージを表示し、ユーザーはカメラを創傷とその周囲領域に動かす(工程S501)。例えば、この工程で表示されるメッセージに「基準の確認に成功しました。創傷領域に移動して画像を撮影してください」と記載してもよい。工程S502〜S506(図5の登録段階中の工程S302〜S306と同じ)で、立体画像が撮影され、創傷及び周囲領域から三次元画像が形成される。
さらに(必要があれば)、工程S503で二次元画像をビューファインダーに表示する際に、撮像装置は、読み出したデータを用いてビューファインダーに、創傷中央部及び/又は境界の表示と、登録段階に指定された補助基準領域の表示とを重ねて表示してもよい。図14に、この工程の例示画面を示す。画面に以前に撮影された創傷境界の表示105、以前に指定された補助基準領域の表示106、以前に撮影された創傷境界に対する頭部からつま先への方向の表示111、及びビューファインダーに現在映っている創傷の画像107を示す。ユーザーは、視野角を頭部からつま先への方向の表示111の位置に合わせるように、又は現在の創傷画像107を創傷境界の表示105の位置に合わせるように、カメラを動かすか回すことができる。これにより、ユーザーが登録画像と同じ位置及び向きで創傷画像を撮影するように導く一助となる。
画像を撮影した後、撮像装置は、新たに撮影された画像中の創傷を予備的に検出し、登録創傷画像中の創傷境界を新たに撮影された画像中の創傷の位置に合わせるように創傷境界を回転及び変位させる。この位置合わせに基づいて、登録創傷画像の指定された補助基準領域に対応する新たに撮影された創傷画像中の領域が補助基準領域として特定される(工程S507)。さらに、図15に例示するように(回転及び変位後の)登録創傷105Aと登録補助基準領域106Aとの境界が、撮影された創傷画像中に頭部からつま先への方向の表示111Aとともに重ねられて表示されてもよい。この例示では、創傷が変わったので、新たに撮影された創傷107が登録創傷105Aよりもやや小さく示されている。
撮像装置は、保存されたカラーバランス、すなわち工程S104の色チェッカーに基づいて計算されたカラーバランスを用いて創傷画像に対する予備色調補正も行う(工程S508)。
図3を再び参照すると、(予備色調補正を含む)創傷とその周囲領域の画像の撮影及び補助基準領域の特定の後、新たに撮影された(予備色調補正を行った)創傷画像中の各補助基準領域及び対応する登録済みの(予備色調補正が行われた)補助基準領域の間の色差値を計算して平均し、補助基準領域の平均色差を取得する(工程S113)。例えば、上記の式(1)を用いて補助基準領域毎に色差を計算してもよい。他の色空間、例えばXYZ座標も用いて色差を計算してもよい。補助基準領域の平均色差が所定の第2の閾値を超える(工程S113で“yes”)場合(例えば、RGB値が0〜255の場合、dE≧3である。)、撮像装置は警告メッセージを表示し、ユーザーは撮像条件、例えば周囲照明、創傷位置、撮影装置の設定などを確認する(工程S114)。処理は工程S112に戻って創傷画像が再度撮影される。
補助基準領域の平均色差が所定の第2の閾値以下である場合(工程S113で“no”)、新たに撮影された創傷画像が承認され、撮像装置は、新たに撮影された画像及び登録基準画像の色データを用いて新たに撮影された創傷画像に対する第2の色調補正を行う(工程S115)。この工程では、どの画像も工程S104、S406、S508、又はS708の予備色調補正済み版を指す。
具体的には、撮像装置は、新たに撮影された基準領域(工程S108)と登録基準領域の色値を用いて現在のホワイトバランスRw、Gw、及びBwのRGB値を推定する。例えば、次式を各基準領域に用いてもよい。
Rw=R0/R*255
Gw=G0/G*255
Bw=B0/B*255 (式2)
式中、R、G、及びBは新たに撮影された基準領域の平均色値であり、R0、G0、及びB0は対応する登録基準領域の平均色値である。複数の基準領域を用いてホワイトバランス値Rwa、Gwa、及びBwaの平均値が計算される。第1の閾値未満の色差値を持つ新たに撮影された基準領域(工程S109参照)のみをここでは用いて平均ホワイトバランス値を計算するのが好ましい。
次に、平均ホワイトバランス値Rwa、Gwa、及びBwaを用い、平均ホワイトバランス値で各画像ピクセルの色値を調節して創傷画像の色値を補正する。
Rc(i)=R(i)*Rwa/255
Gc(i)=G(i)*Gwa/255
Bc(i)=B(i)*Bwa/255 (式3)
式中、R(i)、G(i)、及びB(i)は新たに撮影した創傷画像のi番目のピクセルの色値であり、Rc(i)、Gc(i)、及びBc(i)は創傷画像のi番目の補正色値である。結果として、色調補正した創傷画像が生成される。
次に、色調補正された創傷画像を用いて創傷評価を行い、結果がサーバー及び/又は撮像装置に保存される(工程S116)。結果を互いに比較できるように登録段階中(工程S106)及び日常的又は決められた各処置中(工程S116)に(撮像装置又はサーバーで実行される)同じ創傷評価手順又はアルゴリズムを用いるのが好ましい。
なお、上記の方法では登録段階中(工程S104)に色チェッカーを用いて計算される同じカラーバランスを用いて登録段階及び創傷評価段階の両方で撮影されたすべての画像に予備色調補正を行う(工程S104、S406、S508、及びS708参照)。これは、同じ撮像装置を用いてこれらすべての画像が撮影されるという予想に基づく。創傷評価段階中に、予備色調補正が行われた画像を用いて(基準領域に対する)色比較工程S109及び(補助基準領域に対する)色比較工程S113を行い、予備色調補正が行われた画像を用いて第2の色調補正工程S115を行う。
あるいは、創傷の絶対色が重要ではない特定の限られた状況では、予備色調補正工程S104、S406、S508、及びS708、すなわち色チェッカーに基づくすべての画像に対する色調補正を省いてもよい。未補正の基準と創傷画像に基づいて色比較工程S109及びS113を実行してもよい。そのような場合、すべての画像の色は、撮像装置のホワイトバランス設定の影響を受ける。しかし、患者の身体の一部を色基準用の基準領域として用いて色調補正を行う色調補正工程S115は、例えば照明条件、身体の位置などで色の変動が生じることがある場合に、異なる時間に撮像された異なる創傷画像間で色の変動を補正できる。
本発明の趣旨又は範囲を逸脱することなく本発明の創傷画像の撮影・自己色調補正方法及び画像撮影装置に様々な変更や変形が可能であることが当業者には明らかである。したがって、本発明は、添付の特許請求の範囲に包含される変更形態及び変形形態並びにそれらの均等物を含むことを意図する。
別の側面では、本発明は、画像撮影装置を制御するために、コンピューターに上記の方法を実行させるようになっているプログラムを提供する。
図1に、本発明の実施形態によるグラフィカル・ユーザー・インターフェースを用いる創傷評価用の撮像装置1を示す。図2は、撮像装置1の構造を示すハードウェアブロック図である。図1に示すように、装置1は、グラフィカル・ユーザー・インターフェース又は画面15を含む。グラフィカル・ユーザー・インターフェース15は、タッチ画面又はパネル16を前面に含むのが好ましい。装置1は、背面に1つ以上のカメラ13及び14も含む。カメラ13は、二次元カメラの形態であり、カメラ14は、三次元カメラの形態であるのが好ましい。例えば、撮像装置1は、タブレットコンピューター、例えば三次元画像の撮影及び生成機能を持つ1つ以上のカメラを含むiPhone(登録商標)、iPad(登録商標)、Android(登録商標)使用可能装置、及び/又は他の様々な手持ち式携帯装置であってもよい。図1に示すように、装置1は、ユーザー・インターフェース又は画面15と外部筐体30を含むタブレット又はタブレット様装置であってもよい。

Claims (20)

  1. 色画像を用いて患者の創傷を評価する画像撮影装置を含むシステムで実行される方法であって、
    初期登録段階中に
    (a)前記患者の身体の一部である1つ以上の基準領域の1つ以上の第1の画像を撮影する工程、
    (b)データベース中に前記1つ以上の第1の画像及び/又は前記1つ以上の第1の画像の色データを保存する工程、
    創傷評価段階中に
    (c)前記データベースから前記1つ以上の第1の画像及び/又は前記1つ以上の第1の画像の色データを読み出す工程、
    (d)前記1つ以上の基準領域の1つ以上の第2の画像を撮影する工程、
    (e)前記創傷及びその周囲領域を含む第3の画像を撮影する工程、
    (f)前記第2の画像の色データを前記第1の画像の対応する色データと比較して色調補正データを計算し、前記計算された色調補正データに基づいて前記第3の画像の色値を補正する工程、及び
    (g)前記創傷及びその周囲領域を含む前記補正された第3の画像を用いて前記創傷を評価する工程を含む、方法。
  2. 工程(f)は、
    前記読み出された1つ以上の第1の画像を用いて前記1つ以上の基準領域の第1の平均色値を計算し、又は前記1つ以上の基準領域の第1の平均色値を前記データベースから読み出す工程、
    前記1つ以上の基準領域の第2の平均色値を前記1つ以上の第2の画像から計算する工程、
    前記第1の平均色値及び前記第2の平均色値を用いて平均ホワイトバランス値を計算する工程、及び
    前記平均ホワイトバランス値を用いて前記第3の画像の色値を補正する工程を含む、請求項1に記載の方法。
  3. 工程(a)で撮影された前記1つ以上の第1の画像のそれぞれは、前記基準領域とともに撮像した色チェッカーを含み、前記色チェッカーは、既知の色値を持つ複数の色見本を含む物理的対象であり、
    前記方法はさらに、
    前記初期登録段階中の工程(a)の後、
    前記1つ以上の第1の画像中の前記色チェッカーの前記色見本の色値を前記色チェッカーの対応する前記色見本の前記既知の色値に調整するカラーバランスを計算する工程、
    前記計算されたカラーバランスを用いて前記1つ以上の第1の画像の色値を補正する工程、
    前記カラーバランスを前記データベースに保存する工程、
    前記創傷評価段階中の工程(f)の後、
    前記カラーバランスを前記データベースから読み出す工程、
    前記読み出されたカラーバランスを用いて前記1つ以上の第2の画像の色値を補正する工程、及び
    前記読み出されたカラーバランスを用いて前記第3の画像の色値を補正する工程を含む、請求項1に記載の方法。
  4. 工程(a)は、第1の画像毎に、前記第1の画像における領域を前記基準領域として指定する工程を含み、当該工程は、前記領域を指定するユーザー入力を受信すること、又は前記第1の画像から生成された三次元画像を用いて前記領域を自動的に選択することにより行われ、前記選択される領域は、前記三次元画像を用いて決定された前記第1の画像の平坦な領域であり、
    工程(b)は、前記データベース内に前記第4の画像における前記指定された補助基準領域の位置を保存する工程を含み、
    工程(d)は、第2の画像毎に、前記第2の画像における領域を前記基準領域として指定する工程を含み、当該工程は、前記領域を指定するユーザー入力を受信すること、又は前記第2の画像から生成された三次元画像を用いて前記領域を自動的に選択することにより行われ、前記選択される領域は、前記三次元画像を用いて決定された前記第2の画像の平坦な領域である、請求項1に記載の方法。
  5. 前記創傷評価段階中の工程(d)の後かつ工程(e)の前に、
    前記1つ以上の第1の画像中の各基準領域と、前記1つ以上の第2の画像中の対応する前記基準領域との間の色差値を計算する工程、及び
    前記計算された色差値に基づいて、1つ以上の第2の画像を承認するか、又は工程(d)を繰り返して前記1つ以上の第2の画像を再度撮影するように命令を表示するかを決定する工程をさらに含む、請求項1に記載の方法。
  6. 前記初期登録段階中に
    前記創傷及びその周辺領域を含む第4の画像を撮影する工程、
    前記第4の画像の前記周囲領域の1つ以上の領域を補助基準領域として指定する工程、及び
    前記データベース内に前記第4の画像及び前記第4の画像の前記指定された補助基準領域の位置を保存する工程をさらに含む、請求項1に記載の方法。
  7. 前記創傷評価段階中の工程(f)の前に、
    前記データベースから前記第4の画像及び前記第4の画像の前記指定された補助基準領域の前記位置を読み出す工程、
    前記第3の画像及び前記第4の画像の比較と、前記第4の画像の前記指定された補助基準領域の前記位置に基づいて、前記第3の画像の前記周囲領域の1つ以上の領域を前記第4の画像の前記補助基準領域に対応する補助基準領域として決定する工程、
    前記第3の画像の各補助基準領域と、前記第4の画像の前記対応する補助基準領域との間の色差値を計算する工程、及び
    前記計算された色差値に基づいて、前記第3の画像を承認するか、又は工程(e)を繰り返して前記第3の画像を再度撮影するように命令を表示するかを決定する工程をさらに含む、請求項6に記載の方法。
  8. 前記第4の画像を撮影する前記工程は、前記創傷及びその周囲領域を含む三次元画像を生成する工程を含み、
    前記指定する工程は、前記三次元画像に基づいて、前記第4の画像中の1つ以上の領域を前記補助基準領域として自動的に選択する工程を含み、前記選択される領域は、前記三次元画像を用いて決定された前記創傷と同一平面にある、請求項6に記載の方法。
  9. 工程(e)は、前記画像撮影装置のビューファインダーに前記第4の画像中の前記創傷の境界の表示と、前記第4の画像中の前記補助基準領域の前記位置の表示とを重ね合わせる工程を含む、請求項6に記載の方法。
  10. 工程(a)は、撮影すべき前記患者の身体の前記一部を前記1つ以上の第1の画像に示すようにユーザーにメッセージを表示する工程を含み、工程(d)は、撮影すべき前記患者の身体の前記一部を前記1つ以上の第2の画像に示すように前記ユーザーにメッセージを表示する工程を含む、請求項1に記載の方法。
  11. 画像撮影装置を制御するために、前記画像撮影装置に色画像を用いて患者の創傷を評価する処理を実行させるようになっているコンピューター可読プログラムコードを組み込んだコンピューターで使用可能な非一時媒体を含むコンピュータープログラム製品であって、前記処理は
    初期登録段階中に
    (a)前記患者の身体の一部である1つ以上の基準領域の1つ以上の第1の画像を撮影する工程、
    (b)データベース中に前記1つ以上の第1の画像及び/又は前記1つ以上の第1の画像の色データを保存する工程、
    創傷評価段階中に
    (c)前記データベースから前記1つ以上の第1の画像及び/又は前記1つ以上の第1の画像の色データを読み出す工程、
    (d)前記1つ以上の基準領域の1つ以上の第2の画像を撮影する工程、
    (e)前記創傷及びその周囲領域を含む第3の画像を撮影する工程、
    (f)前記第2の画像の色データを前記第1の画像の対応する色データと比較して色調補正データを計算し、前記計算された色調補正データに基づいて前記第3の画像の色値を補正する工程、及び
    (g)前記創傷及びその周囲領域を含む前記補正された第3の画像を用いて前記創傷を評価する工程を含む、コンピュータープログラム製品。
  12. 工程(f)は、
    前記読み出された1つ以上の第1の画像を用いて前記1つ以上の基準領域の第1の平均色値を計算し、又は前記1つ以上の基準領域の第1の平均色値を前記データベースから読み出す工程、
    前記1つ以上の基準領域の第2の平均色値を前記1つ以上の第2の画像から計算する工程、
    前記第1の平均色値及び前記第2の平均色値を用いて平均ホワイトバランス値を計算する工程、及び
    前記平均ホワイトバランス値を用いて前記第3の画像の色値を補正する工程を含む、請求項11に記載のコンピュータープログラム製品。
  13. 工程(a)で撮影された前記1つ以上の第1の画像のそれぞれは、前記基準領域とともに撮像した色チェッカーを含み、前記色チェッカーは、既知の色値を持つ複数の色見本を含む物理的対象であり、
    前記処理は
    前記初期登録段階中の工程(a)の後、
    前記1つ以上の第1の画像中の前記色チェッカーの前記色見本の色値を前記色チェッカーの対応する前記色見本の前記既知の色値に調整するカラーバランスを計算する工程、
    前記計算されたカラーバランスを用いて前記1つ以上の第1の画像の色値を補正する工程、
    前記カラーバランスを前記データベースに保存する工程、
    前記創傷評価段階中の工程(f)の後、
    前記カラーバランスを前記データベースから読み出す工程、
    前記読み出されたカラーバランスを用いて前記1つ以上の第2の画像の色値を補正する工程、及び
    前記読み出されたカラーバランスを用いて前記第3の画像の色値を補正する工程をさらに含む、請求項11に記載のコンピュータープログラム製品。
  14. 工程(a)は、第1の画像毎に、前記第1の画像における領域を前記基準領域として指定する工程を含み、当該工程は、前記領域を指定するユーザー入力を受信すること、又は前記第1の画像から生成された三次元画像を用いて前記領域を自動的に選択することにより行われ、前記選択される領域は、前記三次元画像を用いて決定された前記第1の画像の平坦な領域であり、
    工程(b)は、前記データベース内に前記第4の画像における前記指定された補助基準領域の位置を保存する工程を含み、
    工程(d)は、第2の画像毎に、前記第2の画像における領域を前記基準領域として指定する工程を含み、当該工程は、前記領域を指定するユーザー入力を受信すること、又は前記第2の画像から生成された三次元画像を用いて前記領域を自動的に選択することにより行われ、前記選択される領域は、前記三次元画像を用いて決定された前記第2の画像の平坦な領域である、請求項11に記載のコンピュータープログラム製品。
  15. 前記処理は、前記創傷評価段階中の工程(d)の後かつ工程(e)の前に、
    前記1つ以上の第1の画像中の各基準領域と、前記1つ以上の第2の画像中の対応する前記基準領域との間の色差値を計算する工程、及び
    前記計算された色差値に基づいて、1つ以上の第2の画像を承認するか、又は工程(d)を繰り返して前記1つ以上の第2の画像を再度撮影するように命令を表示するかを決定する工程をさらに含む、請求項11に記載のコンピュータープログラム製品。
  16. 前記処理は、
    前記初期登録段階中に
    前記創傷及びその周辺領域を含む第4の画像を撮影する工程、
    前記第4の画像の前記周囲領域の1つ以上の領域を補助基準領域として指定する工程、及び
    前記データベース内に前記第4の画像及び前記第4の画像の前記指定された補助基準領域の位置を保存する工程をさらに含む、請求項11に記載のコンピュータープログラム製品。
  17. 前記処理は、
    前記創傷評価段階中の工程(f)の前に、
    前記データベースから前記第4の画像及び前記第4の画像の前記指定された補助基準領域の前記位置を読み出す工程、
    前記第3の画像及び前記第4の画像の比較と、前記第4の画像の前記指定された補助基準領域の前記位置に基づいて、前記第3の画像の前記周囲領域の1つ以上の領域を前記第4の画像の前記補助基準領域に対応する補助基準領域として決定する工程、
    前記第3の画像の各補助基準領域と、前記第4の画像の前記対応する補助基準領域との間の色差値を計算する工程、及び
    前記計算された色差値に基づいて、前記第3の画像を承認するか、又は工程(e)を繰り返して前記第3の画像を再度撮影するように命令を表示するかを決定する工程をさらに含む、請求項16に記載のコンピュータープログラム製品。
  18. 前記第4の画像を撮影する前記工程は、前記創傷及びその周囲領域を含む三次元画像を生成する工程を含み、
    前記指定する工程は、前記三次元画像に基づいて、前記第4の画像中の1つ以上の領域を前記補助基準領域として自動的に選択する工程を含み、前記選択される領域は、前記三次元画像を用いて決定された前記創傷と同一平面にある、請求項16に記載のコンピュータープログラム製品。
  19. 工程(e)は、前記画像撮影装置のビューファインダーに前記第4の画像中の前記創傷の境界の表示と、前記第4の画像中の前記補助基準領域の前記位置の表示とを重ね合わせる工程を含む、請求項16に記載のコンピュータープログラム製品。
  20. 工程(a)は、撮影すべき前記患者の身体の前記一部を前記1つ以上の第1の画像に示すようにユーザーにメッセージを表示する工程を含み、工程(d)は、撮影すべき前記患者の身体の前記一部を前記1つ以上の第2の画像に示すように前記ユーザーにメッセージを表示する工程を含む、請求項11に記載のコンピュータープログラム製品。
JP2019511746A 2016-08-30 2017-05-11 システムの作動方法及びプログラム Active JP6945620B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/251,968 2016-08-30
US15/251,968 US10201306B2 (en) 2016-08-30 2016-08-30 Method and system for capturing images for wound assessment with self color compensation
PCT/US2017/032173 WO2018044364A1 (en) 2016-08-30 2017-05-11 Method and system for capturing images for wound assessment with self color compensation

Publications (2)

Publication Number Publication Date
JP2019531788A true JP2019531788A (ja) 2019-11-07
JP6945620B2 JP6945620B2 (ja) 2021-10-06

Family

ID=61241052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019511746A Active JP6945620B2 (ja) 2016-08-30 2017-05-11 システムの作動方法及びプログラム

Country Status (5)

Country Link
US (1) US10201306B2 (ja)
EP (1) EP3507774B1 (ja)
JP (1) JP6945620B2 (ja)
SG (1) SG11201901254UA (ja)
WO (1) WO2018044364A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201379A1 (ja) * 2021-03-24 2022-09-29 シミックホールディングス株式会社 制御装置、コンピュータプログラムおよび非一時的なコンピュータ可読媒体

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210264528A1 (en) 2017-02-24 2021-08-26 State Farm Mutual Automobile Insurance Company Technology for analyzing image data to automatically manage customer policies
US10958895B1 (en) * 2017-10-04 2021-03-23 Amazon Technologies, Inc. High speed automated capture of 3D models of packaged items
US11496676B2 (en) * 2021-01-04 2022-11-08 Healthy.Io Ltd Providing guidance for wound image capturing
EP4181053A1 (en) * 2021-11-16 2023-05-17 Koninklijke Philips N.V. Determining spectral reflectance characteristics
WO2023175132A1 (en) * 2022-03-17 2023-09-21 Pulse Biotech Ltd System for monitoring tissue health

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09140676A (ja) * 1995-11-28 1997-06-03 Toshiba Medical Eng Co Ltd 自動色補正方法及び同方法を用いたカラー画像表示装置
JPH1119050A (ja) * 1997-07-01 1999-01-26 Nippon Colin Co Ltd 医療用画像伝送装置
US20130335545A1 (en) * 2010-12-19 2013-12-19 Matthew Ross Darling System for integrated wound analysis
JP2013255594A (ja) * 2012-06-11 2013-12-26 Canon Inc 画像処理装置及び画像処理方法
JP2016516475A (ja) * 2013-03-12 2016-06-09 ユニバーシティ オブ ワシントン スルー イッツ センター フォー コマーシャリゼーション ビリルビンレベルを推定すること

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7613335B2 (en) * 2003-02-12 2009-11-03 The University Of Iowa Research Foundation Methods and devices useful for analyzing color medical images
CA2541297C (en) * 2003-10-03 2013-12-10 Academisch Medisch Centrum System and method for imaging the reflectance of a substrate
US9402639B2 (en) * 2005-12-14 2016-08-02 General Electric Company Method and apparatus for alignment of a mobile fluoroscopic imaging system
US8129105B2 (en) * 2006-04-13 2012-03-06 Ralph Zuckerman Method and apparatus for the non-invasive measurement of tissue function and metabolism by determination of steady-state fluorescence anisotropy
CA2656553A1 (en) * 2006-06-01 2007-12-13 Simquest Llc Method and apparatus for collecting and analyzing surface wound data
US20120059254A1 (en) * 2007-03-14 2012-03-08 Wang Lifan Apparatus and method for phase-space reduction for imaging of fluorescing, scattering and/or absorbing structures
TR201901658T4 (tr) * 2008-05-20 2019-02-21 Univ Health Network Floresan bazli görüntüleme ve i̇zleme i̇çi̇n ci̇haz ve metot
JP5077325B2 (ja) 2009-10-28 2012-11-21 カシオ計算機株式会社 電子カメラ装置、色調整方法及びプログラム
US20120259230A1 (en) * 2011-04-11 2012-10-11 Elven Riley Tool for recording patient wound history
KR101706216B1 (ko) * 2012-04-03 2017-02-13 한화테크윈 주식회사 고밀도 삼차원 영상 재구성 장치 및 방법
US20140088402A1 (en) * 2012-09-25 2014-03-27 Innovative Therapies, Inc. Wound measurement on smart phones
JP6463047B2 (ja) * 2014-09-05 2019-01-30 キヤノン株式会社 眼科装置及び眼科装置の作動方法
US10425633B2 (en) * 2016-12-30 2019-09-24 Konica Minolta Laboratory U.S.A., Inc. Method and system for capturing images for wound assessment with moisture detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09140676A (ja) * 1995-11-28 1997-06-03 Toshiba Medical Eng Co Ltd 自動色補正方法及び同方法を用いたカラー画像表示装置
JPH1119050A (ja) * 1997-07-01 1999-01-26 Nippon Colin Co Ltd 医療用画像伝送装置
US20130335545A1 (en) * 2010-12-19 2013-12-19 Matthew Ross Darling System for integrated wound analysis
JP2013255594A (ja) * 2012-06-11 2013-12-26 Canon Inc 画像処理装置及び画像処理方法
JP2016516475A (ja) * 2013-03-12 2016-06-09 ユニバーシティ オブ ワシントン スルー イッツ センター フォー コマーシャリゼーション ビリルビンレベルを推定すること

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201379A1 (ja) * 2021-03-24 2022-09-29 シミックホールディングス株式会社 制御装置、コンピュータプログラムおよび非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
JP6945620B2 (ja) 2021-10-06
WO2018044364A1 (en) 2018-03-08
SG11201901254UA (en) 2019-03-28
US20180055440A1 (en) 2018-03-01
EP3507774A4 (en) 2019-12-25
EP3507774A1 (en) 2019-07-10
EP3507774B1 (en) 2022-07-06
US10201306B2 (en) 2019-02-12

Similar Documents

Publication Publication Date Title
JP6945620B2 (ja) システムの作動方法及びプログラム
US8073318B2 (en) Determining scene distance in digital camera images
US10945637B2 (en) Image based jaundice diagnosing method and apparatus and image based jaundice diagnosis assisting apparatus
JP7031697B2 (ja) 情報処理装置および認識支援方法
US8285039B2 (en) Image processor
US10504239B2 (en) Methods and systems for camera characterization in terms of response function, color, and vignetting under non-uniform illumination
JP2004222118A (ja) 撮影装置
JP2011530911A (ja) 欠陥目を高精度で検知するインカメラに基づいた方法
JP3945430B2 (ja) 画像による対象物の計測方法および撮像装置
KR20140061089A (ko) 스테레오 카메라 제어 장치 및 그 방법
JP4696018B2 (ja) 観察位置追従式映像提示装置及び観察位置追従式映像提示プログラム,映像提示装置及び映像提示プログラム
JP7477456B2 (ja) 制御されていない環境において歯のシェードを評価する方法及びシステム
US8090253B2 (en) Photographing control method and apparatus using strobe
JP7207520B2 (ja) 興味判定装置、興味判定システム、興味判定方法及びプログラム
KR100904559B1 (ko) 스테레오 영상을 이용한 안면 진단 방법
EP3831060A1 (en) Method and system for mapping the non-uniformity of an image sensor
US20190109986A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
JP2017023474A (ja) 皮膚毛穴解析装置,皮膚毛穴解析方法および該装置に用いるプログラム
JP2014060480A (ja) 撮像装置
JP7455656B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9501840B2 (en) Information processing apparatus and clothes proposing method
JP2004329620A (ja) 撮像装置
EP3820133A1 (en) A system for performing image motion compensation
JP2018010498A (ja) 画像処理装置及び方法並びに制御プログラム
JP5191772B2 (ja) 撮像装置および3次元形状計測装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210914

R150 Certificate of patent or registration of utility model

Ref document number: 6945620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150