JP2019531788A - 自己色調補正による創傷評価のための画像撮影方法及びシステム - Google Patents
自己色調補正による創傷評価のための画像撮影方法及びシステム Download PDFInfo
- Publication number
- JP2019531788A JP2019531788A JP2019511746A JP2019511746A JP2019531788A JP 2019531788 A JP2019531788 A JP 2019531788A JP 2019511746 A JP2019511746 A JP 2019511746A JP 2019511746 A JP2019511746 A JP 2019511746A JP 2019531788 A JP2019531788 A JP 2019531788A
- Authority
- JP
- Japan
- Prior art keywords
- image
- color
- images
- wound
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012937 correction Methods 0.000 title claims abstract description 36
- 238000011156 evaluation Methods 0.000 title description 10
- 238000003384 imaging method Methods 0.000 claims abstract description 84
- 230000008569 process Effects 0.000 claims abstract description 25
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 abstract description 2
- 206010052428 Wound Diseases 0.000 description 99
- 208000027418 Wounds and injury Diseases 0.000 description 99
- 238000010586 diagram Methods 0.000 description 6
- 210000003371 toe Anatomy 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012854 evaluation process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 206010011985 Decubitus ulcer Diseases 0.000 description 1
- 208000004210 Pressure Ulcer Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/445—Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
- A61B5/0013—Medical image data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/1032—Determining colour for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7282—Event detection, e.g. detecting unique waveforms indicative of a medical condition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0077—Colour aspects
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Pathology (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- General Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Library & Information Science (AREA)
- Physiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dermatology (AREA)
- Dentistry (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- Psychiatry (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
Rw=R0/R*255
Gw=G0/G*255
Bw=B0/B*255 (式2)
式中、R、G、及びBは新たに撮影された基準領域の平均色値であり、R0、G0、及びB0は対応する登録基準領域の平均色値である。複数の基準領域を用いてホワイトバランス値Rwa、Gwa、及びBwaの平均値が計算される。第1の閾値未満の色差値を持つ新たに撮影された基準領域(工程S109参照)のみをここでは用いて平均ホワイトバランス値を計算するのが好ましい。
Rc(i)=R(i)*Rwa/255
Gc(i)=G(i)*Gwa/255
Bc(i)=B(i)*Bwa/255 (式3)
式中、R(i)、G(i)、及びB(i)は新たに撮影した創傷画像のi番目のピクセルの色値であり、Rc(i)、Gc(i)、及びBc(i)は創傷画像のi番目の補正色値である。結果として、色調補正した創傷画像が生成される。
Claims (20)
- 色画像を用いて患者の創傷を評価する画像撮影装置を含むシステムで実行される方法であって、
初期登録段階中に
(a)前記患者の身体の一部である1つ以上の基準領域の1つ以上の第1の画像を撮影する工程、
(b)データベース中に前記1つ以上の第1の画像及び/又は前記1つ以上の第1の画像の色データを保存する工程、
創傷評価段階中に
(c)前記データベースから前記1つ以上の第1の画像及び/又は前記1つ以上の第1の画像の色データを読み出す工程、
(d)前記1つ以上の基準領域の1つ以上の第2の画像を撮影する工程、
(e)前記創傷及びその周囲領域を含む第3の画像を撮影する工程、
(f)前記第2の画像の色データを前記第1の画像の対応する色データと比較して色調補正データを計算し、前記計算された色調補正データに基づいて前記第3の画像の色値を補正する工程、及び
(g)前記創傷及びその周囲領域を含む前記補正された第3の画像を用いて前記創傷を評価する工程を含む、方法。 - 工程(f)は、
前記読み出された1つ以上の第1の画像を用いて前記1つ以上の基準領域の第1の平均色値を計算し、又は前記1つ以上の基準領域の第1の平均色値を前記データベースから読み出す工程、
前記1つ以上の基準領域の第2の平均色値を前記1つ以上の第2の画像から計算する工程、
前記第1の平均色値及び前記第2の平均色値を用いて平均ホワイトバランス値を計算する工程、及び
前記平均ホワイトバランス値を用いて前記第3の画像の色値を補正する工程を含む、請求項1に記載の方法。 - 工程(a)で撮影された前記1つ以上の第1の画像のそれぞれは、前記基準領域とともに撮像した色チェッカーを含み、前記色チェッカーは、既知の色値を持つ複数の色見本を含む物理的対象であり、
前記方法はさらに、
前記初期登録段階中の工程(a)の後、
前記1つ以上の第1の画像中の前記色チェッカーの前記色見本の色値を前記色チェッカーの対応する前記色見本の前記既知の色値に調整するカラーバランスを計算する工程、
前記計算されたカラーバランスを用いて前記1つ以上の第1の画像の色値を補正する工程、
前記カラーバランスを前記データベースに保存する工程、
前記創傷評価段階中の工程(f)の後、
前記カラーバランスを前記データベースから読み出す工程、
前記読み出されたカラーバランスを用いて前記1つ以上の第2の画像の色値を補正する工程、及び
前記読み出されたカラーバランスを用いて前記第3の画像の色値を補正する工程を含む、請求項1に記載の方法。 - 工程(a)は、第1の画像毎に、前記第1の画像における領域を前記基準領域として指定する工程を含み、当該工程は、前記領域を指定するユーザー入力を受信すること、又は前記第1の画像から生成された三次元画像を用いて前記領域を自動的に選択することにより行われ、前記選択される領域は、前記三次元画像を用いて決定された前記第1の画像の平坦な領域であり、
工程(b)は、前記データベース内に前記第4の画像における前記指定された補助基準領域の位置を保存する工程を含み、
工程(d)は、第2の画像毎に、前記第2の画像における領域を前記基準領域として指定する工程を含み、当該工程は、前記領域を指定するユーザー入力を受信すること、又は前記第2の画像から生成された三次元画像を用いて前記領域を自動的に選択することにより行われ、前記選択される領域は、前記三次元画像を用いて決定された前記第2の画像の平坦な領域である、請求項1に記載の方法。 - 前記創傷評価段階中の工程(d)の後かつ工程(e)の前に、
前記1つ以上の第1の画像中の各基準領域と、前記1つ以上の第2の画像中の対応する前記基準領域との間の色差値を計算する工程、及び
前記計算された色差値に基づいて、1つ以上の第2の画像を承認するか、又は工程(d)を繰り返して前記1つ以上の第2の画像を再度撮影するように命令を表示するかを決定する工程をさらに含む、請求項1に記載の方法。 - 前記初期登録段階中に
前記創傷及びその周辺領域を含む第4の画像を撮影する工程、
前記第4の画像の前記周囲領域の1つ以上の領域を補助基準領域として指定する工程、及び
前記データベース内に前記第4の画像及び前記第4の画像の前記指定された補助基準領域の位置を保存する工程をさらに含む、請求項1に記載の方法。 - 前記創傷評価段階中の工程(f)の前に、
前記データベースから前記第4の画像及び前記第4の画像の前記指定された補助基準領域の前記位置を読み出す工程、
前記第3の画像及び前記第4の画像の比較と、前記第4の画像の前記指定された補助基準領域の前記位置に基づいて、前記第3の画像の前記周囲領域の1つ以上の領域を前記第4の画像の前記補助基準領域に対応する補助基準領域として決定する工程、
前記第3の画像の各補助基準領域と、前記第4の画像の前記対応する補助基準領域との間の色差値を計算する工程、及び
前記計算された色差値に基づいて、前記第3の画像を承認するか、又は工程(e)を繰り返して前記第3の画像を再度撮影するように命令を表示するかを決定する工程をさらに含む、請求項6に記載の方法。 - 前記第4の画像を撮影する前記工程は、前記創傷及びその周囲領域を含む三次元画像を生成する工程を含み、
前記指定する工程は、前記三次元画像に基づいて、前記第4の画像中の1つ以上の領域を前記補助基準領域として自動的に選択する工程を含み、前記選択される領域は、前記三次元画像を用いて決定された前記創傷と同一平面にある、請求項6に記載の方法。 - 工程(e)は、前記画像撮影装置のビューファインダーに前記第4の画像中の前記創傷の境界の表示と、前記第4の画像中の前記補助基準領域の前記位置の表示とを重ね合わせる工程を含む、請求項6に記載の方法。
- 工程(a)は、撮影すべき前記患者の身体の前記一部を前記1つ以上の第1の画像に示すようにユーザーにメッセージを表示する工程を含み、工程(d)は、撮影すべき前記患者の身体の前記一部を前記1つ以上の第2の画像に示すように前記ユーザーにメッセージを表示する工程を含む、請求項1に記載の方法。
- 画像撮影装置を制御するために、前記画像撮影装置に色画像を用いて患者の創傷を評価する処理を実行させるようになっているコンピューター可読プログラムコードを組み込んだコンピューターで使用可能な非一時媒体を含むコンピュータープログラム製品であって、前記処理は
初期登録段階中に
(a)前記患者の身体の一部である1つ以上の基準領域の1つ以上の第1の画像を撮影する工程、
(b)データベース中に前記1つ以上の第1の画像及び/又は前記1つ以上の第1の画像の色データを保存する工程、
創傷評価段階中に
(c)前記データベースから前記1つ以上の第1の画像及び/又は前記1つ以上の第1の画像の色データを読み出す工程、
(d)前記1つ以上の基準領域の1つ以上の第2の画像を撮影する工程、
(e)前記創傷及びその周囲領域を含む第3の画像を撮影する工程、
(f)前記第2の画像の色データを前記第1の画像の対応する色データと比較して色調補正データを計算し、前記計算された色調補正データに基づいて前記第3の画像の色値を補正する工程、及び
(g)前記創傷及びその周囲領域を含む前記補正された第3の画像を用いて前記創傷を評価する工程を含む、コンピュータープログラム製品。 - 工程(f)は、
前記読み出された1つ以上の第1の画像を用いて前記1つ以上の基準領域の第1の平均色値を計算し、又は前記1つ以上の基準領域の第1の平均色値を前記データベースから読み出す工程、
前記1つ以上の基準領域の第2の平均色値を前記1つ以上の第2の画像から計算する工程、
前記第1の平均色値及び前記第2の平均色値を用いて平均ホワイトバランス値を計算する工程、及び
前記平均ホワイトバランス値を用いて前記第3の画像の色値を補正する工程を含む、請求項11に記載のコンピュータープログラム製品。 - 工程(a)で撮影された前記1つ以上の第1の画像のそれぞれは、前記基準領域とともに撮像した色チェッカーを含み、前記色チェッカーは、既知の色値を持つ複数の色見本を含む物理的対象であり、
前記処理は
前記初期登録段階中の工程(a)の後、
前記1つ以上の第1の画像中の前記色チェッカーの前記色見本の色値を前記色チェッカーの対応する前記色見本の前記既知の色値に調整するカラーバランスを計算する工程、
前記計算されたカラーバランスを用いて前記1つ以上の第1の画像の色値を補正する工程、
前記カラーバランスを前記データベースに保存する工程、
前記創傷評価段階中の工程(f)の後、
前記カラーバランスを前記データベースから読み出す工程、
前記読み出されたカラーバランスを用いて前記1つ以上の第2の画像の色値を補正する工程、及び
前記読み出されたカラーバランスを用いて前記第3の画像の色値を補正する工程をさらに含む、請求項11に記載のコンピュータープログラム製品。 - 工程(a)は、第1の画像毎に、前記第1の画像における領域を前記基準領域として指定する工程を含み、当該工程は、前記領域を指定するユーザー入力を受信すること、又は前記第1の画像から生成された三次元画像を用いて前記領域を自動的に選択することにより行われ、前記選択される領域は、前記三次元画像を用いて決定された前記第1の画像の平坦な領域であり、
工程(b)は、前記データベース内に前記第4の画像における前記指定された補助基準領域の位置を保存する工程を含み、
工程(d)は、第2の画像毎に、前記第2の画像における領域を前記基準領域として指定する工程を含み、当該工程は、前記領域を指定するユーザー入力を受信すること、又は前記第2の画像から生成された三次元画像を用いて前記領域を自動的に選択することにより行われ、前記選択される領域は、前記三次元画像を用いて決定された前記第2の画像の平坦な領域である、請求項11に記載のコンピュータープログラム製品。 - 前記処理は、前記創傷評価段階中の工程(d)の後かつ工程(e)の前に、
前記1つ以上の第1の画像中の各基準領域と、前記1つ以上の第2の画像中の対応する前記基準領域との間の色差値を計算する工程、及び
前記計算された色差値に基づいて、1つ以上の第2の画像を承認するか、又は工程(d)を繰り返して前記1つ以上の第2の画像を再度撮影するように命令を表示するかを決定する工程をさらに含む、請求項11に記載のコンピュータープログラム製品。 - 前記処理は、
前記初期登録段階中に
前記創傷及びその周辺領域を含む第4の画像を撮影する工程、
前記第4の画像の前記周囲領域の1つ以上の領域を補助基準領域として指定する工程、及び
前記データベース内に前記第4の画像及び前記第4の画像の前記指定された補助基準領域の位置を保存する工程をさらに含む、請求項11に記載のコンピュータープログラム製品。 - 前記処理は、
前記創傷評価段階中の工程(f)の前に、
前記データベースから前記第4の画像及び前記第4の画像の前記指定された補助基準領域の前記位置を読み出す工程、
前記第3の画像及び前記第4の画像の比較と、前記第4の画像の前記指定された補助基準領域の前記位置に基づいて、前記第3の画像の前記周囲領域の1つ以上の領域を前記第4の画像の前記補助基準領域に対応する補助基準領域として決定する工程、
前記第3の画像の各補助基準領域と、前記第4の画像の前記対応する補助基準領域との間の色差値を計算する工程、及び
前記計算された色差値に基づいて、前記第3の画像を承認するか、又は工程(e)を繰り返して前記第3の画像を再度撮影するように命令を表示するかを決定する工程をさらに含む、請求項16に記載のコンピュータープログラム製品。 - 前記第4の画像を撮影する前記工程は、前記創傷及びその周囲領域を含む三次元画像を生成する工程を含み、
前記指定する工程は、前記三次元画像に基づいて、前記第4の画像中の1つ以上の領域を前記補助基準領域として自動的に選択する工程を含み、前記選択される領域は、前記三次元画像を用いて決定された前記創傷と同一平面にある、請求項16に記載のコンピュータープログラム製品。 - 工程(e)は、前記画像撮影装置のビューファインダーに前記第4の画像中の前記創傷の境界の表示と、前記第4の画像中の前記補助基準領域の前記位置の表示とを重ね合わせる工程を含む、請求項16に記載のコンピュータープログラム製品。
- 工程(a)は、撮影すべき前記患者の身体の前記一部を前記1つ以上の第1の画像に示すようにユーザーにメッセージを表示する工程を含み、工程(d)は、撮影すべき前記患者の身体の前記一部を前記1つ以上の第2の画像に示すように前記ユーザーにメッセージを表示する工程を含む、請求項11に記載のコンピュータープログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/251,968 | 2016-08-30 | ||
US15/251,968 US10201306B2 (en) | 2016-08-30 | 2016-08-30 | Method and system for capturing images for wound assessment with self color compensation |
PCT/US2017/032173 WO2018044364A1 (en) | 2016-08-30 | 2017-05-11 | Method and system for capturing images for wound assessment with self color compensation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019531788A true JP2019531788A (ja) | 2019-11-07 |
JP6945620B2 JP6945620B2 (ja) | 2021-10-06 |
Family
ID=61241052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019511746A Active JP6945620B2 (ja) | 2016-08-30 | 2017-05-11 | システムの作動方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10201306B2 (ja) |
EP (1) | EP3507774B1 (ja) |
JP (1) | JP6945620B2 (ja) |
SG (1) | SG11201901254UA (ja) |
WO (1) | WO2018044364A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022201379A1 (ja) * | 2021-03-24 | 2022-09-29 | シミックホールディングス株式会社 | 制御装置、コンピュータプログラムおよび非一時的なコンピュータ可読媒体 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210264528A1 (en) | 2017-02-24 | 2021-08-26 | State Farm Mutual Automobile Insurance Company | Technology for analyzing image data to automatically manage customer policies |
US10958895B1 (en) * | 2017-10-04 | 2021-03-23 | Amazon Technologies, Inc. | High speed automated capture of 3D models of packaged items |
US11496676B2 (en) * | 2021-01-04 | 2022-11-08 | Healthy.Io Ltd | Providing guidance for wound image capturing |
EP4181053A1 (en) * | 2021-11-16 | 2023-05-17 | Koninklijke Philips N.V. | Determining spectral reflectance characteristics |
WO2023175132A1 (en) * | 2022-03-17 | 2023-09-21 | Pulse Biotech Ltd | System for monitoring tissue health |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09140676A (ja) * | 1995-11-28 | 1997-06-03 | Toshiba Medical Eng Co Ltd | 自動色補正方法及び同方法を用いたカラー画像表示装置 |
JPH1119050A (ja) * | 1997-07-01 | 1999-01-26 | Nippon Colin Co Ltd | 医療用画像伝送装置 |
US20130335545A1 (en) * | 2010-12-19 | 2013-12-19 | Matthew Ross Darling | System for integrated wound analysis |
JP2013255594A (ja) * | 2012-06-11 | 2013-12-26 | Canon Inc | 画像処理装置及び画像処理方法 |
JP2016516475A (ja) * | 2013-03-12 | 2016-06-09 | ユニバーシティ オブ ワシントン スルー イッツ センター フォー コマーシャリゼーション | ビリルビンレベルを推定すること |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7613335B2 (en) * | 2003-02-12 | 2009-11-03 | The University Of Iowa Research Foundation | Methods and devices useful for analyzing color medical images |
CA2541297C (en) * | 2003-10-03 | 2013-12-10 | Academisch Medisch Centrum | System and method for imaging the reflectance of a substrate |
US9402639B2 (en) * | 2005-12-14 | 2016-08-02 | General Electric Company | Method and apparatus for alignment of a mobile fluoroscopic imaging system |
US8129105B2 (en) * | 2006-04-13 | 2012-03-06 | Ralph Zuckerman | Method and apparatus for the non-invasive measurement of tissue function and metabolism by determination of steady-state fluorescence anisotropy |
CA2656553A1 (en) * | 2006-06-01 | 2007-12-13 | Simquest Llc | Method and apparatus for collecting and analyzing surface wound data |
US20120059254A1 (en) * | 2007-03-14 | 2012-03-08 | Wang Lifan | Apparatus and method for phase-space reduction for imaging of fluorescing, scattering and/or absorbing structures |
TR201901658T4 (tr) * | 2008-05-20 | 2019-02-21 | Univ Health Network | Floresan bazli görüntüleme ve i̇zleme i̇çi̇n ci̇haz ve metot |
JP5077325B2 (ja) | 2009-10-28 | 2012-11-21 | カシオ計算機株式会社 | 電子カメラ装置、色調整方法及びプログラム |
US20120259230A1 (en) * | 2011-04-11 | 2012-10-11 | Elven Riley | Tool for recording patient wound history |
KR101706216B1 (ko) * | 2012-04-03 | 2017-02-13 | 한화테크윈 주식회사 | 고밀도 삼차원 영상 재구성 장치 및 방법 |
US20140088402A1 (en) * | 2012-09-25 | 2014-03-27 | Innovative Therapies, Inc. | Wound measurement on smart phones |
JP6463047B2 (ja) * | 2014-09-05 | 2019-01-30 | キヤノン株式会社 | 眼科装置及び眼科装置の作動方法 |
US10425633B2 (en) * | 2016-12-30 | 2019-09-24 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for capturing images for wound assessment with moisture detection |
-
2016
- 2016-08-30 US US15/251,968 patent/US10201306B2/en active Active
-
2017
- 2017-05-11 EP EP17847117.3A patent/EP3507774B1/en active Active
- 2017-05-11 JP JP2019511746A patent/JP6945620B2/ja active Active
- 2017-05-11 WO PCT/US2017/032173 patent/WO2018044364A1/en unknown
- 2017-05-11 SG SG11201901254UA patent/SG11201901254UA/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09140676A (ja) * | 1995-11-28 | 1997-06-03 | Toshiba Medical Eng Co Ltd | 自動色補正方法及び同方法を用いたカラー画像表示装置 |
JPH1119050A (ja) * | 1997-07-01 | 1999-01-26 | Nippon Colin Co Ltd | 医療用画像伝送装置 |
US20130335545A1 (en) * | 2010-12-19 | 2013-12-19 | Matthew Ross Darling | System for integrated wound analysis |
JP2013255594A (ja) * | 2012-06-11 | 2013-12-26 | Canon Inc | 画像処理装置及び画像処理方法 |
JP2016516475A (ja) * | 2013-03-12 | 2016-06-09 | ユニバーシティ オブ ワシントン スルー イッツ センター フォー コマーシャリゼーション | ビリルビンレベルを推定すること |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022201379A1 (ja) * | 2021-03-24 | 2022-09-29 | シミックホールディングス株式会社 | 制御装置、コンピュータプログラムおよび非一時的なコンピュータ可読媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP6945620B2 (ja) | 2021-10-06 |
WO2018044364A1 (en) | 2018-03-08 |
SG11201901254UA (en) | 2019-03-28 |
US20180055440A1 (en) | 2018-03-01 |
EP3507774A4 (en) | 2019-12-25 |
EP3507774A1 (en) | 2019-07-10 |
EP3507774B1 (en) | 2022-07-06 |
US10201306B2 (en) | 2019-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6945620B2 (ja) | システムの作動方法及びプログラム | |
US8073318B2 (en) | Determining scene distance in digital camera images | |
US10945637B2 (en) | Image based jaundice diagnosing method and apparatus and image based jaundice diagnosis assisting apparatus | |
JP7031697B2 (ja) | 情報処理装置および認識支援方法 | |
US8285039B2 (en) | Image processor | |
US10504239B2 (en) | Methods and systems for camera characterization in terms of response function, color, and vignetting under non-uniform illumination | |
JP2004222118A (ja) | 撮影装置 | |
JP2011530911A (ja) | 欠陥目を高精度で検知するインカメラに基づいた方法 | |
JP3945430B2 (ja) | 画像による対象物の計測方法および撮像装置 | |
KR20140061089A (ko) | 스테레오 카메라 제어 장치 및 그 방법 | |
JP4696018B2 (ja) | 観察位置追従式映像提示装置及び観察位置追従式映像提示プログラム,映像提示装置及び映像提示プログラム | |
JP7477456B2 (ja) | 制御されていない環境において歯のシェードを評価する方法及びシステム | |
US8090253B2 (en) | Photographing control method and apparatus using strobe | |
JP7207520B2 (ja) | 興味判定装置、興味判定システム、興味判定方法及びプログラム | |
KR100904559B1 (ko) | 스테레오 영상을 이용한 안면 진단 방법 | |
EP3831060A1 (en) | Method and system for mapping the non-uniformity of an image sensor | |
US20190109986A1 (en) | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2017023474A (ja) | 皮膚毛穴解析装置,皮膚毛穴解析方法および該装置に用いるプログラム | |
JP2014060480A (ja) | 撮像装置 | |
JP7455656B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US9501840B2 (en) | Information processing apparatus and clothes proposing method | |
JP2004329620A (ja) | 撮像装置 | |
EP3820133A1 (en) | A system for performing image motion compensation | |
JP2018010498A (ja) | 画像処理装置及び方法並びに制御プログラム | |
JP5191772B2 (ja) | 撮像装置および3次元形状計測装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6945620 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |