JP2021051573A - 画像処理装置、および画像処理装置の制御方法 - Google Patents
画像処理装置、および画像処理装置の制御方法 Download PDFInfo
- Publication number
- JP2021051573A JP2021051573A JP2019174320A JP2019174320A JP2021051573A JP 2021051573 A JP2021051573 A JP 2021051573A JP 2019174320 A JP2019174320 A JP 2019174320A JP 2019174320 A JP2019174320 A JP 2019174320A JP 2021051573 A JP2021051573 A JP 2021051573A
- Authority
- JP
- Japan
- Prior art keywords
- reliability
- image
- image processing
- reference value
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 280
- 238000000034 method Methods 0.000 title claims description 112
- 238000000605 extraction Methods 0.000 claims abstract description 83
- 230000008859 change Effects 0.000 claims abstract description 17
- 239000000284 extract Substances 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 32
- 238000011156 evaluation Methods 0.000 claims description 27
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 89
- 208000004210 Pressure Ulcer Diseases 0.000 description 70
- 206010011985 Decubitus ulcer Diseases 0.000 description 46
- 238000002591 computed tomography Methods 0.000 description 32
- 238000003384 imaging method Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 19
- 238000013135 deep learning Methods 0.000 description 16
- 210000004185 liver Anatomy 0.000 description 15
- 230000006870 function Effects 0.000 description 11
- 230000037311 normal skin Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 239000010410 layer Substances 0.000 description 8
- 241000282341 Mustela putorius furo Species 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 230000035876 healing Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 208000024891 symptom Diseases 0.000 description 3
- 208000034693 Laceration Diseases 0.000 description 2
- 206010052428 Wound Diseases 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 208000034656 Contusions Diseases 0.000 description 1
- 206010061218 Inflammation Diseases 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000000416 exudates and transudate Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005469 granulation Methods 0.000 description 1
- 230000003179 granulation Effects 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001338 necrotic effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000037380 skin damage Effects 0.000 description 1
- 208000017520 skin disease Diseases 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30056—Liver; Hepatic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
【課題】被写体の画像から抽出される関心領域を、ユーザが視覚的に確認しながら調整可能とする。【解決手段】画像処理システムは、画像データを取得する取得手段と、前記画像データの各単位領域に対して、単位領域が抽出対象である信頼度を算出する算出手段と、関心領域を抽出するために用いる前記信頼度の基準値を変更する変更手段と、前記算出された単位領域の信頼度、および前記変更された基準値に基づいて、前記関心領域を抽出する抽出手段と、前記抽出された前記関心領域を表示する表示手段と、を有することを特徴とする。【選択図】図1
Description
本発明は、被写体の画像に基づいて被写体の領域を抽出する画像処理装置、および画像処理装置の制御方法に関するものである。
医療現場や介護現場において褥瘡を発症した患者に対し、定期的に褥瘡の評価をすることが求められており、そのうち褥瘡のサイズを計測することは褥瘡の進行具合を把握するための1つの指標となっている。褥瘡評価のツールとして、日本褥瘡学会学術教育委員会が開発した褥瘡状態判定スケール、“DESIGN−R(登録商標)”が提案されている。“DESIGN−R(登録商標)”は褥瘡をはじめとする傷の治癒過程を評価するためのツールである。この名称は、以下の各評価指標の頭文字をとったものである。即ち、深さ(Depth)、滲出液(Exudate)、大きさ(Size)、炎症・感染(Inflammation/Infection)、肉芽組織(Granulation)、壊死組織(Necrotic tissue)の頭文字をとったものである。“DESIGN−R(登録商標)”の採点は、褥瘡の治癒経過を評価し、適切なケア選択を行うために、定期的に採点し、病状を評価し管理していくことが開示されている。
“DESIGN−R(登録商標)”の「大きさ」の評価は、皮膚損傷範囲の長径と短径(長径と直交する最大径)を(cm単位で)測定し、各々を掛け合わせた数値から、大きさを7段階に分類するものである。
褥瘡の患部領域の内、どの2点間を長径及び短径として計測したかによって、取得されるサイズは変わることになる。しがたって、褥瘡の治癒経過等を正しく評価するために、医療関係者は、褥瘡の患部領域に対するメジャー等の当て方を毎回適切に調整する必要がある。
領域の自動認識について、特許文献1には、基板の配線や電極等を含めた画像を撮影し、選択した色域に基づいて領域を自動認識する技術が開示されている。特許文献2には、自動認識した領域を、他の構造物領域に基づいて補正する技術が開示されている。
被写体の表層に生じた損傷等の特定の領域を画像処理によって自動認識する場合であっても、以下のような問題が生ずる可能性がある。特定の領域として、前述した褥瘡等の患部領域を例に挙げた場合、撮影時にどこまでを患部とするかは撮像装置の判断によるが、評価の際に必要となる患部の画像の範囲は、医療関係者による評価の目的に応じて異なることが多い。例えば、医療関係者は、患部の内で最も損傷が大きい範囲のみについて評価を行うこともあれば、患部の中心から外縁の正常な皮膚の部分までをも含む広い範囲について評価を行う場合もある。
さらに、深層学習等の機械学習手法を用いて得られた分類器を用いて患部領域を抽出する場合、学習に用いた教師データの量が不十分であったり、不正確なデータであったりし
た場合に、医療関係者の判断と撮像装置の判断とが異なる可能性がある。特許文献1に開示されている技術では、ユーザの判断と異なる患部領域が抽出された場合、ユーザは、患部領域の抽出のために用いる色域を選択し直すことによって、患部領域を再抽出することは可能である。しかしながら、患部領域と同じ色域を持つが患部領域でない領域を、患部領域から外して再抽出することは困難である。
た場合に、医療関係者の判断と撮像装置の判断とが異なる可能性がある。特許文献1に開示されている技術では、ユーザの判断と異なる患部領域が抽出された場合、ユーザは、患部領域の抽出のために用いる色域を選択し直すことによって、患部領域を再抽出することは可能である。しかしながら、患部領域と同じ色域を持つが患部領域でない領域を、患部領域から外して再抽出することは困難である。
特許文献2に開示されている技術では、患部領域以外の構造物領域に基づいて患部領域が補正されるが、患部領域を補正するために参照可能な構造物が患部領域の周囲に存在しない場合、患部領域は補正されない。また、ユーザとの対話的な補正手段がなく、領域の微調整をすることは難しい。
本発明は、上述の課題に鑑みてなされたものであり、被写体の画像から抽出される関心領域を、ユーザが視覚的に確認しながら調整可能とすることを目的とする。
本発明の画像処理装置は、画像データを取得する取得手段と、前記画像データの各単位領域に対して、単位領域が抽出対象である信頼度を算出する算出手段と、関心領域を抽出するために用いる前記信頼度の基準値を変更する変更手段と、前記算出された単位領域の信頼度、および前記変更された基準値に基づいて、前記関心領域を抽出する抽出手段と、前記抽出された前記関心領域を表示する表示手段と、を有することを特徴とする。
本発明によれば、被写体の画像から抽出される関心領域を、ユーザが視覚的に確認しながら調整可能とすることができる。
以下、図面を参照しながら、本発明の好適な実施形態を説明する。
[第1実施形態]
まず、図1〜図4を参照して、第1実施形態に係る画像処理システムについて説明する。図1は、第1実施形態に係る画像処理システムの機能構成を例示する図である。画像処理システム100は、撮像装置120と、画像処理装置130とを有する。図2は、画像処理システム100により計測される被写体の一例を示す図である。本実施形態では、被写体201の臀部に生じた患部領域202の病態の一例を褥瘡として説明する。
まず、図1〜図4を参照して、第1実施形態に係る画像処理システムについて説明する。図1は、第1実施形態に係る画像処理システムの機能構成を例示する図である。画像処理システム100は、撮像装置120と、画像処理装置130とを有する。図2は、画像処理システム100により計測される被写体の一例を示す図である。本実施形態では、被写体201の臀部に生じた患部領域202の病態の一例を褥瘡として説明する。
画像処理システム100は、被写体201の患部領域202を含む画像を撮影し、被写体までの距離を取得する。画像処理システム100は、撮影した画像データ中の各画素に対して、抽出対象である褥瘡に分類される信頼度(褥瘡である信頼度)を算出する。ここでの画素は、画像データの単位領域に相当する。
ここで、信頼度について説明する。信頼度とは、分類の確からしさを表す数値である。信頼度を算出して画像を分類する機械学習アルゴリズムの例として、SVM(Support Vector Machine)や、深層学習がある。SVMの多クラスの識別器(classifier)は、入力された画像に対して、分類候補のクラスのそれぞれに分類される確からしさを、入力された画像の特徴量ベクトルと識別器の分離超平面との距離に基づいて算出する。識別器は、算出した値を信頼度として出力する。識別機は、信頼度の最も高かったクラスに、入力された画像を分類する。分類候補のクラスは、抽出対象に相当し、以下、分類クラスとも称される。
一方、深層学習には分類や意味的領域分割といったタスクが存在する。深層学習による分類のタスクでは、分類対象の画像をニューラルネットワークに入力すると、ニューラルネットワークの中間層で画像の特徴量が抽出され、出力層で分類クラスそれぞれについての分類の確からしさを算出することができる。さらに、画像処理システム100は、算出した各クラスに対する分類の確からしさをソフトマックス関数によって0以上1以下の実数の範囲に、全クラスの和が1になるように正規化したものを信頼度として出力する。したがって、算出された信頼度はそれぞれのクラスに分類されるかどうかの確率として解釈することができる。そして、画像処理システム100は、信頼度の最も高かったクラスに、画像を分類する。
また、深層学習による意味的領域分割のタスクでは、画像処理システム100は、入力画像全体に対しての信頼度を算出するのではなく、入力画像の各画素に対しての信頼度を算出する。即ち、深層学習による意味的領域分割では、出力層は(入力画像の画素数)×(分類クラス数)分の信頼度マップを出力する。これらの信頼度は、入力画像の各画素について分類クラスに分類されるかどうかの信頼度を表している。分類のタスクの場合と同様に、各画素についての信頼度は、ソフトマックス関数によって0以上1以下の実数の範囲に正規化されている。このため、各画素についての信頼度は、各画素に対してそれぞれのクラスに分類されるかどうかの確率を表していると解釈することができる。画像処理システム100は、信頼度の最も高かったクラスに、各画素を分類することで、クラスごとに領域を分割することができる。
本実施形態は、深層学習による意味的領域分割のタスクを用いて、画像中の各画素に対して褥瘡である信頼度を算出する例を説明する。画像処理システム100は、算出された各画素の信頼度に基づいて、患部領域202を抽出または領域分割する。以下の説明において、患部領域202は、画像処理システム100によって抽出または領域分割された抽
出結果であって、関心領域に相当する。
出結果であって、関心領域に相当する。
画像処理システム100は、患部領域202の抽出結果(領域分割結果)を、撮像装置120の表示手段によって表示する。ユーザは、表示された領域分割結果が過大であるか否か、または過小であるか否かを確認する。過大または過小であった場合、ユーザは、各画素の信頼度の基準値、すなわち信頼度が特定の数値以上の領域を抽出するための基準値を設定する操作を行う。画像処理システム100は、設定された信頼度の基準値および各画素の信頼度に基づいて、患部領域202の抽出または領域分割をやり直す。
例えば、ユーザが信頼度の基準値を90に設定した場合、抽出された患部領域202よりもう少し広い範囲まで褥瘡として含めたい場合がある。この場合、ユーザは、信頼度を85や80まで下げることで、所望の範囲の患部領域202が抽出されるように調整することができる。ユーザは、適切な患部領域202が抽出されたと判断するまで、視覚的に確認しながら対話的に調整を繰り返すことで、適切に補正された領域分割結果を得ることができる。
画像処理システム100は、被写体までの距離およびカメラの画角に基づいて1画素あたりの面積を計測する。画像処理システム100は、調整後の領域および1画素あたりの面積から患部領域202の面積を算出することができる。尚、抽出対象は、褥瘡に限定されるものではなく、やけど、裂傷、等であってもよい。抽出対象は患部に限定されるものではなく、電子データにおける画像中のオブジェクトであってもよい。尚、対象となる患部の症状が変わると、深層学習における意味的領域が異なるので、対象となる患部の症状が異なる場合には、症状に応じたシステムを使用する。
(撮像装置の機能構成)
図1に例示する撮像装置120の機能構成について説明する。撮像装置120は、例えば、ユーザが手持ち可能なポータブルデバイスである。撮像装置120は、基準値変更手段121、AF手段122(AutoFocus手段)、撮像手段123、画像処理手段124、情報生成手段125、表示手段126、出力手段127、第2取得手段128、および保存手段129、を有する。尚、撮像装置120は、デジタルスチルカメラやデジタルムービーカメラに限定されず、例えば、携帯電話やタブレット等であってもよい。また、撮像装置120は、ユーザが手持ち可能なポータブルデバイスであることが好ましいが、これに限られない。撮像装置120は、医療用カメラなどであってもよい。
図1に例示する撮像装置120の機能構成について説明する。撮像装置120は、例えば、ユーザが手持ち可能なポータブルデバイスである。撮像装置120は、基準値変更手段121、AF手段122(AutoFocus手段)、撮像手段123、画像処理手段124、情報生成手段125、表示手段126、出力手段127、第2取得手段128、および保存手段129、を有する。尚、撮像装置120は、デジタルスチルカメラやデジタルムービーカメラに限定されず、例えば、携帯電話やタブレット等であってもよい。また、撮像装置120は、ユーザが手持ち可能なポータブルデバイスであることが好ましいが、これに限られない。撮像装置120は、医療用カメラなどであってもよい。
基準値変更手段121は、患部領域202を抽出するために用いる信頼度の基準値を変更する。基準値変更手段121は、例えば、ユーザの操作に基づいて信頼度の基準値を変更することができる。尚、基準値変更手段121は、撮像装置120には含まれず、画像処理装置130が有するものであってもよい。
AF手段122は、被写体201に自動的に焦点を合わせる自動焦点調節機能を有する。また、AF手段122は、焦点の調節量またはフォーカスレンズの移動量から、被写体201までの距離(被写体距離)を出力する。
撮像手段123は、被写体201を撮像し、画像データを生成する。画像処理手段124は、撮像手段123が取得した画像に対し、現像を含む画像処理を行い、リサイズを行う。
情報生成手段125は、被写体201までの距離に関する距離情報を生成する。例えば、情報生成手段125は、AF手段122が出力する被写体距離に基づいて距離情報を生成してもよい。
表示手段126は、各種の表示制御を行う。表示手段126は、撮像手段123が撮像した画像、患部領域202を示す情報、患部領域202のサイズに関する情報、患部領域202を抽出するために用いた信頼度の基準値に関する情報、の少なくとも何れか1つに基づく表示を行う。表示手段126は、上記情報の少なくとも何れか1つを、撮像手段123が撮像した画像に重畳して表示してもよい。
出力手段127は、画像データと、被写体201までの距離に関する距離情報と、基準値変更手段121によって設定された信頼度の基準値に関する情報とを、画像処理装置130または外部装置に出力する。
第2取得手段128は、以下の情報を外部装置または画像処理装置130から取得する。即ち、第2取得手段128は、画像処理装置130によって生成された画像データと、抽出された患部領域を示す情報と、患部領域202のサイズに関する情報と、を取得する。
(画像処理装置の機能構成)
次に、図1に例示する画像処理装置130の機能構成について説明する。画像処理装置130は、撮像装置120に対する外部装置の一例であり、取得手段131と、信頼度算出手段132と、抽出手段133と、サイズ評価手段134と、重畳手段135と、第2出力手段136と、を有する。
次に、図1に例示する画像処理装置130の機能構成について説明する。画像処理装置130は、撮像装置120に対する外部装置の一例であり、取得手段131と、信頼度算出手段132と、抽出手段133と、サイズ評価手段134と、重畳手段135と、第2出力手段136と、を有する。
取得手段131は、撮像装置120が出力した画像データと、被写体201までの距離に関する距離情報と、基準値変更手段121によって設定された信頼度の基準値に関する情報を取得する。信頼度算出手段132は、画像データから、画像データの各画素について褥瘡である信頼度を算出する。
抽出手段133は、信頼度算出手段132によって算出された画像データの各画素についての信頼度と、取得手段131によって取得された信頼度の基準値に基づいて、患部領域202を抽出する。ここで、画像データから領域を抽出することは領域分割ともいう。
サイズ評価手段134は、抽出手段133によって抽出された患部領域202のサイズについての評価値を、取得手段131が取得した被写体201までの距離に関する距離情報に基づいて算出する。
重畳手段135は、患部領域202の抽出を行う際に用いた画像データに対して、抽出された患部領域202を示す情報と、患部領域202のサイズに関する情報と、患部領域を抽出するために用いた信頼度の基準値に関する情報と、を重畳する。
第2出力手段136は、重畳手段135によって生成された画像データと、抽出手段133によって抽出された患部領域についての情報と、サイズ評価手段134によって算出された患部領域202のサイズに関する情報と、を出力する。
(撮像装置のハードウェア構成)
図3を参照して、撮像装置120のハードウェア構成について説明する。図3は、撮像装置120のハードウェア構成を例示する図である。撮像装置120は、AF制御回路301、撮像ユニット302、ズーム制御回路306、測距システム307、画像処理回路308、通信装置309、およびシステム制御回路310を有する。撮像装置120は、更に、内部メモリ311、外部メモリI/F(Interface)312、表示装置313、操作部材314、および共通バス315を有する。
図3を参照して、撮像装置120のハードウェア構成について説明する。図3は、撮像装置120のハードウェア構成を例示する図である。撮像装置120は、AF制御回路301、撮像ユニット302、ズーム制御回路306、測距システム307、画像処理回路308、通信装置309、およびシステム制御回路310を有する。撮像装置120は、更に、内部メモリ311、外部メモリI/F(Interface)312、表示装置313、操作部材314、および共通バス315を有する。
AF制御回路301は、撮像信号(映像信号)の高周波成分を抽出し、抽出した高周波成分が最大になるフォーカスレンズの位置を探索して、フォーカスレンズを制御し、自動的に焦点を調節する。フォーカスレンズは、レンズ303に含まれる。このフォーカス制御方式は、TV−AFまたはコントラストAFとも称され、高精度な合焦が得られる特徴がある。また、AF制御回路301は、焦点の調節量またはフォーカスレンズの移動量に基づいて被写体201までの距離を出力する。
フォーカス制御方式はコントラストAFに限ったものではなく、位相差AFや、その他のAF方式でもよい。また、AF制御回路301は、焦点の調節量、またはフォーカスレンズの位置を検出し、フォーカスレンズの位置に基づいて被写体201までの距離を取得することができる。撮像装置120におけるAF手段122は、AF制御回路301が動作することで実現される。
撮像ユニット302は、レンズ303、シャッタ304、イメージセンサ305を有する。撮像装置120における撮像手段123は、撮像ユニット302が動作することで実現される。
レンズ303は、イメージセンサ305に被写体201の光学像を結像する。レンズ303には、露出量を調節するための絞り値を決定する絞りが含まれる。イメージセンサ305は、光学像を電気信号に変換するCCDや、CMOS素子等の電荷蓄積型の固体イメージセンサを有する。
シャッタ304は、開閉動作によりイメージセンサ305への露出や遮光を行い、シャッタ速度を制御する。尚、シャッタ304は、機械シャッタに限ったものではなく電子シャッタを用いてもよい。CMOSセンサを用いた撮像素子では、電子シャッタは、画素ごと、または、複数画素からなる領域ごと(例えば、ラインごと)に、まず、画素の蓄積電荷量をゼロにするリセット走査を行う。その後、撮像ユニット302は、リセット走査を行った画素ごと、或いは、複数画素からなる領域ごとに、それぞれ所定の時間を経過してから信号を読み出す走査を行う。
ズーム制御回路306は、レンズ303に含まれるズームレンズの駆動を制御する。ズーム制御回路306は、310からの指示に従ってズームモータ(不図示)を介してズームレンズを駆動する。これにより変倍が行われる。
測距システム307は、画面を複数の画素からなる所定のブロックに分割し、画面内のブロックごとに、被写体201までの距離を検出する機能を有する。このように測距システム307は、被写体201までの距離を検出するユニットである。測距システム307は、AF制御回路301の出力に基づいて、被写体201までの距離を検出してもよい。画面内のブロックが複数ある場合、測距システム307は、AFをブロックごとに繰り返し動作させることでブロックごとに、被写体201までの距離を検出する。
尚、測距システム307の一例としてTOF(Time Of Flight)センサを用いたシステムを用いてもよい。TOFセンサは、照射波の送信タイミングと、当該照射波が物体で反射された波である反射波の受信タイミングとの時間差(または位相差)に基づいて、当該物体までの距離を測定するセンサである。更に、測距システム307として、受光素子にPSD(Position Sensitive Device)を用いたPSD方式のシステム等を用いてもよい。情報生成手段125は、測距システム307により検出された距離を、距離情報として生成する。
画像処理回路308は、イメージセンサ305から出力されたRAW画像データに画像処理を施す。画像処理回路308は、撮像ユニット302から出力された画像データ(RAW画像データ)、または後述する内部メモリ311に記憶されている画像信号のデータに対して、種々の画像処理を行う。画像処理には、例えば、ホワイトバランス調整、ガンマ補正、色補間、デモザイキング、またはフィルタリングの少なくとも1つが含まれる。また、画像処理回路308は、撮像ユニット302が撮像した画像信号のデータに対して、JPEG等の規格で、圧縮処理を行う。
通信装置309は、撮像装置120内の各構成が、無線のネットワーク(不図示)を介して、画像処理装置130等の外部装置と通信を行うための通信インターフェースである。出力手段127および第2取得手段128は、通信装置309が動作することで実現される。ネットワークの具体的な一例としては、Wi−Fi(登録商標)規格に基づくネットワークが挙げられる。尚、Wi−Fi(登録商標)を用いた通信はルーターを介して実現されてもよい。また、通信装置309は、USBやLAN等、有線の通信インターフェースにより実現されてもよい。
システム制御回路310は、CPU(Central Processing Unit)を有する。システム制御回路310は、内部メモリ311に記憶されているプログラムに従って、撮像装置120の各部を制御することにより全体制御を行う。また、システム制御回路310は、AF制御回路301、撮像ユニット302、ズーム制御回路306、測距システム307、画像処理回路308等の全体制御を行う。
内部メモリ311は、プログラムを記録するROM等の不揮発性メモリ、およびシステム制御回路310が作業用のワークメモリとして使用するRAM等のシステムメモリを含む。内部メモリ311は、撮像装置120の動作に必要な画像撮像時のピント位置の情報等の各種設定情報や、撮像ユニット302が撮像した画像や、画像処理回路308の処理を得た画像を一時的に記憶する。また、内部メモリ311は、通信装置309が画像処理装置130と通信して受信した画像データや、患部領域202のサイズに関する情報等の解析データや、患部領域202の抽出に用いる信頼度の基準値等を一時的に記憶してもよい。内部メモリ311は、例えば、フラッシュメモリ、SDRAM等の書き換え可能な不揮発性のメモリ等によって構成される。
外部メモリI/F312は、撮像装置120本体に装着可能な不揮発性の記憶媒体、または、撮像装置3の内部に固定された不揮発性の記憶媒体とのインターフェースである。外部メモリは、例えば、SDカードやCFカード等である。外部メモリI/F312は、画像処理回路308で処理された画像データや、通信装置309が画像処理装置130と通信して受信した画像データや解析データ等を、撮像装置120本体に装着可能な記憶媒体に記憶する。また、外部メモリI/F312は、画像データの再生時には、撮像装置120本体に装着可能な記憶媒体に記憶された画像データを読み出す。外部メモリI/F312は、読みだした画像データを、表示装置313に表示したり、撮像装置120の外部に出力したりすることが可能である。
表示装置313は、内部メモリ311に一時的に記憶されている画像、外部メモリI/F312に記憶されている画像やデータ、或いは、撮像装置120の設定画面等を表示する。表示装置313は、例えば、TFT(Thin Film Transistor)液晶ディスプレイ、有機ELディスプレイ、またはEVF(電子ビューファインダ)等によって構成される。表示手段126は、表示装置313に対応する。
操作部材314は、例えば、撮像装置120に設けられた、ボタン、スイッチ、キー、およびモードダイアルである。また、撮像装置120は、例えば、表示装置313と一体
的に構成され、表示面への接触を検知可能なタッチパネルを有する。モード設定、レリーズ等の撮影動作、患部領域202の抽出に用いる信頼度の基準値の設定等のユーザからの指令は、操作部材314を経由して、システム制御回路310に送信される。
的に構成され、表示面への接触を検知可能なタッチパネルを有する。モード設定、レリーズ等の撮影動作、患部領域202の抽出に用いる信頼度の基準値の設定等のユーザからの指令は、操作部材314を経由して、システム制御回路310に送信される。
共通バス315には、AF制御回路301、撮像ユニット302、ズーム制御回路306、測距システム307、および画像処理回路308が接続される。また、共通バス315には、通信装置309、システム制御回路310、内部メモリ311、外部メモリI/F312、表示装置313、および操作部材314も接続される。共通バス315は、各ブロック間で信号の送受信を行うための信号線である。
尚、撮像装置120は、撮像装置本体と着脱可能なレンズユニットであって、撮像素子を備えるレンズユニットを用いて構成されても良い。この場合、撮像装置本体は、撮像素子を有さない。
(画像処理装置のハードウェア構成)
次に、図4を参照して、画像処理装置130のハードウェア構成について説明する。図4は、画像処理装置130のハードウェア構成を例示する図である。図4の例では、画像処理装置130は、中央演算処理装置410と、記憶装置420と、入力装置430と、出力装置440と、補助演算装置450と、を有する。以下、中央演算処理装置410をCPU410と称する。
次に、図4を参照して、画像処理装置130のハードウェア構成について説明する。図4は、画像処理装置130のハードウェア構成を例示する図である。図4の例では、画像処理装置130は、中央演算処理装置410と、記憶装置420と、入力装置430と、出力装置440と、補助演算装置450と、を有する。以下、中央演算処理装置410をCPU410と称する。
CPU410は、演算装置411を有する。記憶装置420は、主記憶装置421と補助記憶装置422とを有する。主記憶装置421は、プログラムを記録するROM等の不揮発性メモリ、およびCPU410が作業用のワークメモリとして使用するRAM等のシステムメモリを含む。補助記憶装置422は、例えば、磁気ディスク装置、SSD(Solid State Drive)等である。
入力装置430は、例えば、マウスまたはキーボード等である。尚、画像処理装置130は、タッチパネルが出力装置440と一体的に構成されるタッチパネルディスプレイ等を、入力装置430として有してもよい。出力装置440は、例えば、コンピュータディスプレイである。入力装置430および出力装置440の一部はWi−Fi(登録商標)を用いた通信を行うための無線通信モジュールとして構成されてもよい。
補助演算装置450は、CPU410の制御の下で用いられる補助演算用ICである。補助演算装置450には、一例としてGPU(Graphic Processing Unit)を用いることができる。GPUは、元々は画像処理用のプロセッサであるが、複数の積和演算器を有し、行列計算を得意としているため、信号学習用の処理を行うプロセッサとしても用いられる。深層学習を行う処理においても、GPUが用いられることが一般的である。尚、補助演算装置450として、FPGA(Field−Programmable Gate Array)やASIC等を用いてもよい。
演算装置411は、記憶装置420に記憶されているプログラムを実行することで、画像処理装置130の取得手段131、信頼度算出手段132、抽出手段133、サイズ評価手段134、重畳手段135、および第2出力手段136として機能する。更に、演算装置411は、取得手段131、信頼度算出手段132、抽出手段133、サイズ評価手段134、重畳手段135、および第2出力手段136を実行する順番を制御する。
尚、画像処理装置130が備えるCPU410および記憶装置420は1つであってもよいし複数であってもよい。即ち、少なくとも1以上の処理装置(CPU)と少なくとも1以上の記憶装置とが接続されており、少なくとも1以上の処理装置が少なくとも1以上
の記憶装置に記憶されたプログラムを実行した場合に、画像処理装置130は上記の各手段として機能する。尚、処理装置はCPUに限定されるものではなく、FPGAやASIC等であってもよい。
の記憶装置に記憶されたプログラムを実行した場合に、画像処理装置130は上記の各手段として機能する。尚、処理装置はCPUに限定されるものではなく、FPGAやASIC等であってもよい。
(画像処理システムの動作)
図5を参照して、本実施形態に係る画像処理システムの動作について説明する。図5は、第1実施形態に係る画像処理システム100の動作例(フローチャートによる処理の例)を説明する図である。
図5を参照して、本実施形態に係る画像処理システムの動作について説明する。図5は、第1実施形態に係る画像処理システム100の動作例(フローチャートによる処理の例)を説明する図である。
以下、画像処理システム100の動作を示す各フローチャートにおいて、撮像装置120が実行する処理は“SA”、画像処理装置130が実行する処理は“SB”で始まる符号によって示される。撮像装置120が実行する各処理は、システム制御回路310が不揮発性の内部メモリ311に格納されたプログラムをシステムメモリに展開して実行することにより実現される。画像処理装置130が実行する処理は、CPU410が主記憶装置421のROMに格納されたプログラムをシステムメモリ(RAM)に展開して実行することにより実現される。なお、図5の処理は、撮像装置120に電源が入り、画像処理装置130からの探索処理に対して撮像装置120が応答すると開始する。
SA501の応答処理およびSB501の探索処理において、撮像装置120と画像処理装置130とは、例えば、無線LAN規格であるWifi規格のネットワーク(不図示)にそれぞれ接続することで相互に認識する。SB501において、画像処理装置130は、画像処理装置130に接続される撮像装置120を探索する。SA501において、撮像装置120は、画像処理装置130の探索処理に対して応答する。画像処理装置130による探索は、ネットワークを介した各種の機器探索技術が用いられる。機器探索技術は、例えば、UPnP(Universal Plug and Play)である。UPnPにおいて個々の装置はUUID(Universally Unique IDentifier)によって識別される。尚、通信の形態は、各装置が無線LANのアクセスポイントを介して通信をするインフラストラクチャー・モードに限られない。撮像装置120と画像処理装置130とは、アドホック・モードを用いてP2P(Peer to
Peer)通信を行ってもよい。
Peer)通信を行ってもよい。
S500:ライブビュー処理
次に、ライブビュー処理S500について説明する。ライブビュー処理S500は、撮像装置120の表示装置313(表示手段126)にライブ映像を表示する処理である。ライブビュー処理S500は、撮像装置120のSA502〜SA509の処理、および画像処理装置130のSB502〜SB507の処理を含む。
次に、ライブビュー処理S500について説明する。ライブビュー処理S500は、撮像装置120の表示装置313(表示手段126)にライブ映像を表示する処理である。ライブビュー処理S500は、撮像装置120のSA502〜SA509の処理、および画像処理装置130のSB502〜SB507の処理を含む。
SA502において、AF手段122は、AF処理を行う。AF処理は、患部領域202に焦点を合わせるように焦点が自動的に調節される。AF手段122は、画面を複数のブロックに分割し、所定のブロックでAF(Auto Focus)を行う。本実施形態では、画面の中央に患部領域202が配置されるように撮像装置120を構えるものとする。よって、AF手段122は、画面の中央に位置するブロックでAFを行う。また、AF手段122は、焦点の調節量またはフォーカスレンズの移動量から、被写体201のAFエリアまでの距離を出力する。
SA503において、撮像手段123は、被写体201の患部領域202が含まれるように、被写体201の画像を撮像する。尚、SA501の後、SA509でレリーズの指示がされるまでの間、SA502からSA509までの処理が繰り返される。
SA504において、画像処理手段124は、SA503で撮像された画像を現像し、
現像後の画像に対しJPEG等の規格で画像圧縮を行う。そして、画像処理手段124は、得られた画像のリサイズを実施する。SA504で生成された画像は、後述するSA506で画像処理装置130に無線通信により送信される。
現像後の画像に対しJPEG等の規格で画像圧縮を行う。そして、画像処理手段124は、得られた画像のリサイズを実施する。SA504で生成された画像は、後述するSA506で画像処理装置130に無線通信により送信される。
ここで、画像のリサイズについて説明する。画像処理装置130に送信される画像のサイズが大きいほど、無線通信による画像の送信には時間がかかる。このため、撮像装置120と画像処理装置130との間で許容される通信時間を考慮してリサイズ後の画像のサイズが選択される。
また、後述するSB504において、画像中の各画素について、褥瘡である信頼度を算出する処理がなされる。算出処理の時間および算出精度は、画像サイズに依存する。このため、これらの要件も考慮して、リサイズ後の画像のサイズが選択される。
更に、SA504の処理は、ライブビュー処理中の処理であるため、処理の時間が長いとライブ映像のフレームレートが低くなる可能性がある。画像処理手段124は、ライブビュー処理S500では、本撮影処理の画像処理(後述するS510のSA513)でリサイズするサイズ以下に画像をリサイズすることで、フレームレートの低下を抑制することができる。例えば、SA504において、画像処理手段124は、例えば、720画素×540画素で8ビットRGBカラーとして、サイズがおよそ1.1メガバイトとなるように画像をリサイズすることができる。リサイズ後の画像のサイズはこれに限られず、所定のフレームレートでライブビュー表示ができるサイズであればよい。
SA505において、情報生成手段125は、被写体201までの距離に関する距離情報を生成する。具体的には、情報生成手段125は、SA502のAF処理で得られた、被写体201のAFエリアまでの距離に基づいて距離情報を生成する。また、SA502において、画面を分割処理した複数のブロックのそれぞれについて、AF処理をする場合、情報生成手段125は、当該複数のブロックのそれぞれについて、被写体201までの距離を取得してもよい。尚、情報生成手段125は、TOF(Time Of Flight)センサ等、他のデバイスを用いて、距離情報を生成してもよい。
SA506において、出力手段127は、SA504で生成された画像データと、SA505で生成された被写体201までの距離に関する距離情報とを、画像処理装置130に送信(出力)する。
画像処理装置130は、SB502からSB507までの処理を実行する。SB502において、取得手段131は、撮像装置120から出力された画像データと、撮像された被写体201までの距離に関する距離情報とを受信(取得)する。
SB503において、信頼度算出手段132は、SB502で取得された画像データの各画素について褥瘡である信頼度を算出する。この場合、信頼度算出手段132は、画像データの全領域について信頼度の算出を行わなくてもよい。例えば、撮像した画像には患者の着衣や撮影者の手元などが映りこむ可能性があるため、信頼度算出手段132は、ユーザに指定された範囲において信頼度を算出するようにしてもよい。
各画素の信頼度の算出方法としては、深層学習による意味的領域分割が例示される。意味的領域分割では、学習用のコンピュータ(不図示)は、患部領域が既知である複数の実際の褥瘡患部の画像を教師データとしてニューラルネットワークのモデルを学習させて学習済モデルを生成する。信頼度算出手段132は、生成された学習済モデルに基づいて、入力画像の各画素が褥瘡である信頼度を算出する。
算出する信頼度は、褥瘡である信頼度に限られない。信頼度算出手段132は、例えば、正常な皮膚領域に分類される信頼度(正常な皮膚領域である信頼度)、皮膚以外の背景領域に分類される信頼度(背景領域である信頼度)を算出してもよい。各画素が分類される「褥瘡」、「正常な皮膚領域」、「背景領域」は、分類クラスの例である。
本実施形態では、ニューラルネットワークのモデルの一例として、深層学習を用いたセグメンテーション・モデルである完全畳み込みネットワーク FCN(Fully Convolutional Network)が適用される。FCNでは、各画素が分類クラスそれぞれに分類されるかの信頼度(FCNにおいて、confidenceと呼ばれる)を、各クラスに対する信頼度の和が1になるように出力する。
以下、FCNのネットワークにおける演算内容の一例を説明する。まず、畳み込み層では、入力された画像に対して、畳み込み演算を行った後に活性化関数を通して値が出力される。プーリング層では、複数の画素から代表値を取り出すプーリング操作が行われる。畳み込み層とプーリング層の重複を許す複数個の組み合わせを用いた演算によってダウンサンプリングが行われ、3次元の特徴量マップが得られる。その後、得られた3次元の特徴量マップに対して、デコンボリューション層を用いたアップサンプリング後の特徴量マップとダウンサンプリング前の特徴量マップとの和を複数回計算することで、(入力画像の画素数)×(分類クラス数)の特徴量が得られる。これらの特徴量は、入力画像の各画素について分類クラスに分類されるかどうかのスコアを表している。その後、各画素における分類クラスに分類されるかどうかのスコアをソフトマックス関数によって0以上1以下の実数の範囲に、全クラスの和が1になるように正規化する。FCNは、これらの値を、各画素が分類クラスそれぞれについて分類されるか否かの信頼度として出力する。
ここで、深層学習の推論は、積和演算の並列実行を得意とする補助演算装置450に含まれるGPUにより処理される。推論処理は、FPGAやASICなどにより実行されてもよい。また、他の深層学習のモデルを用いて各画素の信頼度を算出してもよい。尚、信頼度の算出方法は深層学習に限られない。例えば、ある注目画素について、注目画素の周辺領域(例えば、注目画素を中心とした矩形領域)に対してSIFT(Scale−Invariant Feature Transform)特徴量等の特徴量を抽出する。そして、抽出した特徴量を、SVM等の識別器に入力し、その出力の値を注目画素についての信頼度として算出してもよい。尚、信頼度の算出は各画素単位に対してのみ行うとは限られない。例えば、入力画像を縦m画素、横n画素(m、nは任意の自然数)の長方形のセル単位で区切り、各セルに対して信頼度を算出してもよい。さらに、区切る形状は長方形のセルに限らず、任意の形状のセグメントであってもよい。
SB504において、抽出手段133は、SB502で取得された画像データから、SB503で算出した各画素についての信頼度に基づいて、被写体201の患部領域202を抽出または領域分割する。患部領域202として、抽出または領域分割された領域は、「推定エリア」または「抽出された領域」とも称される。
本実施形態では、初期値の一例として、信頼度が50(%)以上の画素の集合を患部領域202として抽出する。尚、SB504において信頼度の基準値は50(%)に限られず、50(%)よりも大きい値としてもよい。また、患部領域102は、褥瘡である信頼度に基づいて抽出される場合に限られず、褥瘡以外の分類クラスに対する信頼度との組み合わせに基づいて抽出されてもよい。例えば、各分類クラスに対する信頼度の値のうち、褥瘡に対する信頼度の値が最も大きい画素の集合を患部領域202として抽出してもよい。また、例えば、褥瘡である信頼度が50(%)以上、かつ、正常な皮膚領域である信頼度が30(%)以下である画素の集合を患部領域202として抽出してもよい。
SB505において、サイズ評価手段134は、SB504で抽出された患部領域202の画像データ上のサイズを、画像データの画角もしくは画素サイズに関する情報、および、SA505で生成された距離情報に基づいて算出する。本実施形態では、サイズ評価手段134は、患部領域のサイズに関する情報の一例として、患部領域202の面積を算出する。
図6は、患部領域202の面積を算出する方法の一例を説明する図である。撮像装置120は、図6に示すようなピンホールモデルとして扱うことができる。入射光601は、レンズ303のレンズ主点を通り、イメージセンサ305の撮像面で受光する。撮像面からレンズ主点までの距離が焦点距離Fである。ここで、薄レンズ近似を用いる場合、前側主点および後側主点の2つの主点は一致するとみなせる。また、ピンホールモデルでは見かけ上、レンズ303が厚みのない単一のレンズであるが、実際のレンズは、フォーカスレンズを含む複数の厚みのあるレンズ、またはズームレンズで構成されていてもよい。
イメージセンサ305の平面に像が結像するようにレンズ303のフォーカスレンズを調整することで、撮像装置120は、被写体201に焦点を調節する。ズームレンズにより焦点距離Fを可変することで画角θが変化する。このとき、撮像装置120の画角θと被写体距離Dとの関係から幾何学的に合焦面における被写体201の幅Wが決定される。被写体201の幅Wは、三角関数を用いて計算される。即ち、被写体201の幅Wは、フォーカス位置とズーム量とをパラメタとする画角θと、被写体距離Dとの関係によって決定される。被写体201の幅Wの値を、当該幅Wに対応するイメージセンサ305のライン上の画素数で除算することにより、画像上の1画素に対応する合焦面上の長さが得られる。
患部領域202の面積は、SB504による領域分割の結果から得られる患部領域202の画素数と、画像上の1画素に対応する合焦面上の長さから得られる1画素の面積との積として算出される。尚、被写体201の幅Wもしくは画像上の1画素に対応する合焦面上の長さは、幅Wが既知の被写体を、被写体距離Dを変化させて撮像することにより、被写体のデータを取得し回帰的に求めてもよい。また、被写体距離Dが単一の場合は、正しく面積を求めるためには被写体が平面であることが前提となる。
患部領域202の面積は、次のように算出してもよい。SA505において、情報生成手段125は、画面の複数の位置で距離情報を生成する。SB505において、サイズ評価手段134は、情報生成手段125が生成した距離情報を用いて、被写体201の奥行方向の傾きや変化を検出し、検出した傾きや変化に基づいて、患部領域202の面積を算出してもよい。
さらに、サイズ評価手段134は、SB504による領域分割の結果から得られる患部領域202の長径と短径の長さ、および矩形面積を算出して患部領域202の面積としてもよい。患部領域202の長径と短径の長さ、および矩形面積は、画像データの画角または画素サイズに関する情報、および、SA505で生成された距離情報に基づいて算出することができる。
褥瘡の評価指標の“DESIGN−R(登録商標)”の中で、褥瘡のサイズは長径と短径の積の値を計測することが定められている。本実施形態における画像処理システムでは長径と短径の解析を行うことで、今まで“DESIGN−R(登録商標)”で計測されていたデータとの互換性を確保することができる。“DESIGN−R(登録商標)”は、数学的には複数の長径、短径の算出方法が考えられる。一例として、サイズ評価手段134は、患部領域202に外接する矩形のうち、面積が最小となる矩形(Minimum bounding rectangle)の長辺の長さを長径とし、短辺の長さを短径と
して算出することができる。
して算出することができる。
また、長径と短径の別の算出方法として、長径として最大のキャリパー長である最大フェレ径を、短径として最小フェレ径を選択してもよい。さらに、長径と短径の別の算出方法として、長径として最大のキャリパー長である最大フェレ径を、短径として、最大フェレ径の軸に直交する方向で計測した長さを選択してもよい。長径と短径の計算方法は、従来の計測結果との互換性に基づいて任意の方法を選択することができる。
SB506において、重畳手段135は、患部領域202の抽出を行う際に用いた画像データに対して、抽出された患部領域202を示す情報および患部領域202のサイズに関する情報を重畳する。図7および図8を参照して、抽出された患部領域202を示す情報および患部領域202のサイズに関する情報を画像データに重畳する方法について説明する。
図7は、患部領域を重畳する前の画像の第1の例を示す図である。画像700は、重畳処理前の画像である。被写体201、患部領域202が画像700に表示されている。
図8は、患部領域が重畳された画像の例を示す図である。画像800は、重畳処理後の画像である。画像800は、上部に患部領域202のサイズに関する情報を重畳して表示する。即ち、患部領域202の面積値801と、患部領域202の長径の長さ802と、患部領域202の短径の長さ803と、“DESIGN−R(登録商標)”の「大きさ」の評価結果804とが画像800に重畳して表示される。尚、801〜804の文字列および背景色の色は、見やすいものであれば白、黒に限らなくてもよい。また、透過量を設定してαブレンドすることで、文字列を重畳した部分の画像が確認できるようにしてもよい。
画像800は、SB504で抽出(領域分割)した患部領域202の推定エリア805として、αブレンドして重畳表示する。ユーザは、推定エリア805が重畳表示されることで、患部領域202として抽出された推定エリア805が妥当か否かを確認することができる。推定エリア805の色は、被写体201の色と重ならないようにすることが望ましい。αブレンドの透過率は、ユーザが推定エリア805を認識し、患部領域202を確認できる範囲が望ましい。尚、推定エリア805の重畳方法はαブレンドに限られない。例えば、推定エリア805は、全体を点滅させながら重畳して表示されてもよく、推定エリア805の外縁の線が重畳して表示されてもよい。尚、重畳手段135は、SB506において重畳前の画像と、推定エリア805の領域を示す画像とを重畳せず、撮像装置120が、受信した推定エリア805の領域を示す画像を重畳して表示してもよい。
SB507において、第2出力手段136は、SB504で抽出された患部領域202を示す情報を撮像装置120に送信(出力)する。また、第2出力手段136は、SB505で算出された患部領域202のサイズに関する情報を撮像装置120に出力する。本実施形態では、SB506で重畳処理が行われた画像800を撮像装置120に無線通信により出力する。
SA507において、第2取得手段128は、画像処理装置130から、抽出された患部領域202に関連する情報または患部領域202のサイズに関する情報のうち少なくとも何れかを取得する。本実施形態では、第2取得手段128は、画像処理装置130がSB507で出力した重畳処理済みの画像800を取得する。
SA508において、表示手段126は、SA507で受信した重畳処理済みの画像800を表示装置313に表示する。撮像装置120は、撮像手段123が生成したライブ
ビュー画像(画像700)に対して、抽出された患部領域202を示す情報または患部領域202のサイズに関する情報のうち少なくとも何れかを重畳して表示する。撮像装置120のユーザは、レリーズの前に患部領域202のサイズに関する情報と、患部領域202として推定された推定エリア805が妥当であるかを確認したうえで本撮影処理S510に進むことができる。
ビュー画像(画像700)に対して、抽出された患部領域202を示す情報または患部領域202のサイズに関する情報のうち少なくとも何れかを重畳して表示する。撮像装置120のユーザは、レリーズの前に患部領域202のサイズに関する情報と、患部領域202として推定された推定エリア805が妥当であるかを確認したうえで本撮影処理S510に進むことができる。
SA509において、システム制御回路310は、操作部材314のレリーズが押されたか否かを判定する。レリーズが押されていない場合、処理はSA502に戻る。レリーズが押された場合、ライブビュー処理S500を終了し、処理はSA511に進む。SA511より前のライブビュー処理S500は、ライブビュー表示のための処理であるのに対し、SA511以降の処理は、最終的に患部領域202のサイズに関する情報を計測し、画像を記録する本撮影処理S510である。
S510:本撮影処理
次に、本撮影処理S510について説明する。本撮影処理S510は、患部領域202を抽出するための本撮影の処理である。本撮影処理S510は、撮像装置120のSA511〜SA516の処理、および画像処理装置130のSB511〜SB516の処理を含む。
次に、本撮影処理S510について説明する。本撮影処理S510は、患部領域202を抽出するための本撮影の処理である。本撮影処理S510は、撮像装置120のSA511〜SA516の処理、および画像処理装置130のSB511〜SB516の処理を含む。
SA511において、AF手段122は、SA502と同様に、AF処理を行い、被写体201に合焦する。また、AF手段122は、焦点の調節量またはフォーカスレンズの移動量から、被写体201までの距離を出力する。SA512において、撮像手段123は、SA503と同様に、被写体201の患部領域202が含まれるように、被写体201の画像を撮像する。
SA513において、画像処理手段124は、SA504と同様に、現像処理およびリサイズ処理を行う。本撮影処理S510のSA513では、ライブビュー処理S500の画像処理であるSA504と比較すると、処理時間よりも、画像のサイズおよび患部領域202のサイズの計測精度が優先される。従って、画像処理手段124は、SA504で生成される画像のサイズ以上にリサイズした画像を生成する。例えば、SA513において、画像処理手段124は、1440画素×1080画素で4ビットRGBカラーとして、サイズがおよそ4.45メガバイトとなるように画像をリサイズすることができる。尚、リサイズ後の画像のサイズはこれに限られず、ライブビュー表示でのサイズよりも大きくなるようにリサイズされればよい。
SA514において、情報生成手段125は、SA505と同様に、被写体201までの距離に関する距離情報を取得(生成)する。SA515において、出力手段127は、SA506と同様に、SA513で生成された画像データと、SA514で生成された被写体201までの距離に関する距離情報を、画像処理装置130に送信(出力)する。
SB511において、取得手段131は、SB502と同様に、撮像装置120から出力された画像データと、撮像された被写体201までの距離に関する距離情報とを受信(取得)する。
SB512において、信頼度算出手段132は、SB503と同様に、SB511で取得された画像データに基づいて、画像データの各画素について褥瘡である信頼度を算出する。信頼度を算出する処理の詳細は、SB503の処理と同様であるため省略する。
SB513において、抽出手段133は、SB504と同様に、SB511で取得された画像データから、SB512で算出した各画素についての信頼度に基づいて、被写体2
01の患部領域202を抽出または領域分割する。患部領域202を抽出または領域分割する処理の詳細は、SB504の処理と同様であるため省略する。
01の患部領域202を抽出または領域分割する。患部領域202を抽出または領域分割する処理の詳細は、SB504の処理と同様であるため省略する。
SB514において、サイズ評価手段134は、SB505と同様に、SB513で抽出された患部領域202のサイズに関する情報を、SA514で生成された距離情報に基づいて算出する。患部領域202のサイズを評価する処理の詳細は、SB505の処理と同様であるため省略する。
SB515において、重畳手段135は、SB506と同様に、患部領域202の抽出を行う際に用いた画像データに対して、抽出された患部領域202を示す情報および患部領域202のサイズに関する情報を重畳する。重畳処理の詳細は、図7および図8を用いて説明したSB506の処理と同様であるため省略する。
ここで、図9を参照して、褥瘡である信頼度の基準値を、ユーザが変更するためのGUI(Graphical User Interface)について説明する。図9は、調整前の患部領域を表示する画像の第1の例を示す図である。尚、図8と同じ表示要素については同じ符号を付して、説明は省略する。
SB515において、重畳手段135は、図9に示すように、褥瘡である信頼度の基準値を変更するためのスライダー901を重畳する。スライダー901は、後述する領域調整処理S520において、ユーザが表示されている患部領域202とは異なるサイズや形の範囲を見たいと判断した場合に、基準値を変更するための操作に用いられる。
図9の例では、スライダー901の両端に、基準値の下限値“0”(%)、および上限値“100”(%)が記載されている。尚、基準値の下限値および上限値は、0および100に限られず、ユーザに基準値の変更を許容する範囲に限定してもよい。スライダー901中の白い縦長の長方形は現在の信頼度の基準値の設定値の位置を表す。スライダー901の設定値を選択するための選択部材902の上部には、現在の基準値である“50”(%)が記載されている。
尚、図9の例では、重畳手段135は、褥瘡の分類クラスに対する信頼度の基準値を変更するスライダー901を重畳するが、褥瘡以外の分類クラスに対する信頼度の基準値を変更するスライダーをさらに重畳してもよい。例えば、抽出手段133が、褥瘡以外の分類クラスに対する信頼度との組み合わせに基づいて患部領域202を抽出する場合には、重畳手段135は、他の分類クラスの信頼度の基準値を設定するためのスライダーも重畳する。他の分類クラスは、例えば、正常な皮膚領域、背景領域である。基準値の変更を行うためのGUIは、スライダーに限られず、ノブ等でもよい。
また、SB515では、重畳手段135は、画像900に、“Save”と書かれたボタンアイコン903を重畳する。ボタンアイコン903は、後述するSA522において、表示されている患部領域102を調整する操作がされた場合に、SA526に移行して、調整後の画像を保存する操作を行うために用いられる。尚、ボタンアイコン903の文字列は“Save”に限られず、画像を保存することを意味する文字列であればよい。また、ボタンアイコン903の形状は、長方形に限られず、丸型などであってもよい。
図5の説明に戻り、SB516において、第2出力手段136は、SB507と同様に、SB513で抽出された患部領域202を示す情報を撮像装置120に送信(出力)する。また、第2出力手段136は、SB514で算出された患部領域202のサイズに関する情報を撮像装置120に出力する。本実施形態では、SB515で重畳処理が行われた画像900を撮像装置120に無線通信により出力する。
SA516において、第2取得手段128は、SA507と同様に、画像処理装置130から、抽出された患部領域202に関連する情報を受信(取得)する。本実施形態では、第2取得手段128は、画像処理装置130がSB516で出力した重畳処理済みの画像900を取得する。
S520:領域調整処理
次に、領域調整処理S520について説明する。領域調整処理S520は、撮像装置120の表示装置313(表示手段126)に表示された画像中の患部領域202を、ユーザの操作に基づいて調整する処理である。画像処理装置130は、調整後の患部領域202を面積の計測対象とすることができる。
次に、領域調整処理S520について説明する。領域調整処理S520は、撮像装置120の表示装置313(表示手段126)に表示された画像中の患部領域202を、ユーザの操作に基づいて調整する処理である。画像処理装置130は、調整後の患部領域202を面積の計測対象とすることができる。
領域調整処理S520は、撮像装置120のSA521〜SA525の処理、および画像処理装置130のSB521〜SB525の処理を含む。領域調整処理S520の各処理は、適宜、図9および図10を参照して説明される。図9は、調整前の患部領域を表示する画像の第1の例を示す図である。図10は、調整後の患部領域を表示する画像の第1の例を示す図である。尚、図10において、図8および図9と同じ表示要素については同じ符号を付して参照する。
SA521において、表示手段126は、SA508と同様に、SA516またはSA525で取得された重畳処理済みの画像900(図9)を表示装置313に表示する。SA521では、SA508と異なり、表示手段126は、画像900に表示された患部領域202の推定エリア805(面積の計測対象とする領域)の範囲を、ユーザの操作に基づいて調整する。ユーザは、操作部材314を用いて、患部領域202の推定エリア805の範囲を調整することができる。
本実施形態において、面積の計測対象とする領域を調整するための操作手段は、表示装置313のタッチパネルディスプレイであるものとする。ユーザは、表示装置313の画面をタッチ操作することで、領域を調整することができる。尚、領域を調整するための操作手段は、タッチパネルディスプレイに限られず、撮像装置120が備えるボタンまたはレバー等であってもよい。
SA522において、基準値変更手段121は、SA521で表示した画像900に対し、ユーザの操作によって、基準値が変更されたか否かを判定する。基準値が変更された場合は、SA523へ進み、そうでない場合は、SA526ヘ進む。
ここで、図9を参照して、領域を調整する方法の一例を説明する。褥瘡である信頼度の基準値は、初期値として50(%)に設定されているものとする。SA521において、画像900には、基準値が50(%)以上である患部領域202の推定エリア904が、重畳して表示される。
推定エリア904がユーザの想定する褥瘡の領域に近い場合、ユーザは、領域を調整せずに、ボタンアイコン903をタップする。基準値は変更されていないため、処理はSA526に進む。
一方、推定エリア904がユーザの想定する褥瘡の領域よりも小さいかまたは大きい場合、ユーザは、推定エリア904を調整するためにスライダー901を操作する。ユーザは、スライダー901の選択部材902を左右のどちらかに移動することで推定エリア904を調整する。スライダー901が操作された場合、基準値が変更されるため、処理はSA523に進む。
SA523において、基準値変更手段121は、SA522でユーザが操作したスライダー901の選択部材902の位置に応じて、褥瘡である信頼度の基準値を変更する。例えば、図10では、スライダー901の選択部材902は、ユーザの操作により10(%)の位置に移動されている。したがって、褥瘡である信頼度の基準値は、10(%)に変更される。この場合、画像1000において、患部領域202の推定エリア1001は、基準値の低下により、図9の推定エリア904よりも広い範囲に拡大される。
尚、基準値が変更される分類クラスは、褥瘡に限られない。例えば、「正常な皮膚領域」、褥瘡以外の「あざ」、「傷」といった皮膚の疾患または状態に応じた複数の分類クラスに対して、それぞれの信頼度の基準値が変更できるようにしてもよい。また、複数の分類クラスに対する信頼度を組み合わせる場合、例えば、正常な皮膚領域である信頼度に対する褥瘡である信頼度の割合について、基準値を設定してもよい。
SA524において、出力手段127は、SA523で変更された信頼度の基準値に関する情報を、画像処理装置130に送信(出力)する。
SB521において、取得手段131は、撮像装置120から出力された、変更後の信頼度の基準値に関する情報を取得する。
次に、SB522において、抽出手段133は、SB511で取得された画像データから、変更された基準値に基づく患部領域202(調整後の推定エリア1001)を抽出または領域分割する。抽出手段133は、SB512で算出した各画素についての信頼度、およびSA523で変更された信頼度の基準値に関する情報に基づいて、患部領域202を抽出または領域分割することができる。基準値がより高い値に変更された場合、患部領域202は小さくなり、基準値がより低い値に変更された場合、患部領域202は大きくなる。
尚、患部領域202は、褥瘡である信頼度に基づいて抽出される場合に限られない。例えば、抽出手段133は、正常な皮膚領域であるかの信頼度が基準値以上である領域以外を、患部領域202として抽出してもよい。また、正常な皮膚領域である信頼度の基準値が30以下で、褥瘡であるかの信頼度の基準値が80以上というように複数の分類クラスに対する基準値を組み合わせて、患部領域202が調整されてもよい。
SB523において、サイズ評価手段134は、SB505と同様に、SB522で抽出された患部領域202のサイズに関する情報を、SA514で生成された距離情報に基づいて算出する。患部領域202のサイズに関する情報を算出する処理の詳細は、SB505の処理と同様であるため省略する。
SB524において、重畳手段135は、SB515と同様に、患部領域202の抽出を行う際に用いた画像データに対して、抽出された患部領域202を示す情報および患部領域202のサイズに関する情報を重畳する。重畳手段135は、さらにボタンアイコン903およびスライダー901を画像データに重畳する。重畳処理の詳細は、図7および図8を用いて説明したSB506およびSB515の処理と同様であるため省略する。
ただし、SB524では、重畳手段135は、図10に示す画像1000のように、スライダー901の選択部材902の位置をSA523で変更された基準値の値に対応する位置に変更して重畳する。図10は、SA523で信頼度の基準値が50(%)から10(%)に変更された場合を例示する。
SB525において、第2出力手段136は、SB507と同様に、SB522で抽出された患部領域202を示す情報を撮像装置120に送信(出力)する。また、第2出力手段136は、SB523で算出された患部領域202のサイズに関する情報を撮像装置120に出力する。本実施形態では、SB524で重畳処理が行われた画像1000を撮像装置120に無線通信により出力する。
SA525において、第2取得手段128は、SA507と同様に、画像処理装置130から、抽出された患部領域202に関連する情報を受信(取得)する。本実施形態では、第2取得手段128は、画像処理装置130がSB525で出力した重畳処理済みの画像1000を取得する。処理はSA521に戻り、表示手段126は、SA525で取得した患部領域202に関連する情報を表示装置313に表示する。
SA526において、保存手段129は、SA521で表示した患部領域202に関連する情報を、撮像装置120の外部メモリI/F312に記憶させ、図5に示す処理は終了する。
(第1実施形態の作用効果)
以上のように本実施形態によれば、撮像装置120は、被写体を撮影し、ユーザの操作に基づいて、褥瘡である信頼度の基準値を変更する。そして、画像処理装置130は、撮像された画像を解析し、ユーザが変更した信頼度の基準値を超えた画素の集合を患部領域202として抽出し、抽出した領域を、撮像された画像に重畳する。撮像装置120は、患部領域202を重畳した画像を表示装置313に表示する。ユーザ(医師などの医療従事者)は、例えば、褥瘡のサイズ評価の際に、画像処理システム100によって褥瘡である信頼度の基準値に基づいて抽出された患部領域202に対し、基準値を変更して面積を算出するための領域を微調整することができる。褥瘡である信頼度の変化が少ない境界部分は、視覚的に境界が曖昧であることや特殊な形状部分であることが多く、ユーザは、そのような境界部分を患部領域202として抽出するか否かを重点的に調整することができる。また、ユーザは、操作部材314の操作に基づいて、抽出される患部領域202の境界を確認しながら、対話的に患部領域202の調整をすることができる。
以上のように本実施形態によれば、撮像装置120は、被写体を撮影し、ユーザの操作に基づいて、褥瘡である信頼度の基準値を変更する。そして、画像処理装置130は、撮像された画像を解析し、ユーザが変更した信頼度の基準値を超えた画素の集合を患部領域202として抽出し、抽出した領域を、撮像された画像に重畳する。撮像装置120は、患部領域202を重畳した画像を表示装置313に表示する。ユーザ(医師などの医療従事者)は、例えば、褥瘡のサイズ評価の際に、画像処理システム100によって褥瘡である信頼度の基準値に基づいて抽出された患部領域202に対し、基準値を変更して面積を算出するための領域を微調整することができる。褥瘡である信頼度の変化が少ない境界部分は、視覚的に境界が曖昧であることや特殊な形状部分であることが多く、ユーザは、そのような境界部分を患部領域202として抽出するか否かを重点的に調整することができる。また、ユーザは、操作部材314の操作に基づいて、抽出される患部領域202の境界を確認しながら、対話的に患部領域202の調整をすることができる。
また、褥瘡のサイズは、現状では褥瘡の長径と短径を掛けた値として取得されるが、本実施形態に係る画像処理装置130によって褥瘡の患部領域の面積を算出することで、より的確に褥瘡の重症度を評価することができる。
[第2実施形態]
次に、第2実施形態について説明する。第1実施形態では、撮像装置120は基準値変更手段121を有し、褥瘡である信頼度の基準値は、ユーザ操作によって変更可能である。これに対し、本実施形態では、ユーザが選択した画素の信頼度の値を取得し、その値を信頼度の基準値として患部領域202が抽出される。即ち、ユーザの選択した画素と同じ信頼度である画素が境界となるように、患部領域202が抽出される。
次に、第2実施形態について説明する。第1実施形態では、撮像装置120は基準値変更手段121を有し、褥瘡である信頼度の基準値は、ユーザ操作によって変更可能である。これに対し、本実施形態では、ユーザが選択した画素の信頼度の値を取得し、その値を信頼度の基準値として患部領域202が抽出される。即ち、ユーザの選択した画素と同じ信頼度である画素が境界となるように、患部領域202が抽出される。
以上のように本実施形態は、基準値を設定する処理、およびユーザが選択した画素の信頼度に基づいて患部領域202を抽出する処理が、主として第1実施形態と異なる。本実施形態の説明において、第1実施形態と同一の構成および処理については、図1〜図10に付した符号と同一の符号を付すことにより詳細な説明を省略する。
(機能構成およびハードウェア構成)
図11は、第2実施形態に係る画像処理システムの機能構成を例示する図である。本実施形態の画像処理システム1100は、第1実施形態の画像処理システム100と以下の点で異なる。本実施形態の画像処理システム1100では、撮像装置1120は、基準値
変更手段121に代えて、画素選択手段1121を含む。画像処理装置1130は、信頼度取得手段1137を含む。また、画像処理装置1130の抽出手段1133および重畳手段1135は、第1実施形態の抽出手段133および重畳手段135とは処理内容が異なる。撮像装置1120および画像処理装置1130は、第1実施形態の撮像装置120および画像処理装置130と同じハードウェア構成(図3および図4を参照)により、本実施形態の処理を実現することができる。
図11は、第2実施形態に係る画像処理システムの機能構成を例示する図である。本実施形態の画像処理システム1100は、第1実施形態の画像処理システム100と以下の点で異なる。本実施形態の画像処理システム1100では、撮像装置1120は、基準値
変更手段121に代えて、画素選択手段1121を含む。画像処理装置1130は、信頼度取得手段1137を含む。また、画像処理装置1130の抽出手段1133および重畳手段1135は、第1実施形態の抽出手段133および重畳手段135とは処理内容が異なる。撮像装置1120および画像処理装置1130は、第1実施形態の撮像装置120および画像処理装置130と同じハードウェア構成(図3および図4を参照)により、本実施形態の処理を実現することができる。
撮像装置1120の画素選択手段1121は、ユーザが選択した画素の位置を取得する。選択された画素が褥瘡である信頼度は、患部領域202を抽出するための信頼度の基準値として用いられる。
画像処理装置1130の信頼度取得手段1137は、画素選択手段1121で選択された画素が褥瘡である信頼度を取得する。抽出手段1133は、画素選択手段1121で選択された画素の位置と、信頼度取得手段1137で取得された信頼度の値に基づいて、患部領域202を抽出する。重畳手段1135は、患部領域202の抽出を行う際に用いた画像データに対して、抽出された患部領域202を示す情報と、患部領域202のサイズに関する情報とを重畳する。
その他の画像処理システム1100(撮像装置1120および画像処理装置1130)の機能構成は、第1実施形態の画像処理システム100の機能構成に準ずる。
(画像処理システムの動作)
図12〜図16を参照して、本実施形態に係る画像処理システム1100の動作について説明する。図12は、第2実施形態に係る画像処理システム1100の動作例(フローチャートによる処理の例)を説明する図である。図12に示すフローチャートでは、領域調整処理1220の一部が、第1実施形態(図5)の領域調整処理520と異なる。図13および図14は、調整前後の患部領域を表示する画像の第2の例を示す図である。図15および図16は、調整前後の患部領域を表示する画像の第3の例を示す図である。
図12〜図16を参照して、本実施形態に係る画像処理システム1100の動作について説明する。図12は、第2実施形態に係る画像処理システム1100の動作例(フローチャートによる処理の例)を説明する図である。図12に示すフローチャートでは、領域調整処理1220の一部が、第1実施形態(図5)の領域調整処理520と異なる。図13および図14は、調整前後の患部領域を表示する画像の第2の例を示す図である。図15および図16は、調整前後の患部領域を表示する画像の第3の例を示す図である。
本実施形態の撮像装置1120のフローチャートでは、第1実施形態の撮像装置120のフローチャートに対し、SA522およびSA523の処理に代えて、SA1222およびSA1223の処理が追加される。
撮像装置1120が実行する各処理は、システム制御回路310が不揮発性の内部メモリ311に格納されたプログラムをシステムメモリ(RAM)に展開して実行することにより実現される。画像処理装置1130が実行する処理は、CPU410が主記憶装置421のROMに格納されたプログラムをシステムメモリに展開して実行することにより実現される。なお、図12の処理は、撮像装置1120に電源が入り、画像処理装置1130からの探索処理に対して撮像装置1120が応答すると開始する。
SA521では、表示手段126によって、SA516またはSA525で取得された重畳処理済みの画像1300(図13)が表示されている。SA1222において、画素選択手段1121は、操作部材314を用いてユーザが画素を選択する操作をしたか否かを判定する。ユーザが画素を選択する操作をした場合、処理はSA1223に進む。ユーザが画素を選択する操作をしていない場合、処理はSA526に進む。
SA1223では、画素選択手段1121は、画像1300においてユーザが操作部材314を用いて選択した特定の画素の位置を取得する。ユーザは、操作部材314として、例えば表示装置313のタッチパネルディスプレイを用いて、画像1300中の特定の画素を選択することができる。即ち、ユーザは、表示装置313の画面をタップすること
で、画像1300中の特定の画素を選択する。以下の説明において、ユーザが選択した画素は、「ユーザ選択画素」とも称される。
で、画像1300中の特定の画素を選択する。以下の説明において、ユーザが選択した画素は、「ユーザ選択画素」とも称される。
図13の例では、ユーザが患部領域202の境界であると判断する部分を、手1301でタップすることで、画素選択手段1121は、患部領域202の境界とされる画素の位置を取得することができる。尚、画像1300中の画素を選択するための操作手段は、タッチパネルディスプレイに限られず、撮像装置120が備えるボタン等であってもよい。
本実施形態の画像処理装置1130のフローチャートでは、SB1221〜SB1224の処理の内容が、第1実施形態での画像処理装置130のSB522〜SB524の処理の内容と異なる。
SB1221において、信頼度取得手段1137は、SA1223で選択された画素について、SB512で算出された褥瘡である信頼度を取得する。取得された信頼度は、患部領域202を抽出するための基準値として用いられる。
SB1222において、抽出手段1133は、SB521で取得された画像データから、被写体201の患部領域202を抽出または領域分割する。患部領域202は、SB512で算出した各画素についての信頼度と、SA1223で取得したユーザ選択画素の位置と、SB1221で取得したユーザ選択画素の信頼度に基づいて抽出される。
抽出手段1133は、SA1223で取得したユーザ選択画素の位置を中心とした半径r(rは定数)の円内の領域を、ユーザ選択画素の信頼度を基準値として患部領域202を抽出する。また、抽出手段1133は、円外の領域については、SB513で使用した基準値により患部領域202を再抽出する。即ち、抽出手段1133は、半径rの円内の画素に対して、SB512で算出した各画素の信頼度が、SB1221で取得したユーザ選択画素の信頼度以上である画素の集合を患部領域202として抽出する。また、抽出手段1133は、半径rの円外の画素に対して、SB512で算出した各画素の信頼度が50(%)以上である画素の集合を患部領域202として再抽出する。
図14に示す画像1400の例では、領域1401は、画像1300においてユーザにより選択された画素の信頼度を基準値として再抽出を行った部分領域を表している。図14に示す破線1402は、図13のユーザの手1301でタッチされた(選択された)画素の位置を中心とした半径rの円の周を表している。部分領域は、患部領域202の一部と重なる領域である。
患部領域202の再抽出は、図14のように、ユーザ選択画素の位置を中心とした半径rの円内の画素のうち、ユーザ選択画素の信頼度以上である画素を再抽出する方法に限られない。例えば、抽出手段1133は、半径rの円内の画素のうち、ユーザ選択画素により近い部分領域(例えば、半径r/2の円内)については基準値をユーザ選択画素の信頼度として再抽出する。部分領域以外の領域では基準値を変更前の50(%)のままとしてもよい。
抽出手段1133は、再抽出の対象とする範囲を半径rの円内に限定せず、画像1300内の画素のうち、ユーザ選択画素よりも信頼度が大きい画素を再抽出してもよい。また、抽出手段1133は、ユーザが選択した画素を中心とした正方形の部分領域に対して再抽出をしてもよい。
図15に示す画像1500の例では、患部領域202が2つの領域に分かれている。この場合、抽出手段1133は、ユーザの手1501で選択された画素に近い方の部分領域
に対して再抽出を行ってもよい。例えば、抽出手段1133は、ユーザ選択画素の信頼度の前後30(%)の信頼度である画素を含む閉じられた部分領域に対して、信頼度がユーザ選択画素の信頼度(基準値)以上であるか否かを判定する。
に対して再抽出を行ってもよい。例えば、抽出手段1133は、ユーザ選択画素の信頼度の前後30(%)の信頼度である画素を含む閉じられた部分領域に対して、信頼度がユーザ選択画素の信頼度(基準値)以上であるか否かを判定する。
図16に示す画像1600の例では、領域1601は、画像1500においてユーザの手1501によって選択された画素に近い推定エリアに対し、ユーザ選択画素の信頼度に基づいて再抽出された患部領域202を示している。ユーザが選択しなかった部分領域以外の領域は、再抽出前の信頼度に基づいて再抽出されてもよい。
図12のSB1224において、重畳手段1135は、まず、SB506と同様に、抽出された患部領域202を示す情報および患部領域202のサイズに関する情報を重畳する。重畳処理の詳細は、SB506の処理と同様であるため省略する。
SB1224では、重畳手段1135は、さらに、図14のアイコン1403および図16のアイコン1602を、それぞれ画面1400および画面1600に重畳する。アイコン1403およびアイコン1602は、ユーザがタッチすることにより、SA521で表示された再抽出後の患部領域202を、再抽出前の患部領域202の表示に戻す。
(第2実施形態の作用効果)
以上のように本実施形態によれば、画像処理装置1130は、ユーザが選択した画素における褥瘡である信頼度の値を取得し、取得した値を信頼度の基準値とする。画像処理装置1130は、ユーザが選択した画素の周辺の領域について、患部領域202を再抽出する。従って、本実施形態では、第1実施形態で説明した効果に加えて以下の効果を有する。ユーザは、褥瘡のサイズ評価の際に、初期値として例えば基準値50(%)で抽出された患部領域202に対し、抽出された領域を部分的に変更することができる。即ち、ユーザが目視をした結果、抽出された領域以外にも褥瘡と判断される領域があった場合、ユーザが褥瘡と判断した位置(画素)を選択することで、選択した位置の周辺の領域において、ユーザが褥瘡と考える部分を患部領域202として追加できる。
以上のように本実施形態によれば、画像処理装置1130は、ユーザが選択した画素における褥瘡である信頼度の値を取得し、取得した値を信頼度の基準値とする。画像処理装置1130は、ユーザが選択した画素の周辺の領域について、患部領域202を再抽出する。従って、本実施形態では、第1実施形態で説明した効果に加えて以下の効果を有する。ユーザは、褥瘡のサイズ評価の際に、初期値として例えば基準値50(%)で抽出された患部領域202に対し、抽出された領域を部分的に変更することができる。即ち、ユーザが目視をした結果、抽出された領域以外にも褥瘡と判断される領域があった場合、ユーザが褥瘡と判断した位置(画素)を選択することで、選択した位置の周辺の領域において、ユーザが褥瘡と考える部分を患部領域202として追加できる。
このように、ユーザは、抽出された領域を直感的に調整することが可能である。さらに、ユーザの判断と異なる境界部分の周辺において患部領域202を再抽出することができるため、ユーザの判断と合致している境界部分は、修正の影響を受けないようにすることができる。
[第3実施形態]
次に、第3実施形態について説明する。本実施形態では、被写体の画像と、ユーザによって領域が適切であると判断された患部領域に関連する情報とが、画像処理装置のデータベースに登録される。画像処理装置は、データベースの情報に基づいて学習モデルを再学習させることで、信頼度算出手段の精度を向上させることができる。また、画像処理装置は、データベースの情報に基づいて抽出に用いる信頼度の基準値を変更することで、抽出手段の精度を向上させることができる。
次に、第3実施形態について説明する。本実施形態では、被写体の画像と、ユーザによって領域が適切であると判断された患部領域に関連する情報とが、画像処理装置のデータベースに登録される。画像処理装置は、データベースの情報に基づいて学習モデルを再学習させることで、信頼度算出手段の精度を向上させることができる。また、画像処理装置は、データベースの情報に基づいて抽出に用いる信頼度の基準値を変更することで、抽出手段の精度を向上させることができる。
本実施形態は、第1、第2実施形態の構成に加えて、ユーザによって適切であると判断された患部領域の情報をデータベースに保存し、次回の領域分割の精度を向上させるための構成および処理を有する。本実施形態の説明において、第1、第2実施形態と同一の構成および処理については、図1〜図16に付した符号と同一の符号を付すことにより詳細な説明を省略する。
(機能構成およびハードウェア構成)
図17は、第3実施形態に係る画像処理システムの機能構成を例示する図である。本実
施形態の画像処理システム1700は、第1実施形態の画像処理システム100と以下の点で異なる。本実施形態の画像処理システム1700では、画像処理装置1730は、データベース登録手段1731、データベース1732、再学習手段1733、基準値変更手段1734を含む。画像処理装置1730は、第1実施形態の画像処理装置130と同じハードウェア構成(図4を参照)により、本実施形態の処理を実現することができる。
図17は、第3実施形態に係る画像処理システムの機能構成を例示する図である。本実
施形態の画像処理システム1700は、第1実施形態の画像処理システム100と以下の点で異なる。本実施形態の画像処理システム1700では、画像処理装置1730は、データベース登録手段1731、データベース1732、再学習手段1733、基準値変更手段1734を含む。画像処理装置1730は、第1実施形態の画像処理装置130と同じハードウェア構成(図4を参照)により、本実施形態の処理を実現することができる。
データベース登録手段1731は、以下の情報を含むレコードを生成し、画像処理装置1730に含まれるデータベース1732に登録する。
・患部画像700
・抽出手段133によって抽出された患部領域202
・サイズ評価手段134によって算出されたサイズに関する情報
・基準値変更手段121によって変更された信頼度の基準値
(変更されていない場合は抽出手段133がSB504およびSB513で用いた信頼度の基準値)
・患部画像700
・抽出手段133によって抽出された患部領域202
・サイズ評価手段134によって算出されたサイズに関する情報
・基準値変更手段121によって変更された信頼度の基準値
(変更されていない場合は抽出手段133がSB504およびSB513で用いた信頼度の基準値)
データベース1732は、データベース登録手段1731が生成したレコードを登録するためのデータベースである。再学習手段1733は、データベース1732に登録されているレコードに基づいて、信頼度算出手段132が用いる分類モデルを再学習する。基準値変更手段1734は、データベース1732に登録されているレコードに基づいて、抽出手段133が用いる信頼度の基準値を変更する。
(画像処理システムの動作)
図18を参照して、本実施形態に係る画像処理システム1800の動作について説明する。図18は、第3実施形態に係る画像処理システム1800の動作例(フローチャートによる処理の例)を説明する図である。画像処理システム1800のライブビュー処理S500(詳細図示は省略)、本撮影処理S510(詳細図示は省略)、および領域調整処理S520は、図5に示す第1実施形態の処理と同じであるため説明は省略する。
図18を参照して、本実施形態に係る画像処理システム1800の動作について説明する。図18は、第3実施形態に係る画像処理システム1800の動作例(フローチャートによる処理の例)を説明する図である。画像処理システム1800のライブビュー処理S500(詳細図示は省略)、本撮影処理S510(詳細図示は省略)、および領域調整処理S520は、図5に示す第1実施形態の処理と同じであるため説明は省略する。
本実施形態の撮像装置120のフローチャートでは、図5に示す第1実施形態の撮像装置120のフローチャートに対し、SA1831の処理が追加される。SA1831において、出力手段127は、SA521で表示された患部領域202が適切であると判断されたことを表す情報を、画像処理装置1730に送信(出力)する。
本実施形態の画像処理装置1730のフローチャートでは、図5に示す第1実施形態の画像処理装置130のワークフローに対し、SB1831〜SB1834の処理が追加されている。SB1831において、取得手段131は、SA1831で撮像装置120から出力された情報を取得する。
撮像装置120が実行する各処理は、システム制御回路310が不揮発性の内部メモリ311に格納されたプログラムをシステムメモリ(RAM)に展開して実行することにより実現される。画像処理装置1730が実行する処理は、CPU410が主記憶装置421のROMに格納されたプログラムをシステムメモリに展開して実行することにより実現される。なお、図18の処理は、撮像装置120に電源が入り、画像処理装置1730からの探索処理に対して撮像装置120が応答すると開始する。
SB1832において、データベース登録手段1731は、以下の情報を含むレコードを生成し、画像処理装置1930に含まれるデータベース1732に登録する。
・SA512で撮像された患部画像700
・SB513もしくはSB522で抽出手段133によって最後に抽出された患部領域202
・SB514もしくはSB523でサイズ評価手段134によって最後に算出されたサイズに関する情報
・SA523で基準値変更手段121によって変更された信頼度の基準値
(SA523が実行されず、基準値が変更されていない場合は抽出手段133がSB504およびSB513で用いた信頼度の基準値)
・SA512で撮像された患部画像700
・SB513もしくはSB522で抽出手段133によって最後に抽出された患部領域202
・SB514もしくはSB523でサイズ評価手段134によって最後に算出されたサイズに関する情報
・SA523で基準値変更手段121によって変更された信頼度の基準値
(SA523が実行されず、基準値が変更されていない場合は抽出手段133がSB504およびSB513で用いた信頼度の基準値)
データベース登録手段1731は、SA523で基準値が一度も変更されていない場合には、レコードをデータベース1732に登録しないようにしてもよい。尚、SA523で基準値が一度も変更されていない場合、撮像装置120のSA1831において、SA521で表示された患部領域202が適切であると判断されたことを表す情報を、画像処理装置1730に送信しないようにしてもよい。
SB1833において、再学習手段1733は、データベース1732に登録されているレコードに基づいて、SB503およびSB512で信頼度算出手段132が用いる分類モデルを再学習させる。即ち、再学習手段1733は、データベース1732に登録されている画像と、抽出手段133によって抽出された調整後の患部領域202とを教師データとして、ニューラルネットワークのモデルを学習させて学習済モデルを生成する。
学習に用いる教師データは、SB1832でデータベース1732に登録されたレコードに限られない。例えば、学習に用いる教師データは、SB1832でデータベース1732に登録されたレコードに加えて、再学習前の学習済みモデルを生成するために用いた教師データセットを含んでもよい。また、データベース1732に登録されたレコードのうち、学習に用いるレコードは、少なくとも一度SA523で基準値が変更されたレコードに限ってもよい。
深層学習の学習方法は、画像処理システム1700でデータベース1732登録されたデータからフルスクラッチで学習する場合に限られない。再学習手段1733は、例えば、信頼度算出手段132が用いていた学習済みモデルに対して、患部領域202を評価する既存の学習モデルを転移学習をさせることで再学習させてもよい。深層学習の学習処理は、例えば、積和演算の並列実行を得意とする補助演算装置450に含まれるGPUにより実行される。深層学習の学習処理は、FPGAやASICなどにより実行されてもよく、外部装置によって実行されてもよい。
SB1834において、基準値変更手段1734は、データベース1732に登録されているレコードに基づいて、SB504およびSB513で抽出手段133が用いる信頼度の基準値を変更する。即ち、データベース1732に登録されているすべての画像についてのSA523で変更した変更後の信頼度の基準値に対する平均値を算出し、この平均値が、次回のSB504およびSB513で抽出手段133が用いる信頼度の基準値として保存される。平均値を算出する際、SA523を実行せずに登録されたレコードにおける信頼度の基準値は、SB504およびSB513で抽出手段133が用いた信頼度の基準値とすればよい。
尚、次回のSB504およびSB513で抽出手段133が用いる信頼度の基準値は、データベース1732の各レコードにおける信頼度の基準値の平均値に限られず、例えば中央値や最頻値に変更されてもよい。
(第3実施形態の作用効果)
以上のように本実施形態では、画像処理装置1730は、被写体201の画像と、ユーザによって領域が適切であると判断された患部領域202に関連する情報とをデータベース1732に登録する。画像処理装置1730は、登録されたデータベース1732の情
報に基づいて、信頼度算出手段132が用いる学習モデルを再学習させ、抽出手段133が用いる信頼度の基準値を変更することができる。
以上のように本実施形態では、画像処理装置1730は、被写体201の画像と、ユーザによって領域が適切であると判断された患部領域202に関連する情報とをデータベース1732に登録する。画像処理装置1730は、登録されたデータベース1732の情
報に基づいて、信頼度算出手段132が用いる学習モデルを再学習させ、抽出手段133が用いる信頼度の基準値を変更することができる。
従って、本実施形態では、第1実施形態で説明した効果に加え、以下の効果を有する。即ち、ユーザ(医師)が褥瘡のサイズ評価をする場合に、画像処理装置1730は、ユーザの操作によって調整された適切な患部領域202の情報に基づいて、学習モデルを再学習させることができる。これにより、次回以降の撮像画像に対し、褥瘡の患部領域202の抽出精度を向上させることができる。
また、画像処理装置1730は、ユーザ(医師)が患部領域202を調整した場合に、信頼度の基準値の変更の傾向(例えば、現在の基準値との差分の平均値)をデータベース1732に記憶しておくことができる。画像処理装置1730は、次回以降の撮像画像に対し、ユーザによる変更の傾向に応じて基準値を調整することで、患部領域202の抽出精度をさらに向上させることができる。本実施形態は、第2実施形態に適用してもよい。
[第4の実施形態]
次に、第4実施形態について説明する。本実施形態の画像処理システムは、撮像装置に代えてCTスキャナを有することにより、画像処理装置はCTスキャナによって生成されたCT画像を取得し、CT画像中の患部領域を抽出し、ユーザの操作によって患部領域を微調整することができる。本実施形態は、患部領域の写っている画像を取得するための構成および処理が第1〜第3実施形態と異なる。本実施形態の説明において、第1〜第3実施形態と同一の構成および処理については、図1〜図18に付した符号と同一の符号を付すことにより詳細な説明を省略する。
次に、第4実施形態について説明する。本実施形態の画像処理システムは、撮像装置に代えてCTスキャナを有することにより、画像処理装置はCTスキャナによって生成されたCT画像を取得し、CT画像中の患部領域を抽出し、ユーザの操作によって患部領域を微調整することができる。本実施形態は、患部領域の写っている画像を取得するための構成および処理が第1〜第3実施形態と異なる。本実施形態の説明において、第1〜第3実施形態と同一の構成および処理については、図1〜図18に付した符号と同一の符号を付すことにより詳細な説明を省略する。
(機能構成およびハードウェア構成)
図19および図20を参照して、画像処理システム1900の機能構成およびハードウェア構成について説明する。図19は、第4実施形態に係る画像処理システムの機能構成を例示する図である。
図19および図20を参照して、画像処理システム1900の機能構成およびハードウェア構成について説明する。図19は、第4実施形態に係る画像処理システムの機能構成を例示する図である。
本実施形態の画像処理システム1900は、画像処理装置1930から構成される。画像処理装置1930は、第1実施形態の撮像装置120に代えて、CT画像取得手段1931を有する。また、画像処理装置1930は、第1実施形態の画像処理装置130と同様に、信頼度算出手段132、抽出手段133、および重畳手段135を有する。また、画像処理装置1930は、第3実施形態の画像処理装置1730と同様に、データベース登録手段1731およびデータベース1732を有する。さらに、画像処理装置1930は、撮像装置120の基準値変更手段121および表示手段126と同様の、基準値変更手段1932および表示手段1933を有する。
CT画像取得手段1931は、後述するCTスキャナ2000から出力されるDICOM(Digital Imaging and COmmunication in Medicine)形式の画像データを取得する。DICOMは、医用画像機器の通信プロトコル及び画像フォーマットを定義する標準規格である。
データベース登録手段1731は、第3実施形態と同様に、以下の情報を含むレコードを生成し、画像処理装置1730に含まれるデータベース1732に登録する。
・CT画像取得手段1931によって取得した画像
・抽出手段133によって抽出された患部領域202に関する情報
・基準値変更手段1932によって変更された信頼度の基準値
(変更されていない場合は抽出手段133がSB504およびSB513で用いた信頼度の基準値)
・CT画像取得手段1931によって取得した画像
・抽出手段133によって抽出された患部領域202に関する情報
・基準値変更手段1932によって変更された信頼度の基準値
(変更されていない場合は抽出手段133がSB504およびSB513で用いた信頼度の基準値)
データベース1732は、第3実施形態と同様に、データベース登録手段1731が生成したレコードを登録するためのデータベースである。
基準値変更手段1932は、ユーザ操作に基づいて、患部領域202を抽出するために用いる信頼度の基準値を変更する。
表示手段1933は、各種の表示制御を行う。表示手段1933は、CT画像取得手段1931が取得した画像を出力装置440に表示する。また、表示手段1933は、抽出手段133が抽出した患部領域202を示す情報と、抽出手段133が患部領域202を抽出するために用いた信頼度の基準値に関する情報と、の少なくとも何れか1つに基づく表示を出力装置440に対して行う。尚、表示手段1933は、抽出手段133が抽出した患部領域を示す情報、抽出手段133が患部領域を抽出するために用いた信頼度の基準値に関する情報、の少なくとも1つを、CT画像取得手段1931が取得した画像に重畳して表示してもよい。
図20は、第4実施形態に係る画像処理装置のハードウェア構成を例示する図である。本実施形態に係る画像処理装置1930は、第1実施形態の画像処理装置130と同じ構成を有し、さらにCTスキャナ2000に接続される。画像処理装置1930は、CT画像取得手段1931によって、CTスキャナ2000から出力された画像データを取得することができる。
CTスキャナ2000は、医用画像データを取得するように構成されたCTスキャナである。CTスキャナ2000は、他の医用画像モダリティにおけるスキャナ、例えば、MRIスキャナ、X線スキャナ、PETスキャナなどによって置換または補完されてもよい。
(画像処理システムの動作)
図21〜図24を参照して、本実施形態に係る画像処理システムの動作について説明する。図21は、第4実施形態に係る画像処理システムの動作例(フローチャートによる処理の例)を説明する図である。図22は、患部領域を重畳する前の画像の第2の例を示す図である。図23および図24は、調整前後の患部領域を表示する画像の第4の例を示す図である。
図21〜図24を参照して、本実施形態に係る画像処理システムの動作について説明する。図21は、第4実施形態に係る画像処理システムの動作例(フローチャートによる処理の例)を説明する図である。図22は、患部領域を重畳する前の画像の第2の例を示す図である。図23および図24は、調整前後の患部領域を表示する画像の第4の例を示す図である。
画像処理装置1930が実行する処理は、CPU410が主記憶装置421のROMに格納されたプログラムをシステムメモリに展開して実行することにより実現される。なお、図21の処理は、画像処理装置1930に電源が入り、画像処理装置1130が、CTスキャナ2000からCT画像を取得すると開始する。
SB2111において、CT画像取得手段1931は、CTスキャナ2000から出力された画像を取得する。図22は、CTスキャナ2000から出力された画像2200を例示する。本実施形態において、CTスキャナ2000は被験者の腹部をスキャンし、DICOM形式で画像2200を出力する。画像2200中の領域2201は、肝臓の断面を表す。本実施形態において、画像処理装置1930は、図23に示すように、この肝臓の領域を患部領域の推定エリア2301として抽出し、抽出された推定エリア2301をユーザの操作に基づいて微調整する。
CT画像取得手段1931が取得する画像は、CTスキャナ2000から出力された画像データに限られない。例えば、CT画像取得手段1931は、PACS(Picture Archiving and Communication System)の一部
を形成しうるリモートデータストア(非図示)から画像データを取得してもよい。また、CT画像取得手段1931は、あらかじめ記憶装置420に記憶されていた画像を取得してもよい。
を形成しうるリモートデータストア(非図示)から画像データを取得してもよい。また、CT画像取得手段1931は、あらかじめ記憶装置420に記憶されていた画像を取得してもよい。
SB512において、信頼度算出手段132は、第1実施形態と同様に、SB2111で取得された画像データに基づいて、画像データの各画素について肝臓である信頼度を算出する。各画素の信頼度を算出する処理の詳細は、SB503の処理と同様であるため省略する。
次に、SB513において、抽出手段133は、第1実施形態と同様に、SB2111で取得された画像データから、SB512で算出した各画素についての信頼度に基づいて、推定エリア2301を抽出または領域分割する。推定エリア2301を抽出または領域分割する処理の詳細は、SB504の処理と同様であるため省略する。
SB515において、重畳手段135は、第1実施形態と同様に、肝臓の領域2201の抽出した画像2200に対して、図23で抽出された推定エリア2301を示す情報、ボタンアイコン903およびスライダー901を重畳する。抽出された推定エリア2301は、画像2300において白線で境界が示される。抽出された推定エリア2301は、αブレンドして重畳表示される。重畳処理の詳細は、図7および図8を用いて説明したSB506の処理と同様であるため省略する。
図23の画像2300および図24の画像2400を参照して、図21に示す領域調整処理S2120の一例について説明する。領域調整処理S2120は、画像処理装置1930の出力装置440(表示手段1933)に表示された画像2300中の推定エリア2301について、ユーザ操作に基づいて調整する処理である。図23の推定エリア2301は、領域調整処理S2120により、図24に示すようにユーザの判断に近い患部領域2401に調整する処理である。
SB2121において、表示手段1933は、SB515で重畳処理済みの画像2300またはSB524で重畳処理済みの画像2300を出力装置440に表示する。画像2300は、ユーザによる調整前の推定エリア2301が重畳表示される。ユーザは、入力装置430を用いて、患部領域2301の範囲を調整することができる。
本実施形態において、表示画面を遷移させるための操作手段は、入力装置430に含まれるマウスであるものとする。ユーザは、入力装置430のマウスを操作することで、推定エリア2301(面積の計測対象とする領域)を調整することができる。尚、領域を調整するための操作手段はマウスに限らず、表示装置313のタッチパネルディスプレイや、入力装置430に含まれるキーボードなどであってもよい。
SB2122において、基準値変更手段1932は、第1実施形態のSA522と同様に、SB2121で表示した画像2300に対し、ユーザの操作によって、基準値が変更されたか否かを判定する。基準値が変更された場合は、SB2123へ進み、そうでない場合は、SB1832ヘ進む。基準値の変更によって領域を調整する処理詳細は、図9および図10を用いて説明したSA522の処理と同様であるため省略する。
SB2123において、基準値変更手段1932は、第1実施形態のSA523と同様に、SB2122でユーザにドラッグされたスライダー901の選択部材902の位置に応じて、肝臓である信頼度の基準値を変更する。例えば、図24では、スライダー901の選択部材902は、ユーザの操作により90(%)の位置に移動されている。したがって、肝臓である信頼度の基準値は、90(%)に変更される。この場合、画像2400に
おける患部領域2401は、基準値の上昇により、図23の推定エリア2301よりも狭い範囲となる。
おける患部領域2401は、基準値の上昇により、図23の推定エリア2301よりも狭い範囲となる。
SB522において、抽出手段133は、第1実施形態と同様に、SB2111で取得された画像データから、変更された信頼度の基準値にに基づいて、患部領域2401を抽出または領域分割する。抽出手段133は、SB512で算出した各画素についての信頼度、およびSB2123で変更された信頼度の基準値に関する情報に基づいて、患部領域2401を抽出または領域分割することができる。抽出または領域分割処理の詳細は、第1実施形態と同様であるため省略する。
SB524において、重畳手段135は、SB515と同様に、推定エリア2301の抽出を行う際に用いた画像データに対して、調整後の患部領域2401を示す情報およびボタンアイコン903およびスライダー901を重畳する。重畳処理の詳細は、図7および図8を用いて説明したSB506およびSB515の処理と同様であるため省略する。
ただし、SB524では、重畳手段135は、図24に示す画像2400のように、スライダー901の選択部材902の位置をSB2123で変更された基準値の値に対応する位置に変更して重畳する。図24は、SB2123で信頼度の基準値が50(%)から90(%)に変更された場合を例示する。
SB1832において、データベース登録手段1731は、第3実施形態と同様に、以下の情報を含むレコードを生成し、画像処理装置1730に含まれるデータベース1732に登録する。
・SB2111で取得されたCT画像2200
・SB513またはSB522で抽出手段133によって最後に抽出された患部領域2401
・SB2123で基準値変更手段1932によって変更された信頼度の基準値(SB2123が実行されず、基準値が変更されていない場合は抽出手段133がSB513で用いた信頼度の基準値)
・SB2111で取得されたCT画像2200
・SB513またはSB522で抽出手段133によって最後に抽出された患部領域2401
・SB2123で基準値変更手段1932によって変更された信頼度の基準値(SB2123が実行されず、基準値が変更されていない場合は抽出手段133がSB513で用いた信頼度の基準値)
(第4実施形態の作用効果)
以上のように本実施形態によれば、画像処理装置1930は、ユーザ操作に基づいて、肝臓である信頼度の基準値の変更する。画像処理装置1930は、CTスキャナ2000から取得した画像を解析し、ユーザが変更した信頼度の基準値を超えた画素の集合を、調整後の患部領域2401として抽出する。画像処理装置1930の表示手段1933は、出力装置440に、ユーザが変更した信頼度の基準値に対応して抽出した患部領域2401を画像2200に重畳して表示する。ユーザ(医師などの医療従事者)は、例えば、肝移植の際に、肝臓の提供者(ドナー)の腹部CT画像から抽出された肝臓の領域に対して、適切に抽出されているか否かを確認することができる。ユーザの判断と異なる領域が抽出されている場合、ユーザは、肝臓の領域と判断されるかどうかの信頼度の基準値を変更することができる。ユーザは、抽出される患部領域の変化を視覚的に確認しながら、対話的に微調整することが可能である。ユーザは、腹部のCT画像に限られず、他の症例の患部が写っている画像を画像処理装置1930に入力することで、他の症例の患部領域についても同様に、抽出された患部領域を対話的に微調整することができる。
以上のように本実施形態によれば、画像処理装置1930は、ユーザ操作に基づいて、肝臓である信頼度の基準値の変更する。画像処理装置1930は、CTスキャナ2000から取得した画像を解析し、ユーザが変更した信頼度の基準値を超えた画素の集合を、調整後の患部領域2401として抽出する。画像処理装置1930の表示手段1933は、出力装置440に、ユーザが変更した信頼度の基準値に対応して抽出した患部領域2401を画像2200に重畳して表示する。ユーザ(医師などの医療従事者)は、例えば、肝移植の際に、肝臓の提供者(ドナー)の腹部CT画像から抽出された肝臓の領域に対して、適切に抽出されているか否かを確認することができる。ユーザの判断と異なる領域が抽出されている場合、ユーザは、肝臓の領域と判断されるかどうかの信頼度の基準値を変更することができる。ユーザは、抽出される患部領域の変化を視覚的に確認しながら、対話的に微調整することが可能である。ユーザは、腹部のCT画像に限られず、他の症例の患部が写っている画像を画像処理装置1930に入力することで、他の症例の患部領域についても同様に、抽出された患部領域を対話的に微調整することができる。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
例えば、上述の各実施形態は、褥瘡が発症した患部領域の評価に適用する例を挙げているが、褥瘡だけでなく火傷や裂傷等の患部の領域、他の医療に掛かる患部の領域等の計測及び評価にも適用可能である。例えば、X線コンピュータ断層撮影(CT:Computer Tomography)装置や核磁気共鳴撮影(MRI:Magnetic Resonance Imaging)装置による計測及び評価にも適用し得る。また、陽電子放射断層撮影(PET:Positron Emission Tomography)装置等の医用画像診断装置で取得して再構成した二次元の断層画像や三次元画像から、肝臓等の臓器の領域を計測する場合にも適用可能である。例えば、肝臓について、肝移植を行う際に提供者(ドナー)の肝臓が、移植先の患者に対して適切な大きさであるかどうかを確かめるために、CT画像から肝臓領域を推定する場合に適用することができる。
なお、撮像装置のシステム制御回路310または画像処理装置のCPU410が行うものとして説明した上述の各種制御は、それぞれ1つのハードウェアが行ってもよい。また、上述の各種制御は、複数のハードウェアが処理を分担することで、撮像装置、画像処理装置、または画像処理システムの制御を行ってもよい。また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものに過ぎず、各実施形態を適宜組み合わせることも可能である。
また、上述した実施形態においては、本発明を撮像装置および画像処理装置に適用した場合を例にして説明したが、これはこの例に限定されず、撮像された画像を表示できる画像処理装置であれば適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置に適用可能である。さらに、本発明は、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォン、投影装置、ディスプレイを備える家電装置や車載装置などに適用可能である。
(その他の実施形態)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
130:画像処理装置、CPU:410
Claims (19)
- 画像データを取得する取得手段と、
前記画像データの各単位領域に対して、単位領域が抽出対象である信頼度を算出する算出手段と、
関心領域を抽出するために用いる前記信頼度の基準値を変更する変更手段と、
前記算出された単位領域の信頼度、および前記変更された基準値に基づいて、前記関心領域を抽出する抽出手段と、
前記抽出された前記関心領域を表示する表示手段と、
を有することを特徴とする画像処理装置。 - 前記算出手段は、既知の抽出対象または前記関心領域の画像を教師データとして学習させたニューラルネットワークの学習済モデルに前記画像データを入力することで、前記画像データの各単位領域に対して前記抽出対象である信頼度を算出する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記変更手段は、前記信頼度の基準値をユーザの操作に基づいて変更する
ことを特徴とする請求項1または2に記載の画像処理装置。 - 前記変更手段は、GUI(Graphical User Interface)に対するユーザの操作に基づいて、前記信頼度の基準値を変更する
ことを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。 - 前記変更手段は、ユーザから選択された単位領域に対する前記信頼度に基づいて、前記信頼度の基準値を変更する
ことを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。 - 前記抽出手段は、前記算出された単位領域の信頼度が、前記変更された前記信頼度の基準値以上である単位領域の集合を、前記関心領域として抽出する
ことを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。 - 前記算出手段は、前記画像データの各単位領域に対して、前記抽出対象である信頼度、および他の抽出対象である信頼度をそれぞれ算出し、
前記変更手段は、前記抽出対象である信頼度の基準値、または前記他の抽出対象である信頼度の基準値の少なくとも何れかを変更し、
前記抽出手段は、前記抽出対象である信頼度、前記他の抽出対象である信頼度、および前記変更された基準値に基づいて前記関心領域を抽出する
ことを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。 - 前記抽出手段は、ユーザから選択された単位領域に対する前記信頼度に基づいて、前記関心領域の一部と重なる部分領域に対して再抽出をする
ことを特徴とする請求項1〜7の何れか1項に記載の画像処理装置。 - 前記抽出手段は、前記関心領域が複数の領域に分割されている場合、ユーザから選択された単位領域に対する前記信頼度に基づいて、前記複数の領域の内の少なくともいずれかと重なる部分領域に対して再抽出をする
ことを特徴とする請求項1〜7の何れか1項に記載の画像処理装置。 - 前記部分領域は、ユーザから選択された単位領域を含む領域である
ことを特徴とする請求項8または9に記載の画像処理装置。 - 前記抽出手段は、前記部分領域以外の領域に対して、前記再抽出をする前の基準値に基づいて再抽出をする
ことを特徴とする請求項8から10のいずれか1項に記載の画像処理装置。 - 前記変更手段によって、前記信頼度の基準値が変更された場合、変更後の基準値に基づいて前記抽出手段によって再抽出された前記関心領域に関連する情報を保存する保存手段を更に有し、
前記算出手段は、前記保存された前記関心領域に関連する情報に基づいて、前記信頼度の基準値を変更する
ことを特徴とする請求項1〜11の何れか1項に記載の画像処理装置。 - 前記保存手段は、前記信頼度の基準値が変更された場合、変更後の基準値を保存し、
前記抽出手段は、前記保存された前記信頼度の基準値に基づいて、前記関心領域を抽出する
ことを特徴とする請求項12に記載の画像処理装置。 - 前記関心領域の面積を算出する評価手段を、さらに有する
ことを特徴とする請求項1〜13の何れか1項に記載の画像処理装置。 - 前記評価手段は、前記画像データの被写体までの距離に基づいて前記単位領域の面積を算出し、前記単位領域の面積および前記関心領域の画素数に基づいて前記関心領域の面積を算出する
ことを特徴とする請求項14に記載の画像処理装置。 - 前記評価手段は、前記画像データから検出した被写体の奥行方向の傾きおよび変化に基づいて、前記関心領域の面積を算出する
ことを特徴とする請求項14に記載の画像処理装置。 - 画像データを取得する取得ステップと、
前記画像データの各単位領域に対して、単位領域が抽出対象である信頼度を算出する算出ステップと、
関心領域を抽出するために用いる前記信頼度の基準値を変更する変更ステップと、
前記算出された単位領域の信頼度、および前記変更された基準値に基づいて、前記関心領域を抽出する抽出ステップと、
前記抽出された前記関心領域を表示する表示ステップと、
を有することを特徴とする画像処理装置の制御方法。 - コンピュータを、請求項1から16の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
- コンピュータを、請求項1から16の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019174320A JP2021051573A (ja) | 2019-09-25 | 2019-09-25 | 画像処理装置、および画像処理装置の制御方法 |
US17/032,420 US11600003B2 (en) | 2019-09-25 | 2020-09-25 | Image processing apparatus and control method for an image processing apparatus that extract a region of interest based on a calculated confidence of unit regions and a modified reference value |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019174320A JP2021051573A (ja) | 2019-09-25 | 2019-09-25 | 画像処理装置、および画像処理装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021051573A true JP2021051573A (ja) | 2021-04-01 |
Family
ID=74881065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019174320A Pending JP2021051573A (ja) | 2019-09-25 | 2019-09-25 | 画像処理装置、および画像処理装置の制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11600003B2 (ja) |
JP (1) | JP2021051573A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102458495B1 (ko) * | 2022-03-17 | 2022-10-25 | 주식회사 메디씽큐 | 원격협진지원을 위한 3차원 포인팅시스템 및 그 제어방법 |
WO2023276810A1 (ja) * | 2021-06-29 | 2023-01-05 | 富士フイルム株式会社 | 疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデル |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
EP4209932A4 (en) * | 2020-09-03 | 2023-09-13 | NEC Corporation | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD AND COMPUTER PROGRAM |
CN113255649B (zh) * | 2021-06-21 | 2023-09-19 | 北博(厦门)智能科技有限公司 | 一种基于图像识别的图像分割框选方法及终端 |
US20230085786A1 (en) * | 2021-09-23 | 2023-03-23 | The Joan and Irwin Jacobs Technion-Cornell Institute | Multi-stage machine learning techniques for profiling hair and uses thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015112487A (ja) * | 2013-12-06 | 2015-06-22 | 株式会社東芝 | 医用画像における構造物をセグメンテーションする医用画像処理装置、医用画像をセグメンテーションするための方法及び医用画像をセグメンテーションするコンピュータプログラムを記憶する記憶媒体 |
JP2017054337A (ja) * | 2015-09-10 | 2017-03-16 | ソニー株式会社 | 画像処理装置および方法 |
US20180182101A1 (en) * | 2016-12-23 | 2018-06-28 | Heartflow, Inc. | Systems and methods for probabilistic segmentation in anatomical image processing |
JP2019500110A (ja) * | 2015-12-18 | 2019-01-10 | ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア | 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8045770B2 (en) * | 2003-03-24 | 2011-10-25 | Cornell Research Foundation, Inc. | System and method for three-dimensional image rendering and analysis |
US7783094B2 (en) * | 2005-06-02 | 2010-08-24 | The Medipattern Corporation | System and method of computer-aided detection |
JP2010097433A (ja) | 2008-10-16 | 2010-04-30 | Olympus Corp | 領域選択装置および領域選択方法 |
US9208556B2 (en) * | 2010-11-26 | 2015-12-08 | Quantitative Insights, Inc. | Method, system, software and medium for advanced intelligent image analysis and display of medical images and information |
JP6123756B2 (ja) * | 2014-08-26 | 2017-05-10 | コニカミノルタ株式会社 | 情報処理システム、情報処理装置およびプログラム |
-
2019
- 2019-09-25 JP JP2019174320A patent/JP2021051573A/ja active Pending
-
2020
- 2020-09-25 US US17/032,420 patent/US11600003B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015112487A (ja) * | 2013-12-06 | 2015-06-22 | 株式会社東芝 | 医用画像における構造物をセグメンテーションする医用画像処理装置、医用画像をセグメンテーションするための方法及び医用画像をセグメンテーションするコンピュータプログラムを記憶する記憶媒体 |
JP2017054337A (ja) * | 2015-09-10 | 2017-03-16 | ソニー株式会社 | 画像処理装置および方法 |
JP2019500110A (ja) * | 2015-12-18 | 2019-01-10 | ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア | 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化 |
US20180182101A1 (en) * | 2016-12-23 | 2018-06-28 | Heartflow, Inc. | Systems and methods for probabilistic segmentation in anatomical image processing |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023276810A1 (ja) * | 2021-06-29 | 2023-01-05 | 富士フイルム株式会社 | 疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデル |
KR102458495B1 (ko) * | 2022-03-17 | 2022-10-25 | 주식회사 메디씽큐 | 원격협진지원을 위한 3차원 포인팅시스템 및 그 제어방법 |
WO2023177003A1 (ko) * | 2022-03-17 | 2023-09-21 | 주식회사 메디씽큐 | 원격협진지원을 위한 3차원 포인팅시스템 및 그 제어방법 |
Also Published As
Publication number | Publication date |
---|---|
US11600003B2 (en) | 2023-03-07 |
US20210090261A1 (en) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021051573A (ja) | 画像処理装置、および画像処理装置の制御方法 | |
CN107105130B (zh) | 电子设备及其操作方法 | |
KR101679290B1 (ko) | 영상 처리 방법 및 장치 | |
TW202112299A (zh) | 圖像處理方法、電子設備和電腦可讀儲存介質 | |
JP7322097B2 (ja) | 撮像装置、撮像装置の制御方法、プログラムおよび記録媒体 | |
JP5822545B2 (ja) | 画像処理装置、画像処理装置の制御方法、およびプログラム | |
JP6924064B2 (ja) | 画像処理装置およびその制御方法、ならびに撮像装置 | |
WO2019230724A1 (ja) | 画像処理システム、撮像装置、画像処理装置、電子機器、これらの制御方法、および、これらの制御方法を記憶した記憶媒体 | |
JPWO2017109904A1 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2018084861A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
US11599993B2 (en) | Image processing apparatus, method of processing image, and program | |
EP4138033A1 (en) | Portable electronic device and wound-size measuring method using the same | |
JP7317498B2 (ja) | 処理システム、処理装置、処理方法、およびプログラム | |
JP2005316958A (ja) | 赤目検出装置および方法並びにプログラム | |
US20210401327A1 (en) | Imaging apparatus, information processing apparatus, image processing system, and control method | |
CN111698401B (zh) | 设备、图像处理设备和控制方法 | |
JP2021049248A (ja) | 画像処理システム及びその制御方法 | |
JP2021049262A (ja) | 画像処理システム及びその制御方法 | |
JP2022147595A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
WO2022145294A1 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
US20230419504A1 (en) | Imaging support apparatus, imaging apparatus, imaging support method, and program | |
JP2020151461A (ja) | 撮像装置、情報処理装置および情報処理システム | |
KR20230078439A (ko) | 영상 기반 진단 시스템 및 이의 제어 방법 | |
JP2020156082A (ja) | 撮像装置、画像処理装置および制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230912 |