JP2022117177A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- JP2022117177A JP2022117177A JP2021013738A JP2021013738A JP2022117177A JP 2022117177 A JP2022117177 A JP 2022117177A JP 2021013738 A JP2021013738 A JP 2021013738A JP 2021013738 A JP2021013738 A JP 2021013738A JP 2022117177 A JP2022117177 A JP 2022117177A
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- interest
- information processing
- unsuitable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000010365 information processing Effects 0.000 claims abstract description 94
- 238000000605 extraction Methods 0.000 claims abstract description 61
- 238000001514 detection method Methods 0.000 claims description 84
- 230000002159 abnormal effect Effects 0.000 claims description 83
- 230000002194 synthesizing effect Effects 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 31
- 238000003384 imaging method Methods 0.000 claims description 28
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 6
- 238000003672 processing method Methods 0.000 claims description 5
- 230000005855 radiation Effects 0.000 claims description 2
- 238000002604 ultrasonography Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 abstract description 26
- 238000003745 diagnosis Methods 0.000 abstract description 16
- 230000006870 function Effects 0.000 description 14
- 230000015572 biosynthetic process Effects 0.000 description 13
- 238000003786 synthesis reaction Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 11
- 210000001519 tissue Anatomy 0.000 description 10
- 239000000203 mixture Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 210000000481 breast Anatomy 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 206010012689 Diabetic retinopathy Diseases 0.000 description 1
- 206010061218 Inflammation Diseases 0.000 description 1
- 206010025421 Macule Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000009607 mammography Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7553—Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
【課題】関心領域の抽出に不適合な画像でも診断に活用させることができる情報処理装置、情報処理方法及び情報処理プログラムを得る。【解決手段】情報処理装置10は、少なくとも1つのプロセッサを備え、プロセッサは、被検体を撮影して得られる第1画像を取得し、第1画像から第1関心領域を抽出し、抽出した第1関心領域について、抽出に不適合な不適合領域が存在しているか否かの判定を行う。【選択図】図3
Description
本開示は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
従来、CT(Computed Tomography)装置及びMRI(Magnetic Resonance Imaging)装置等の画像取得装置により取得された医用画像に基づき、医師が診断を行うことが一般的に行われている。また、医用画像に含まれる異常陰影及び組織等の構造物の検出及び診断をコンピュータが支援する技術(所謂CAD(Computer Aided Detection/Diagnosis))も知られている。例えば、特許文献1には、機械学習により学習がなされた判別器を用いて医用画像を解析し、医用画像に含まれる組織又は病変の種類、すなわち所見の種類を特定することが記載されている。
また例えば、非特許文献1には、異常陰影の不検出及び誤診を避けるため、医用画像の少なくとも一部が不鮮明である場合にはCADを行わないことが記載されている。不鮮明な医用画像は、例えば、適切な環境で撮影されなかった場合、及び撮影者の撮影技術が低い場合等に取得されうるものである。
"A Human-Centered Evaluation of a Deep Learning System Deployed in Clinics for the Detection of Diabetic Retinopathy", Emma Beede et al., in CHI 2020 Paper 589
ところで、例えば新興国の医療機関等においては、医用画像の撮影に適切な環境を作ることができなかったり、撮影者の撮影技術が低かったりすることにより、鮮明な医用画像の取得が困難な場合があった。そこで近年、不鮮明な、すなわち異常陰影及び組織等の構造物を含みうる関心領域の抽出に不適合な画像でも、診断に活用させることができる技術が望まれている。
本開示は、関心領域の抽出に不適合な画像でも診断に活用させることができる情報処理装置、情報処理方法及び情報処理プログラムを提供する。
本開示の一態様は、情報処理装置であって、少なくとも1つのプロセッサを備え、プロセッサは、被検体を撮影して得られる第1画像を取得し、第1画像から第1関心領域を抽出し、抽出した第1関心領域について、抽出に不適合な不適合領域が存在しているか否かの判定を行う。
上記態様において、プロセッサは、抽出した第1関心領域の形状と、第1関心領域に関して予め定められた基準形状と、の類似度合に応じて、判定を行ってもよい。
上記態様において、プロセッサは、被検体を撮影して得られる画像を入力とし、当該画像から抽出される関心領域に不適合領域が存在しているか否かを判定するための学習済みモデルを用いて、判定を行ってもよい。
上記態様において、学習済みモデルは、被検体を撮影して得られる画像と、当該画像から抽出される関心領域に不適合領域が存在しているか否かを示す情報と、のペアを学習用データとして学習された学習モデルであってもよい。
上記態様において、プロセッサは、第1関心領域に不適合領域が存在していると判定した場合に、第1画像における不適合領域を特定して提示してもよい。
上記態様において、プロセッサは、第1関心領域に不適合領域が存在していると判定した場合に、第1関心領域に対する不適合領域の割合を提示してもよい。
上記態様において、プロセッサは、第1関心領域に不適合領域が存在していると判定した場合に、第1関心領域を、抽出の精度を低下させて再抽出してもよい。
上記態様において、プロセッサは、第1関心領域に含まれる構造物を検出し、第1関心領域に不適合領域が存在していると判定した場合に、不適合領域に含まれる構造物を、検出の精度を低下させて検出してもよい。
上記態様において、プロセッサは、第1関心領域に不適合領域が存在していると判定した場合に、不適合領域の少なくとも一部に対応する領域を含む第2画像を要求してもよい。
上記態様において、プロセッサは、第2画像を取得し、第1画像と、第2画像と、を合成することで第3画像を生成してもよい。
上記態様において、プロセッサは、第1画像及び第2画像の何れか一方の画像における不適合領域を、他方の画像における対応する領域が補完するように、一方の画像に他方の画像の一部を合成することで第3画像を生成してもよい。
上記態様において、プロセッサは、第1画像内及び第2画像内の複数の区画ごとに、画質がより良好な一方の画像を選択して合成することで第3画像を生成してもよい。
上記態様において、プロセッサは、第3画像から第3関心領域を抽出し、抽出した第3関心領域について、不適合領域が存在しているか否かを判定し、第3関心領域に不適合領域が存在していないと判定されるまで、当該不適合領域の少なくとも一部に対応する領域を含む新規画像の取得と、当該新規画像と第3画像との再合成と、を繰り返し行ってもよい。
上記態様において、プロセッサは、第3画像から第3関心領域を抽出し、第3関心領域に含まれる構造物を検出してもよい。
上記態様において、プロセッサは、第2画像を取得し、第2画像から第2関心領域を抽出し、第1関心領域と、第2関心領域と、のそれぞれに含まれる構造物を検出し、第1関心領域及び第2関心領域のそれぞれから検出された構造物の検出結果を合成してもよい。
上記態様において、プロセッサは、抽出した第1関心領域及び第2関心領域について、共通して抽出に不適合な共通不適合領域が存在しているか否かを判定し、共通不適合領域が存在していないと判定されるまで、当該共通不適合領域の少なくとも一部に対応する領域を含む新規画像の取得と、当該新規画像からの関心領域の抽出と、当該関心領域に含まれる構造物の検出と、当該構造物の検出結果の再合成と、を繰り返し行ってもよい。
上記態様において、第1関心領域は、被検体、被検体に含まれる一部の組織、及び、被検体又は組織に含まれる異常部の少なくとも1つを含む領域であってもよい。
上記態様において、第1画像は、放射線画像撮影装置、磁気共鳴画像装置、超音波装置、眼底撮影装置及び内視鏡のうち少なくとも1つにより得られる画像であってもよい。
本開示の別の一態様は、情報処理方法であって、被検体を撮影して得られる第1画像を取得し、第1画像から第1関心領域を抽出し、抽出した第1関心領域について、抽出に不適合な不適合領域が存在しているか否かの判定を行う処理をコンピュータが実行するものである。
本開示の別の一態様は、情報処理プログラムであって、被検体を撮影して得られる第1画像を取得し、第1画像から第1関心領域を抽出し、抽出した第1関心領域について、抽出に不適合な不適合領域が存在しているか否かの判定を行う処理をコンピュータに実行させるためのものである。
上記態様によれば、本開示の情報処理装置、情報処理方法及び情報処理プログラムは、関心領域の抽出に不適合な画像でも診断に活用させることができる。
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
[第1実施形態]
図1を参照して、本実施形態に係る情報処理システム1の構成の一例について説明する。図1に示すように、情報処理システム1は、情報処理装置10と、画像取得装置2と、を含む。情報処理装置10と画像取得装置2は、有線又は無線通信により互いに通信可能とされている。
図1を参照して、本実施形態に係る情報処理システム1の構成の一例について説明する。図1に示すように、情報処理システム1は、情報処理装置10と、画像取得装置2と、を含む。情報処理装置10と画像取得装置2は、有線又は無線通信により互いに通信可能とされている。
画像取得装置2は、被検体を撮影して得られる画像を取得する装置(所謂モダリティ)である。本実施形態においては、具体的な画像の一例として医用画像を画像取得装置2が取得するものとして説明する。画像取得装置2としては、放射線画像撮影装置、磁気共鳴画像装置、超音波装置、眼底撮影装置及び内視鏡のうち少なくとも1つを適用でき、これらを適宜組み合わせて適用してもよい。
ところで、例えば眼底を鮮明に撮影するためには、暗所において撮影を行うべきであるが、新興国の医療機関等においては、十分な暗所を作り出すことができず、不鮮明な医用画像が撮影されてしまう場合がある。また例えば、マンモグラフィ撮影において乳房を鮮明に撮影するためには、乳房を十分に圧迫して撮影を行うべきであるが、撮影者のポジショニング技術及び乳房の形状によっては乳房を十分に圧迫できず、不鮮明な医用画像が撮影されてしまう場合がある。近年、このような不鮮明な画像でも、診断に活用させることができる技術が望まれている。
そこで、本実施形態に係る情報処理装置10は、医用画像に不鮮明な領域が含まれるか否かを判定する機能を有する。なお、「不鮮明」とは、医用画像の各画素が示す色相、彩度、輝度及び明度等の画素値が、予め定められた基準値を満たさない場合を意味する。例えば、光量不足により基準値よりも画素が暗くなったり、外乱光により基準値よりも画素が明るくなったり、という場合に不鮮明な領域が発生しうる。以下、本実施形態に係る情報処理装置10の構成の一例について説明する。
まず、図2を参照して、本実施形態に係る情報処理装置10のハードウェア構成の一例を説明する。図2に示すように、情報処理装置10は、CPU(Central Processing Unit)21、不揮発性の記憶部22、及び一時記憶領域としてのメモリ23を含む。また、情報処理装置10は、液晶ディスプレイ等のディスプレイ24、キーボード及びマウス等の入力部25、並びに画像取得装置2及び外部のネットワーク(不図示)との有線又は無線通信を行うネットワークI/F26を含む。CPU21、記憶部22、メモリ23、ディスプレイ24、入力部25及びネットワークI/F26は、システムバス及びコントロールバス等のバス28を介して相互に各種情報の授受が可能に接続されている。
記憶部22は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)及びフラッシュメモリ等の記憶媒体によって実現される。記憶部22には、本実施形態に係る情報処理プログラム27が記憶される。CPU21は、記憶部22から情報処理プログラム27を読み出してからメモリ23に展開し、展開した情報処理プログラム27を実行する。CPU21が、本開示のプロセッサの一例である。情報処理装置10としては、例えば、画像取得装置2のコンソール、ワークステーション、サーバコンピュータ及びパーソナルコンピュータ等の各種コンピュータを適用できる。
次に、図3を参照して、本実施形態に係る情報処理装置10の機能的な構成の一例について説明する。図3に示すように、情報処理装置10は、取得部11、抽出部12、判定部13、検出部14及び提示部15を含む。CPU21が情報処理プログラム27を実行することにより、取得部11、抽出部12、判定部13、検出部14及び提示部15として機能する。
取得部11は、画像取得装置2から、被検体を撮影して得られる医用画像を取得する。本実施形態における医用画像には、検出及び診断を所望する対象の構造物として、被検体、被検体に含まれる一部の組織、及び、被検体又は組織に含まれる異常部の少なくとも1つを含む関心領域が含まれる。被検体の例としては、人体、並びに眼底、肺、乳房、胃、肝臓、心臓及び脳等の、人体の各種器官が挙げられる。組織の例としては、血管、神経及び筋肉等の各種器官を構成する要素が挙げられる。異常部の例としては、腫瘍、損傷、欠損、結節及び炎症等の病変及び異常が挙げられる。
図4に、鮮明な医用画像の一例として医用画像G0を示す。医用画像G0は、眼底撮影装置により得られる鮮明な眼底の画像である。眼底の画像では、中心窩、黄斑部、視神経乳頭及び血管を含む撮影範囲全体に病変等の異常部が含まれうるので、撮影範囲全体が関心領域A0に該当する。図4の例では、異常部の一例として、異常陰影S1及びS2が関心領域A0に含まれている。
一方、図5に、不鮮明な医用画像の一例として第1画像G1を示す。第1画像G1は、医用画像G0と同様の眼底の画像であるが、撮影範囲の一部が不鮮明となっており、本来の第1関心領域A1(すなわち撮影範囲全体)の抽出に不適合な不適合領域N1が存在している。不適合領域N1には本来異常陰影S1が含まれているが、不鮮明なためその検出が困難になっている。以下、取得部11が、第1画像G1を取得したものとして説明する。
抽出部12は、取得部11が取得した第1画像G1から第1関心領域A1を抽出する。なお、第1関心領域A1の抽出方法としては、公知の画像処理を用いた方法、及びAI(Artificial Intelligence)技術を用いた方法等を適宜適用できる。例えば、第1画像G1に2値化加工を施し、背景の除去及び各構造物のエッジ強調を行い、撮影範囲の輪郭を特定することで、第1関心領域A1を抽出してもよい。また例えば、眼底の画像を入力とし、撮影範囲を抽出して出力するよう学習された学習済みモデルを用いて、第1画像G1から撮影範囲(すなわち第1関心領域A1)を抽出してもよい。
検出部14は、抽出部12が抽出した第1関心領域A1に含まれる異常陰影を検出する。図5の第1画像G1の例では、検出部14によって異常陰影S2は検出されるが、異常陰影S1は不鮮明な不適合領域N1に含まれるため検出されない。なお、異常陰影の検出手法としては、公知のCAD技術を適宜適用できる。
判定部13は、抽出部12が抽出した第1関心領域A1について、抽出に不適合な不適合領域N1が存在しているか否かの判定を行う。判定方法としては種々の方法を適用できる。例えば、判定部13は、抽出部12が抽出した第1関心領域A1の形状と、第1関心領域A1に関して予め定められた基準形状と、の類似度合に応じて、判定を行ってもよい。眼底の画像の場合は、関心領域は撮影範囲全体であるので、基準形状を略円形と予め定めることができる。そこで、抽出部12が抽出した第1関心領域A1の輪郭の形状と、略円形の基準形状と、の類似度合が予め定められた閾値以下である(すなわち乖離が大きい)場合に、不適合領域N1が存在していると判定してもよい。なお、類似度合に応じた判定方法としては、特徴量によるマッチング及びテンプレートマッチング等の、公知のマッチング技術を適宜適用できる。
また例えば、判定にAI技術を適用し、医用画像を入力とし、当該医用画像から抽出される関心領域に不適合領域が存在しているか否かを判定するための学習済みモデルを用いて、判定を行ってもよい。この場合の学習済みモデルは、教師なし学習がなされたモデルであってもよく、例えば、不適合領域の存否に応じて医用画像をクラスタリングするよう学習されたモデルであってもよい。また、教師あり学習がなされたモデルであってもよく、例えば、医用画像と、当該医用画像から抽出される関心領域に不適合領域が存在しているか否かを示す情報と、のペアを学習用データとして学習されたモデルであってもよい。
図6に、提示部15によりディスプレイ24に提示される画面D1の一例を示す。図6に示すように、提示部15は、検出部14により検出された異常陰影S2を、第1画像G1上にアノテーションMを付すことで提示する。
また、提示部15は、判定部13が第1関心領域A1に不適合領域N1が存在していると判定した場合に、第1画像G1における不適合領域N1を特定して提示する。図6の例では、提示部15は、第1画像G1における不適合領域N1を太線で囲って提示している。なお、不適合領域N1の提示の仕方はこれに限らず、例えば他の領域と線種(例えば線の太さ、色、実線及び点線等)を変えたり、アノテーションを付したりすることにより、不適合領域N1を判別可能なように強調すればよい。反対に、第1関心領域A1における不適合領域N1以外の領域を強調することで、不適合領域N1を判別可能としてもよい。
また、提示部15は、判定部13が第1関心領域A1に不適合領域N1が存在していると判定した場合に、第1関心領域A1に対する不適合領域N1の割合を提示してもよい。図6の例では、不適合領域N1を、検出部14による異常陰影の検出処理ができない「実施不可」の領域として記載している。また、第1関心領域A1における不適合領域N1以外の領域を、検出部14による異常陰影の検出が完了した「実施済み」の領域として記載している。
次に、図7を参照して、本実施形態に係る情報処理装置10の作用を説明する。CPU21が情報処理プログラム27を実行することによって、図7に示す判定処理が実行される。図7に示す判定処理は、例えば、入力部25を介してユーザから処理の開始の指示があった場合に実行される。
ステップS10で、取得部11は、画像取得装置2から第1画像G1を取得する。ステップS11で、抽出部12は、ステップS10で取得された第1画像G1から第1関心領域A1を抽出する。ステップS12で、検出部14は、ステップS11で抽出された第1関心領域A1に含まれる異常陰影を検出する。ステップS13で、判定部13は、ステップS11で抽出された第1関心領域A1について、抽出に不適合な不適合領域N1が存在しているか否かの判定を行う。
不適合領域N1が存在する場合(すなわちステップS13が肯定判定の場合)、ステップS14に移行し、提示部15は、第1画像G1における不適合領域N1を特定し、ステップS12で検出された異常陰影とともに提示する。一方、不適合領域N1が存在しない場合(すなわちステップS13が否定判定の場合)、ステップS15に移行し、提示部15は、ステップS12で検出された異常陰影のみを提示する。ステップS14又はS15が完了すると、本判定処理を終了する。なお、ステップS14の後に、後述する第2実施形態に係る画像合成処理、及び/又は、第3実施形態に係る検出結果合成処理を行ってもよい。
以上説明したように、第1実施形態に係る情報処理装置10は、少なくとも1つのプロセッサを備え、プロセッサは、被検体を撮影して得られる第1画像G1を取得し、第1画像G1から第1関心領域A1を抽出し、抽出した第1関心領域A1について、抽出に不適合な不適合領域N1が存在しているか否かの判定を行う。すなわち、情報処理装置10は、異常陰影等の検出及び診断を所望する対象の構造物が含まれうる第1関心領域A1における、不鮮明な領域の存否を判定する。したがって、不鮮明な第1画像G1でも、第1画像G1に不鮮明な領域が存在することを認識したうえでの診断に活用させることができる。
なお、上記第1実施形態において、検出部14は、第1関心領域A1のうちの不適合領域N1以外の領域に含まれる異常陰影のみを検出し、不適合領域N1については異常陰影の検出を行わないようにしてもよい。というのも、不鮮明な不適合領域N1については、異常陰影の不検出及び誤検出の可能性がそれ以外の領域と比較して高く、検出結果の信頼性が低いためである。
一方、上記第1実施形態において、判定部13が第1関心領域A1に不適合領域N1が存在していると判定した場合に、検出部14は、不適合領域N1に含まれる異常陰影等の構造物を、検出の精度を低下させて検出するようにしてもよい。「検出の精度を低下させて検出する」とは、異常陰影の不検出及び誤検出の可能性を許容して、信頼性が低くても異常陰影の検出を行うということである。この場合、提示部15は、不適合領域N1については異常陰影の検出の精度が低い旨を提示することが好ましい。また特に、第1関心領域A1に対する不適合領域N1の割合が予め定められた閾値以上(例えば20%以上)である場合に、このようにすることが好ましい。というのも、不適合領域N1の割合が高い場合に不適合領域N1において異常陰影の検出を行わないとすると、第1画像G1の多くの部分についてユーザが目視で異常陰影の確認を行わなければならず、CADの利点が失われてしまうからである。このような形態によれば、不鮮明な領域に関しては検出の精度が低いことを認識したうえで、第1画像G1全体についての異常陰影の検出結果を診断に活用させることができる。
また、上記第1実施形態においては、検出部14が異常陰影を検出する形態について説明したが、本実施形態に係る情報処理装置10は検出部14の機能(すなわちCAD機能)を備えていなくてもよく、異常陰影の確認はユーザが目視で行うようにしてもよい。このような形態によれば、第1画像G1に不鮮明な領域が存在することをユーザに認識させることで、ユーザによる異常陰影の見落としを抑制できるので、不鮮明な第1画像G1でもユーザによる診断に活用させることができる。
また、上記第1実施形態において、判定部13が第1関心領域A1に不適合領域N1が存在していると判定した場合に、抽出部12は、第1関心領域A1を、抽出の精度を低下させて再抽出するようにしてもよい。「抽出の精度を低下させて再抽出する」とは、第1関心領域A1としてそれ以外の領域(例えば図5の背景部分等)が抽出されうることを許容し、不適合領域N1が少なくなるよう、第1関心領域A1を抽出する場合の条件を変えるという意味である。この条件とは、例えば、画素の輝度値等によって定められる。
またこの場合、提示部15は、第1関心領域A1の抽出の精度が低い旨を提示することが好ましい。また特に、第1関心領域A1に対する不適合領域N1の割合が予め定められた閾値以上(例えば20%以上)である場合に、このようにすることが好ましい。というのも、第1画像G1の多くの部分が不適合領域N1として判定されてしまうと、不適合領域N1の補完(詳細は後述)が困難になるからである。このような形態によれば、第1関心領域A1の抽出の精度が低いことをユーザに認識させることで、ユーザによる異常陰影の見落としを抑制できるので、不鮮明な第1画像G1でもユーザによる診断に活用させることができる。
[第2実施形態]
上記第1実施形態においては、第1画像G1における不適合領域N1の存否の判定を行った。本実施形態に係る情報処理装置10は、第1画像G1に不適合領域N1が存在すると判定された場合に、第1画像G1とは別の医用画像を用いて、不適合領域N1を補完する機能を有する。以下、本実施形態に係る情報処理装置10の構成の一例について説明するが、第1実施形態と同様の構成及び作用については重複する説明を省略する。
上記第1実施形態においては、第1画像G1における不適合領域N1の存否の判定を行った。本実施形態に係る情報処理装置10は、第1画像G1に不適合領域N1が存在すると判定された場合に、第1画像G1とは別の医用画像を用いて、不適合領域N1を補完する機能を有する。以下、本実施形態に係る情報処理装置10の構成の一例について説明するが、第1実施形態と同様の構成及び作用については重複する説明を省略する。
図8を参照して、本実施形態に係る情報処理装置10の機能的な構成の一例について説明する。図8に示すように、本実施形態に係る情報処理装置10は、第1実施形態と同様の取得部11、抽出部12、判定部13、検出部14及び提示部15に加え、合成部16を含む。CPU21が情報処理プログラム27を実行することにより、取得部11、抽出部12、判定部13、検出部14、提示部15及び合成部16として機能する。
図9に、提示部15によりディスプレイ24に提示される画面D2の一例を示す。図9に示すように、提示部15は、判定部13が第1画像G1の第1関心領域A1に不適合領域N1が存在していると判定した場合に、不適合領域N1の少なくとも一部に対応する領域を含む第2画像G2を要求する。
取得部11は、画像取得装置2から第2画像G2を取得する。図10に、第2画像G2を示す。第2画像G2は、医用画像G0と同様の眼底の画像であり、第1画像G1の不適合領域N1に対応する領域N12(破線で図示)は鮮明に写っている。一方、撮影範囲の一部は不鮮明となっており、本来の第2関心領域A2(すなわち撮影範囲全体)の抽出に不適合な不適合領域N2も存在している。不適合領域N2には本来異常陰影S2が含まれているが、不鮮明なためその検出が困難になっている。
合成部16は、取得部11が取得した第1画像G1と、第2画像G2と、を合成することで、第3画像G3を生成する。具体的には、合成部16は、第1画像G1及び第2画像G2の何れか一方の画像における不適合領域を、他方の画像における対応する領域が補完するように、一方の画像に他方の画像の一部を合成することで第3画像G3を生成する。図11に示す第3画像G3では、第1画像G1における不適合領域N1を、第2画像G2における不適合領域N1に対応する領域N12が補完するように、第1画像G1に第2画像G2の一部が合成されている。
抽出部12は、第1画像G1から第1関心領域A1を抽出したのと同様の手法で、合成部16が合成した第3画像G3から第3関心領域A3を抽出する。
判定部13は、抽出部12が抽出した第3関心領域A3について、不適合領域が存在しているか否かを判定する。例えば、第1画像G1の不適合領域N1に対応する第2画像G2の領域N12のうち一部が不鮮明である場合、第2画像G2だけでは第1画像G1を補完しきれない。そこで、CPU21は、判定部13により第3関心領域A3に不適合領域が存在していないと判定されるまで、不適合領域の少なくとも一部に対応する領域を含む新規画像の要求及び取得と、新規画像と第3画像G3との再合成と、を繰り返し行う。新規画像の要求、取得及び合成は、上述した第2画像G2の要求、取得及び合成と同様にして行われる。
検出部14は、判定部13により第3関心領域A3に不適合領域が存在していないと判定されると、第1関心領域A1に含まれる異常陰影を検出したのと同様の手法で、抽出部12が抽出した第3関心領域A3に含まれる異常陰影を検出する。図11の第3画像G3の例では、検出部14によって異常陰影S1及びS2をともに検出できる。
図12に、提示部15によりディスプレイ24に提示される画面D3の一例を示す。図12に示すように、提示部15は、検出部14により検出された異常陰影S1及びS2を、第3画像G3上にアノテーションMを付すことで提示する。
次に、図13を参照して、本実施形態に係る情報処理装置10の作用を説明する。CPU21が情報処理プログラム27を実行することによって、図13に示す画像合成処理が実行される。図13に示す画像合成処理は、図7のフローチャートにおけるステップS14の後に実行される。すなわち、第1実施形態の判定処理において、第1画像G1に不適合領域N1が存在していると判定された場合に実行される。
ステップS31で、提示部15は、ステップS14で特定された不適合領域N1の少なくとも一部に対応する領域を含む第2画像G2を要求する。ステップS32で、取得部11は、画像取得装置2から第2画像G2を取得する。ステップS33で、合成部16は、ステップS10で取得された第1画像G1と、ステップS32で取得された第2画像G2と、を合成して第3画像G3を生成する。
ステップS34で、抽出部12は、ステップS33で合成した第3画像G3から第3関心領域A3を抽出する。ステップS35で、判定部13は、ステップS34で抽出された第3関心領域A3について、抽出に不適合な不適合領域が存在しているか否かの判定を行う。
不適合領域が存在する場合(すなわちステップS35が肯定判定の場合)、ステップS36に移行し、提示部15は、不適合領域の少なくとも一部に対応する領域を含む新規画像を要求する。ステップS37で、取得部11は、画像取得装置2から新規画像を取得する。ステップS38で、合成部16は、ステップS37で取得した新規画像と、ステップS33で合成した第3画像G3と、を再合成する。ステップS38が完了するとステップS34に戻る。すなわち、ステップS35で第3関心領域A3に不適合領域が存在していないと判定されるまで、ステップS34~S38の処理を繰り返す。
一方、不適合領域が存在しない場合(すなわちステップS35が否定判定の場合)、ステップS39に移行し、検出部14は、ステップS34で抽出された第3関心領域A3に含まれる異常陰影を検出する。ステップS40で、提示部15は、ステップS39で検出された異常陰影を提示し、本画像合成処理を終了する。
以上説明したように、第2実施形態に係る情報処理装置10は、少なくとも1つのプロセッサを備え、プロセッサは、第1画像G1の第1関心領域A1に不適合領域N1が存在していると判定した場合に、不適合領域N1の少なくとも一部に対応する領域を含む第2画像を要求し、第1画像G1と、第2画像G2と、を合成する。すなわち、情報処理装置10は、第1画像G1に不適合領域N1が存在すると判定された場合に、第1画像G1とは別の第2画像G2を用いて、不適合領域N1を補完する。したがって、各々は不鮮明な第1画像G1及び第2画像G2でも、診断に活用させることができる。
なお、上記第2実施形態においては、合成部16が、第1画像G1及び第2画像G2の何れか一方の画像における不適合領域を、他方の画像で補完する形態について説明したが、これに限らない。例えば、合成部16は、第1画像G1内及び第2画像G2内の複数の区画ごとに、画質がより良好な一方の画像を選択して合成することで第3画像G3を生成してもよい。「区画」とは、例えば画素、及び複数の画素で構成されるブロックを意味する。画質の良否は、例えば各画素が示す色相、彩度、輝度及び明度等の画素値に基づいて評価できる。さらに、これらの形態を組み合わせて、合成部16が、不適合領域については他方の画像で補完しつつ、他の領域については区画ごとに画質がより良好な一方の画像を選択して合成するようにしてもよい。
また、上記第2実施形態において、特に合成部16が新規画像に基づく再合成を予め定められた回数(例えば3回)を超えて繰り返した場合等は、抽出部12が、第3関心領域A3を、抽出の精度を低下させて再抽出するようにしてもよい。これは、再合成を繰り返しても不適合領域の補完が完了しない場合に、処理を切り上げるためである。この場合、提示部15は、第3関心領域A3の抽出の精度が低い旨を提示することが好ましい。
また、上記第2実施形態においては、第3画像G3に不適合領域が存在しなくなるまで新規画像の取得及び合成を繰り返す形態について説明したが、これに限らない。合成部16による合成を少なくとも1回行えば、不適合領域が存在していても合成処理を切り上げてもよい。例えば、合成回数による制限(例えば3回)を設け、合成回数が制限を超えた場合には、不適合領域が存在していても処理を切り上げてもよい。また例えば、第3画像G3の第3関心領域A3に対する不適合領域の割合が予め定められた閾値以下(例えば5%以下)となった場合は、不適合領域が存在していても処理を切り上げてもよい。これらの場合に、提示部15は、第3関心領域A3に対する不適合領域の割合を提示してもよい。
また、不適合領域が存在している状態で処理を切り上げた場合には、第3関心領域A3に含まれる異常陰影等の構造物を、検出の精度を低下させて検出するようにしてもよい。この場合、提示部15は、不適合領域については異常陰影の検出の精度が低い旨を提示することが好ましい。また特に、第3関心領域A3に対する不適合領域の割合が予め定められた閾値以上(例えば20%以上)である場合に、このようにすることが好ましい。というのも、不適合領域の割合が高い場合に不適合領域において異常陰影の検出を行わないとすると、第3画像G3の多くの部分についてユーザが目視で異常陰影の確認を行わなければならず、CADの利点が失われてしまうからである。このような形態によれば、不鮮明な領域に関しては検出の精度が低いことを認識したうえで、第3画像G3全体についての異常陰影の検出結果を診断に活用させることができる。
また、上記第2実施形態においては、検出部14が異常陰影を検出する形態について説明したが、本実施形態に係る情報処理装置10は検出部14の機能(すなわちCAD機能)を備えていなくてもよく、異常陰影の確認はユーザが目視で行うようにしてもよい。このような形態においても、各々は不鮮明な第1画像G1及び第2画像G2でも、ユーザによる診断に活用させることができる。
また、上記第2実施形態においては、第1実施形態の判定処理において、第1画像G1に不適合領域N1が存在していると判定された場合に、画像合成処理が行われる形態について説明したが、これに限らない。例えば、第1画像G1において、第1関心領域A1に対する不適合領域N1の割合が予め定められた閾値以上(例えば20%以上)である場合に、本実施形態に係る画像合成処理が行われるようにしてもよい。
[第3実施形態]
上記第2実施形態においては、第1画像G1と第2画像G2を合成した第3画像G3に基づき、異常陰影の検出を行った。本実施形態に係る情報処理装置10は、第1画像G1と第2画像G2とのそれぞれに基づき異常陰影の検出を行い、検出結果を合成する機能を有する。以下、本実施形態に係る情報処理装置10の構成の一例について説明するが、第1及び第2実施形態と同様の構成及び作用については重複する説明を省略する。
上記第2実施形態においては、第1画像G1と第2画像G2を合成した第3画像G3に基づき、異常陰影の検出を行った。本実施形態に係る情報処理装置10は、第1画像G1と第2画像G2とのそれぞれに基づき異常陰影の検出を行い、検出結果を合成する機能を有する。以下、本実施形態に係る情報処理装置10の構成の一例について説明するが、第1及び第2実施形態と同様の構成及び作用については重複する説明を省略する。
第2実施形態と同様に、図8を参照して、本実施形態に係る情報処理装置10の機能的な構成の一例について説明する。図8に示すように、本実施形態に係る情報処理装置10は、第1実施形態と同様の取得部11、抽出部12、判定部13、検出部14及び提示部15に加え、合成部16を含む。CPU21が情報処理プログラム27を実行することにより、取得部11、抽出部12、判定部13、検出部14、提示部15及び合成部16として機能する。
図9に、提示部15によりディスプレイ24に提示される画面D2の一例を示す。図9に示すように、提示部15は、判定部13が第1画像G1の第1関心領域A1に不適合領域N1が存在していると判定した場合に、不適合領域N1の少なくとも一部に対応する領域を含む第2画像G2を要求する。取得部11は、画像取得装置2から第2画像G2(図10参照)を取得する。第2画像G2に関する説明は、第2実施形態と同様であるため省略する。
抽出部12は、第1画像G1から第1関心領域A1を抽出したのと同様の手法で、取得部11が取得した第2画像G2から第2関心領域A2を抽出する。検出部14は、第1関心領域A1に含まれる異常陰影を検出したのと同様の手法で、抽出部12が抽出した第1関心領域A1と、第2関心領域A2と、のそれぞれに含まれる異常陰影を検出する。図5及び10の例では、検出部14によって、第1画像G1から異常陰影S2が検出され、第2画像G2から異常陰影S1が検出される。
合成部16は、検出部14によって第1関心領域A1及び第2関心領域A2のそれぞれから検出された異常陰影の検出結果を合成する。すなわち、合成部16は、それぞれ異なる複数の画像から得られた異常陰影の検出結果を、同一の被検体についての異常陰影の検出結果としてまとめる。
判定部13は、抽出部12が抽出した第1関心領域A1及び第2関心領域A2について、共通して抽出に不適合な共通不適合領域が存在しているか否かを判定する。共通不適合領域が存在した場合、異常陰影の見落としにつながる可能性がある。そこで、CPU21は、判定部13により共通不適合領域が存在していないと判定されるまで、共通不適合領域の少なくとも一部に対応する領域を含む新規画像の要求及び取得と、新規画像からの関心領域の抽出と、当該関心領域に含まれる異常陰影の検出と、当該異常陰影の検出結果及びそれまでに検出された異常陰影の検出結果の再合成と、を繰り返し行う。新規画像の要求、取得、関心領域の抽出及び異常陰影の検出は、上述した第2画像G2の要求、取得、関心領域の抽出及び異常陰影の検出と同様にして行われる。
図14に、提示部15によりディスプレイ24に提示される画面D4の一例を示す。図14に示すように、提示部15は、合成部16により合成された異常陰影の検出結果を、各画像にアノテーションMを付すことで提示する。なお、第2実施形態と同様に合成部16が第1画像G1と第2画像G2を合成した画像を生成し、提示部15が当該画像(すなわち1つの画像)上に、合成部16により合成された異常陰影の検出結果を、アノテーションMを付すことで提示してもよい。
次に、図15を参照して、本実施形態に係る情報処理装置10の作用を説明する。CPU21が情報処理プログラム27を実行することによって、図15に示す検出結果合成処理が実行される。図15に示す検出結果合成処理は、図7のフローチャートにおけるステップS14の後に実行される。すなわち、第1実施形態の判定処理において、第1画像G1に不適合領域N1が存在していると判定された場合に実行される。
ステップS51で、提示部15は、ステップS14で特定された不適合領域N1の少なくとも一部に対応する領域を含む第2画像G2を要求する。ステップS52で、取得部11は、画像取得装置2から第2画像G2を取得する。ステップS53で、抽出部12は、ステップS52で取得した第2画像G2から第2関心領域A2を抽出する。ステップS54で、検出部14は、ステップS53で抽出された第2関心領域A2に含まれる異常陰影を検出する。
ステップS55で、合成部16は、ステップS12で検出された第1関心領域A1に含まれる異常陰影の検出結果と、ステップS54で検出された第2関心領域A2に含まれる異常陰影の検出結果と、を合成する。ステップS56で、判定部13は、ステップS11で抽出した第1関心領域A1、及びステップS53で抽出した第2関心領域A2について、共通して抽出に不適合な共通不適合領域が存在しているか否かを判定する。
共通不適合領域が存在する場合(すなわちステップS56が肯定判定の場合)、共通不適合領域の少なくとも一部に対応する領域を含む新規画像について、ステップS51~S56の処理を行う。すなわち、ステップS56で共通不適合領域が存在していないと判定されるまで、ステップS51~S56の処理を繰り返す。
一方、共通不適合領域が存在しない場合(すなわちステップS56が否定判定の場合)、ステップS57に移行し、提示部15は、ステップS55で合成された異常陰影の検出結果を提示する。ステップS57が完了すると、本検出結果合成処理を終了する。
以上説明したように、第3実施形態に係る情報処理装置10は、少なくとも1つのプロセッサを備え、プロセッサは、第1画像G1の第1関心領域A1に不適合領域N1が存在していると判定した場合に、不適合領域N1の少なくとも一部に対応する領域を含む第2画像を要求する。また、第2画像G2から第2関心領域A2を抽出し、第1関心領域A1と、第2関心領域A2と、のそれぞれに含まれる異常陰影を検出し、異常陰影の検出結果を合成する。すなわち、情報処理装置10は、第1画像G1に不適合領域N1が存在すると判定された場合に、第1画像G1とは別の第2画像G2を用いて、異常陰影の検出結果を補完する。したがって、各々は不鮮明な第1画像G1及び第2画像G2でも、診断に活用させることができる。
なお、上記第3実施形態において、特に合成部16が新規画像に含まれる異常陰影の検出結果の再合成を予め定められた回数(例えば3回)を超えて繰り返した場合等は、抽出部12が、新規画像の関心領域を、抽出の精度を低下させて抽出するようにしてもよい。これは、再合成を繰り返しても共通不適合領域が無くならない場合に、処理を切り上げるためである。この場合、提示部15は、関心領域の抽出の精度が低い旨を提示することが好ましい。
また、上記第3実施形態においては、共通不適合領域が存在しなくなるまで、新規画像に基づく異常陰影の検出結果の合成を繰り返す形態について説明したが、これに限らない。合成部16による検出結果の合成を少なくとも1回行えば、共通不適合領域が存在していても合成処理を切り上げてもよい。例えば、合成回数による制限(例えば3回)を設け、合成回数が制限を超えた場合には、共通不適合領域が存在していても処理を切り上げてもよい。また例えば、第1関心領域A1又は第2関心領域A2に対する共通不適合領域の割合が予め定められた閾値以下(例えば5%以下)となった場合は、共通不適合領域が存在していても処理を切り上げてもよい。
また、共通不適合領域が存在している状態で処理を切り上げた場合には、共通不適合領域に含まれる異常陰影等の構造物を、検出の精度を低下させて検出するようにしてもよい。この場合、提示部15は、共通不適合領域については異常陰影の検出の精度が低い旨を提示することが好ましい。また特に、第1関心領域A1又は第2関心領域A2に対する共通不適合領域の割合が予め定められた閾値以上(例えば20%以上)である場合に、このようにすることが好ましい。というのも、共通不適合領域の割合が高い場合に共通不適合領域において異常陰影の検出を行わないとすると、第1画像G1及び第2画像G2の多くの部分についてユーザが目視で異常陰影の確認を行わなければならず、CADの利点が失われてしまうからである。このような形態によれば、不鮮明な領域に関しては検出の精度が低いことを認識したうえで、第1画像G1及び第2画像G2の全体についての異常陰影の検出結果を診断に活用させることができる。
また、上記第3実施形態においては、第1実施形態の判定処理において、第1画像G1に不適合領域N1が存在していると判定された場合に、検出結果合成処理が行われる形態について説明したが、これに限らない。例えば、第1画像G1において、第1関心領域A1に対する不適合領域N1の割合が予め定められた閾値以上(例えば20%以上)である場合に、本実施形態に係る検出結果合成処理が行われるようにしてもよい。
[第4実施形態]
上記第1~第3実施形態においては、抽出部12が医用画像から関心領域を抽出する形態について説明した。上述したように、抽出部12による関心領域の抽出方法としては、医用画像を入力とし、関心領域を抽出して出力するよう学習された学習済みモデルを用いることができる。この場合、学習済みモデルには、図5及び図10に示すような不鮮明な医用画像が入力された場合にも、精度よく関心領域を抽出できることが求められる。
上記第1~第3実施形態においては、抽出部12が医用画像から関心領域を抽出する形態について説明した。上述したように、抽出部12による関心領域の抽出方法としては、医用画像を入力とし、関心領域を抽出して出力するよう学習された学習済みモデルを用いることができる。この場合、学習済みモデルには、図5及び図10に示すような不鮮明な医用画像が入力された場合にも、精度よく関心領域を抽出できることが求められる。
この学習済みモデルの精度を向上させるための一手法として、種々のパターンの不鮮明な医用画像を学習用データとして用いて学習を行う手法がある。しかし、不鮮明な医用画像を、十分な数及びパターンを狙って画像取得装置2で取得することは困難であった。そこで、本実施形態においては、不鮮明な医用画像を故意に生成して学習用データとして用いることで、学習モデルの精度を向上させることを目的とする。
一例として、本実施形態に係る情報処理装置10が、抽出部12で用いられる学習モデル4を教師なし学習により学習させる形態について説明する。学習モデル4は、例えばCNN(Convolutional Neural Network)、FCN(Fully Convolutional Network)及びU-Net等のディープラーニングのモデルを含んで構成され、医用画像を入力とし、関心領域を抽出して出力するよう学習されたモデルである。また例えば、このようなモデルとして、上記特許文献1、特開2019-088458号公報及び特開2020-114302号公報に記載の技術を適用してもよい。
CPU21は、画像取得装置2から被検体を撮影して得られる元画像を取得する。すなわち、元画像は、放射線画像撮影装置、磁気共鳴画像装置、超音波装置、眼底撮影装置及び内視鏡のうち少なくとも1つの画像取得装置2により得られる画像である。また、元画像には、被検体、被検体に含まれる一部の組織、及び、被検体又は組織に含まれる異常部等の構造物の少なくとも1つを含む関心領域が含まれる。以下、元画像の一例として、図4に示す鮮明な医用画像G0を用いた例について説明する。医用画像G0については上述したとおりであるので、説明は省略する。
CPU21は、医用画像G0の少なくとも一部の画素値を変更して、疑似画像を生成する。画素値とは、医用画像G0における各画素が示す色相、彩度、輝度及び明度のうち少なくとも1つを示す値である。例えば、医用画像G0の明るさ及びコントラストを変更したり、ぼかし及びノイズを付与したりすることで、各画素の画素値が変更される。ただし、CPU21は、疑似画像の生成において解像度の変更は行わないものとする。
図16を参照して、疑似画像の具体例について説明する。図16の左側に示す複数の疑似画像P1~P5は、それぞれ医用画像G0に基づいて生成された疑似画像であり、学習用データとして学習モデル4に入力される。疑似画像P1及びP2は、それぞれ医用画像G0の明るさを明るく及び暗くした画像である。疑似画像P3は、医用画像G0のコントラストを弱くした画像である。疑似画像P4及びP5は、それぞれ医用画像G0の一部の領域を暗くした画像である。
また、図16の右側には、入力された疑似画像のそれぞれについて、学習途中の学習モデル4によって抽出された関心領域を太線で囲って図示している。疑似画像P1及びP2については関心領域が適切に抽出されている。疑似画像P3については、抽出不可のエラーが出力されている。疑似画像P4及びP5については、本来は関心領域として抽出されるべき一部の不鮮明な領域が、関心領域として抽出されていない。
図16に示すように、疑似画像は、医用画像G0の全体について画素値が変更されたものであってもよいし、医用画像G0の一部について画素値が変更されたものであってもよい。また、疑似画像P4及びP5に示すように、1つの医用画像G0に対してそれぞれ異なる領域における画素値を変更して生成された複数の疑似画像を学習用データとして用いることが好ましい。このような形態によれば、元画像の数を減らすことができるので、効率的に学習を行うことができる。
また、疑似画像P1~P5に示すように、疑似画像は、医用画像G0における少なくとも一部において、画質が劣化するように画素値を変更して生成された画像であることが好ましい。「画質が劣化するように」とは、具体的には、医用画像G0に含まれる構造物が検出しづらくなるような加工を意味し、例えば、コントラストを弱める加工が挙げられる。というのも、学習モデルの運用フェーズを考慮すると、入力される医用画像が眼底画像の場合は、例えば光量不足により画像が暗くなったり、外乱光により画像が明るくなったりすることで、鮮明な医用画像よりもコントラストが弱まることが考えられるためである。
また、図16に示すように、疑似画像は、医用画像G0における関心領域を少なくとも含む領域の画素値を変更して生成された画像であることが好ましい。関心領域以外の領域に関しては、不鮮明であるか否かが特に問題にならないためである。
また、疑似画像は、医用画像G0に含まれる構造物の存否を維持しながら、医用画像G0の少なくとも一部の画素値を変更して生成された画像であることが好ましい。本学習モデル4では、不鮮明な医用画像からでも精度よく関心領域を抽出することを優先事項としており、構造物の存否の変化に対応させることは優先度が低いためである。
また、疑似画像は、GAN(Generative Adversarial Networks)及びVAE(Variational Autoencoder)等の画像生成モデルを用いて、医用画像G0に基づき生成された画像であってもよい。
CPU21は、以上のようにして生成された疑似画像P1~P5を学習用データとして学習モデル4に入力することで、学習モデル4を学習させる。また、図16の疑似画像P3~P5に示すように、CPU21は、学習モデル4が、入力された疑似画像から関心領域を適切に抽出できなかった場合に、当該疑似画像を学習用データとして再度入力することで、学習モデル4を再学習させてもよい。このような形態によれば、学習モデル4の精度を向上させることができる。
なお、再学習の際には、疑似画像に正解ラベルを付与するようにしてもよい。具体的には、CPU21が、疑似画像と、当該疑似画像に含まれる関心領域を示す情報と、のペアを学習用データとして学習モデル4に入力し、学習モデル4を再学習させてもよい。関心領域を示す情報とは、例えば、疑似画像中の関心領域の位置を示す情報である。
次に、図17を参照して、本実施形態に係る情報処理装置10の作用を説明する。CPU21が情報処理プログラム27を実行することによって、図17に示す学習処理が実行される。図17に示す学習処理は、例えば、入力部25を介してユーザから処理の開始の指示があった場合に実行される。
ステップS71で、CPU21は、画像取得装置2から被検体を撮影して得られる元画像を取得する。ステップS72で、CPU21は、ステップS71で取得した元画像の少なくとも一部の画素値を変更して、疑似画像を生成する。ステップS73で、CPU21は、ステップS72で生成した疑似画像を学習用データとして用い、学習モデル4を学習させる。ステップS74で、CPU21は、学習モデル4が入力された疑似画像から適切に関心領域を抽出できたか否かを判定する。
学習モデル4が入力された疑似画像から適切に関心領域を抽出できなかった場合(すなわちステップS74が否定判定の場合)は、ステップS73に戻り、CPU21は、疑似画像を学習モデル4に再度入力することで、学習モデル4を再学習させる。すなわち、学習モデル4が疑似画像から適切に関心領域を抽出できるまで、同一の疑似画像を用いての再学習を繰り返す。学習モデル4が入力された疑似画像から適切に関心領域を抽出できたタイミング(すなわちステップS74が肯定判定となったタイミング)で、本学習処理を終了する。
以上説明したように、第4実施形態に係る情報処理装置10は、少なくとも1つのプロセッサを備え、プロセッサは、被検体を撮影して得られる元画像の少なくとも一部の画素値を変更して生成された疑似画像を学習用データとして入力することで、入力された画像から関心領域を抽出するための学習モデルを学習させる。したがって、関心領域の抽出に不適合な画像でも、適切に関心領域を抽出でき、診断に活用させることができる。
なお、上記第4実施形態においては、情報処理装置10が、抽出部12で用いられる学習モデル4を教師なし学習により学習させる形態について説明したが、これに限らない。情報処理装置10は、学習モデル4を教師あり学習及び半教師あり学習により学習させてもよい。具体的には、CPU21が、疑似画像と、当該疑似画像に含まれる関心領域を示す情報と、のペアを学習用データとして入力することで、学習モデル4を学習させてもよい。またこの場合に、CPU21は、学習モデル4が、入力された疑似画像から関心領域を抽出できなかった場合に、当該疑似画像を学習用データとして再度入力することで、学習モデル4を再学習させてもよい。
なお、上記各実施形態においては、医用画像を用いて説明を行ったが、本開示の技術は医用画像のみに適用されるものではない。本開示の技術は、例えば、放射線透過検査及び超音波探傷検査等の非破壊検査において、機器、建築物、配管及び溶接部等を被検体として取得される画像に適用されてもよい。
また、上記各実施形態においては、情報処理システム1が、情報処理装置10と、画像取得装置2と、を含む形態について説明したが、これに限らない。例えば、情報処理システム1は、情報処理装置10の機能、及び画像取得装置2の機能をともに有する1台の装置を含むものであってもよい。また例えば、情報処理システム1に複数の画像取得装置2が含まれ、情報処理装置10が複数の画像取得装置2の各々から医用画像を取得するものであってもよい。また例えば、情報処理装置10が、取得部11、抽出部12、判定部13、検出部14、提示部15及び合成部16といった機能ごとに異なる複数の装置からなる構成であってもよい。
また、上記各実施形態において、例えば、取得部11、抽出部12、判定部13、検出部14、提示部15及び合成部16といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
また、上記各実施形態では、情報処理プログラム27が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。情報処理プログラム27は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、情報処理プログラム27は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。さらに、本開示の技術は、情報処理プログラムに加えて、情報処理プログラムを非一時的に記憶する記憶媒体にもおよぶ。
本開示の技術は、上記各実施形態例を適宜組み合わせることも可能である。以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。
1 情報処理システム
2 画像取得装置
4 学習モデル
10 情報処理装置
11 取得部
12 抽出部
13 判定部
14 検出部
15 提示部
16 合成部
21 CPU
22 記憶部
23 メモリ
24 ディスプレイ
25 入力部
26 ネットワークI/F
27 情報処理プログラム
28 バス
A0 関心領域
A1 第1関心領域
A2 第2関心領域
A3 第3関心領域
D1~D4 画面
G0 医用画像
G1 第1画像
G2 第2画像
G3 第3画像
M アノテーション
N1、N2 不適合領域
N12 領域
P1~P5 疑似画像
S1、S2 異常陰影
2 画像取得装置
4 学習モデル
10 情報処理装置
11 取得部
12 抽出部
13 判定部
14 検出部
15 提示部
16 合成部
21 CPU
22 記憶部
23 メモリ
24 ディスプレイ
25 入力部
26 ネットワークI/F
27 情報処理プログラム
28 バス
A0 関心領域
A1 第1関心領域
A2 第2関心領域
A3 第3関心領域
D1~D4 画面
G0 医用画像
G1 第1画像
G2 第2画像
G3 第3画像
M アノテーション
N1、N2 不適合領域
N12 領域
P1~P5 疑似画像
S1、S2 異常陰影
Claims (20)
- 少なくとも1つのプロセッサを備え、
前記プロセッサは、
被検体を撮影して得られる第1画像を取得し、
前記第1画像から第1関心領域を抽出し、
抽出した前記第1関心領域について、抽出に不適合な不適合領域が存在しているか否かの判定を行う
情報処理装置。 - 前記プロセッサは、
抽出した前記第1関心領域の形状と、前記第1関心領域に関して予め定められた基準形状と、の類似度合に応じて、前記判定を行う
請求項1に記載の情報処理装置。 - 前記プロセッサは、
被検体を撮影して得られる画像を入力とし、当該画像から抽出される関心領域に前記不適合領域が存在しているか否かを判定するための学習済みモデルを用いて、前記判定を行う
請求項1又は請求項2に記載の情報処理装置。 - 前記学習済みモデルは、被検体を撮影して得られる画像と、当該画像から抽出される関心領域に前記不適合領域が存在しているか否かを示す情報と、のペアを学習用データとして学習された学習モデルである
請求項3に記載の情報処理装置。 - 前記プロセッサは、
前記第1関心領域に前記不適合領域が存在していると判定した場合に、前記第1画像における前記不適合領域を特定して提示する
請求項1から請求項4の何れか1項に記載の情報処理装置。 - 前記プロセッサは、
前記第1関心領域に前記不適合領域が存在していると判定した場合に、前記第1関心領域に対する前記不適合領域の割合を提示する
請求項1から請求項5の何れか1項に記載の情報処理装置。 - 前記プロセッサは、
前記第1関心領域に前記不適合領域が存在していると判定した場合に、前記第1関心領域を、抽出の精度を低下させて再抽出する
請求項1から請求項6の何れか1項に記載の情報処理装置。 - 前記プロセッサは、
前記第1関心領域に含まれる構造物を検出し、
前記第1関心領域に前記不適合領域が存在していると判定した場合に、前記不適合領域に含まれる構造物を、検出の精度を低下させて検出する
請求項1から請求項7の何れか1項に記載の情報処理装置。 - 前記プロセッサは、
前記第1関心領域に前記不適合領域が存在していると判定した場合に、前記不適合領域の少なくとも一部に対応する領域を含む第2画像を要求する
請求項1から請求項8の何れか1項に記載の情報処理装置。 - 前記プロセッサは、
前記第2画像を取得し、
前記第1画像と、前記第2画像と、を合成することで第3画像を生成する
請求項9に記載の情報処理装置。 - 前記プロセッサは、
前記第1画像及び前記第2画像の何れか一方の画像における前記不適合領域を、他方の画像における対応する領域が補完するように、前記一方の画像に前記他方の画像の一部を合成することで前記第3画像を生成する
請求項10に記載の情報処理装置。 - 前記プロセッサは、
前記第1画像内及び前記第2画像内の複数の区画ごとに、画質がより良好な一方の画像を選択して合成することで前記第3画像を生成する
請求項10又は請求項11に記載の情報処理装置。 - 前記プロセッサは、
前記第3画像から第3関心領域を抽出し、
抽出した前記第3関心領域について、前記不適合領域が存在しているか否かを判定し、
前記第3関心領域に前記不適合領域が存在していないと判定されるまで、
当該不適合領域の少なくとも一部に対応する領域を含む新規画像の取得と、
当該新規画像と前記第3画像との再合成と、を繰り返し行う
請求項10から請求項12の何れか1項に記載の情報処理装置。 - 前記プロセッサは、
前記第3画像から第3関心領域を抽出し、
前記第3関心領域に含まれる構造物を検出する
請求項10から請求項13の何れか1項に記載の情報処理装置。 - 前記プロセッサは、
前記第2画像を取得し、
前記第2画像から第2関心領域を抽出し、
前記第1関心領域と、前記第2関心領域と、のそれぞれに含まれる構造物を検出し、
前記第1関心領域及び前記第2関心領域のそれぞれから検出された前記構造物の検出結果を合成する
請求項9から請求項14の何れか1項に記載の情報処理装置。 - 前記プロセッサは、
抽出した前記第1関心領域及び前記第2関心領域について、共通して抽出に不適合な共通不適合領域が存在しているか否かを判定し、
前記共通不適合領域が存在していないと判定されるまで、
当該共通不適合領域の少なくとも一部に対応する領域を含む新規画像の取得と、
当該新規画像からの関心領域の抽出と、
当該関心領域に含まれる構造物の検出と、
当該構造物の検出結果の再合成と、を繰り返し行う
請求項15に記載の情報処理装置。 - 前記第1関心領域は、前記被検体、前記被検体に含まれる一部の組織、及び、前記被検体又は前記組織に含まれる異常部の少なくとも1つを含む領域である
請求項1から請求項16の何れか1項に記載の情報処理装置。 - 前記第1画像は、放射線画像撮影装置、磁気共鳴画像装置、超音波装置、眼底撮影装置及び内視鏡のうち少なくとも1つにより得られる画像である
請求項1から請求項17の何れか1項に記載の情報処理装置。 - 被検体を撮影して得られる第1画像を取得し、
前記第1画像から第1関心領域を抽出し、
抽出した前記第1関心領域について、抽出に不適合な不適合領域が存在しているか否かの判定を行う
処理をコンピュータが実行する情報処理方法。 - 被検体を撮影して得られる第1画像を取得し、
前記第1画像から第1関心領域を抽出し、
抽出した前記第1関心領域について、抽出に不適合な不適合領域が存在しているか否かの判定を行う
処理をコンピュータに実行させるための情報処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021013738A JP2022117177A (ja) | 2021-01-29 | 2021-01-29 | 情報処理装置、情報処理方法及び情報処理プログラム |
US17/580,666 US20220245797A1 (en) | 2021-01-29 | 2022-01-21 | Information processing apparatus, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021013738A JP2022117177A (ja) | 2021-01-29 | 2021-01-29 | 情報処理装置、情報処理方法及び情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022117177A true JP2022117177A (ja) | 2022-08-10 |
Family
ID=82611556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021013738A Pending JP2022117177A (ja) | 2021-01-29 | 2021-01-29 | 情報処理装置、情報処理方法及び情報処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220245797A1 (ja) |
JP (1) | JP2022117177A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024075185A1 (ja) * | 2022-10-04 | 2024-04-11 | オリンパスメディカルシステムズ株式会社 | 検査支援システム、検査支援方法及び検査支援プログラムを記録した記録媒体 |
-
2021
- 2021-01-29 JP JP2021013738A patent/JP2022117177A/ja active Pending
-
2022
- 2022-01-21 US US17/580,666 patent/US20220245797A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024075185A1 (ja) * | 2022-10-04 | 2024-04-11 | オリンパスメディカルシステムズ株式会社 | 検査支援システム、検査支援方法及び検査支援プログラムを記録した記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20220245797A1 (en) | 2022-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210104313A1 (en) | Medical image processing apparatus, medical image processing method and computer-readable medium | |
JP6930283B2 (ja) | 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム | |
US20210390696A1 (en) | Medical image processing apparatus, medical image processing method and computer-readable storage medium | |
CN107563434B (zh) | 一种基于三维卷积神经网络的脑部mri图像分类方法、装置 | |
US11922601B2 (en) | Medical image processing apparatus, medical image processing method and computer-readable medium | |
WO2021021329A1 (en) | System and method for interpretation of multiple medical images using deep learning | |
JP2008520317A (ja) | 医療画像データ内の腫瘍境界を自動的に検出及び区分するシステム及び方法 | |
JP2010220742A (ja) | 画像処理装置および方法並びにプログラム | |
US11996182B2 (en) | Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network | |
KR102178803B1 (ko) | 흉부 의료 영상 판독 지원 시스템 및 방법 | |
CN112334990A (zh) | 自动宫颈癌诊断系统 | |
JP2020062355A (ja) | 画像処理装置、データ生成装置及びプログラム | |
JP2022117177A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP6810212B2 (ja) | 画像識別方法及び画像識別装置 | |
US20230222668A1 (en) | Image processing apparatus, image processing method, and recording medium | |
JP2006340835A (ja) | 異常陰影候補の表示方法及び医用画像処理システム | |
JP2006334140A (ja) | 異常陰影候補の表示方法及び医用画像処理システム | |
EP4293615A1 (en) | Learning device, learning method, trained model, and program | |
JP2022117178A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP7213412B2 (ja) | 医用画像抽出装置、医用画像抽出方法、及び、コンピュータプログラム | |
RU2475833C2 (ru) | Фильтр по образцу | |
US20240112786A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP7418730B2 (ja) | 医用画像処理装置、医用画像処理方法および医用画像処理プログラム | |
WO2012083350A1 (en) | Coronary calcium measurement | |
CN113096091B (zh) | 图像处理方法及装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231005 |