JP2020032045A - 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム - Google Patents

梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム Download PDF

Info

Publication number
JP2020032045A
JP2020032045A JP2018162861A JP2018162861A JP2020032045A JP 2020032045 A JP2020032045 A JP 2020032045A JP 2018162861 A JP2018162861 A JP 2018162861A JP 2018162861 A JP2018162861 A JP 2018162861A JP 2020032045 A JP2020032045 A JP 2020032045A
Authority
JP
Japan
Prior art keywords
image
infarct region
onset
discriminator
elapsed time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2018162861A
Other languages
English (en)
Other versions
JP2020032045A5 (ja
Inventor
卓也 淵上
Takuya Fuchigami
卓也 淵上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2018162861A priority Critical patent/JP2020032045A/ja
Priority to US16/536,242 priority patent/US11049251B2/en
Publication of JP2020032045A publication Critical patent/JP2020032045A/ja
Publication of JP2020032045A5 publication Critical patent/JP2020032045A5/ja
Abandoned legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4806Functional imaging of brain activation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/50NMR imaging systems based on the determination of relaxation times, e.g. T1 measurement by IR sequences; T2 measurement by multiple-echo sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion

Abstract

【課題】判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラムにおいて、CT画像を用いて脳梗塞が発症してからの経過時間に応じて梗塞領域を迅速に判別できるようにする。【解決手段】画像取得部21が、脳梗塞を発症している被検体の脳のCT画像および1以上のMRI画像を取得し、梗塞領域抽出部22が、MRI画像から発症からの経過時間に応じた梗塞領域を抽出する。位置合わせ部23が、CT画像とMRI画像との位置合わせを行い、梗塞領域特定部25が、位置合わせ結果に基づいて、CT画像Bc0における発症からの経過時間に応じた梗塞領域を特定する。学習部25が、CT画像Bc0において特定された発症からの経過時間に応じた梗塞領域を教師データとして、判別対象のCT画像における、発症からの経過時間に応じた梗塞領域を判別する判別器26の学習を行う。【選択図】図2

Description

本開示は、脳画像における梗塞領域を発症からの経過時間に応じて判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラムに関する。
近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。とくに、対象部位を脳とした場合においては、CT画像およびMRI画像等を用いた画像診断により、脳梗塞および脳出血等の脳の血管障害を起こしている領域を特定することができる。このため、画像診断を支援するための各種手法が提案されている。
例えば、特許文献1においては、超音波画像、CT画像およびMRI画像等の被検体の生体組織を撮像した複数の医用画像を、予め定められた所定の種類毎に分類するパターンを求めて記憶する学習演算を行い、入力画像を学習データに基づいて認識して表示する手法が提案されている。また、特許文献2においては、MRIの拡散強調画像(DWI:Diffusion Weighted Image)に含まれる脳梗塞部位を検出し、拡散強調画像の異常部位と健常者の拡散強調画像とから、両者の解剖学的位置合わせに必要な位置変換データを取得し、患者の脳の各組織位置が健常者の脳の各組織位置に合致するように、位置変換データを用いて、SPECT(Single Photon Emission Computed Tomography)装置で撮影されたSPECT画像を変換し、SPECT画像上で脳梗塞部位を判別する手法が提案されている。また、特許文献3においては、CT画像とMRI画像とを位置合わせして表示して、診断を行う手法が提案されている。
ところで、脳梗塞患者に対しては、抗血小板薬を使った血栓溶解療法が行われる。しかしながら、血栓溶解療法は、脳梗塞の未発症が確認された時刻から4.5時間以内が適用対象であり、時間の経過により梗塞範囲が広がるほど、治療後に出血が生じるリスクが高くなることが知られている。このため、血栓溶解療法の適否を判断するためには、医用画像を用いて梗塞範囲を迅速かつ適切に判別することが必要である。ここで、拡散強調画像においては、梗塞領域は他の領域とは異なる信号値を有するものとなる。とくに急性期の脳梗塞の領域は、拡散強調画像においては他の領域との信号値の相違が顕著となる。このため、梗塞領域の確認には拡散強調画像が使用されることが多い。さらに、血栓溶解療法が適用対象となる時間を経過してしまった場合には、脳梗塞に対して血栓溶解療法とは異なる治療が必要である。したがって、MRIの拡散強調画像のみならず、T1強調画像、T2強調画像またはFLAIR(FLuid-Attenuated Inversion Recovery)画像等を用いて、超急性期、急性期、亜急性期および慢性期(陳旧性)といった、脳梗塞が発症してからの経過時間を認識することも脳梗塞を治療する上で重要である。
再公表2009−148041号公報 特開2013−165765号公報 特開2014−518516号公報
一方、脳の診断においては、脳梗塞を確認する前に、脳内の出血の有無を確認することが多い。脳内の出血はCT画像において明確に確認することができるため、脳疾患が疑われる患者に対しては、まずCT画像を用いた診断が行われる。しかしながら、CT画像においては、急性期の脳梗塞の領域と他の領域との信号値の相違はそれほど大きくないため、CT画像を用いて急性期の梗塞を特定することは、困難であることが多い。このため、CT画像を用いた診断後にMRI画像を取得して脳梗塞が発症しているか否かの診断が行われることとなる。
しかしながら、CT画像を用いた診断後にMRI画像を取得して脳梗塞が発症しているか否かの診断を行っていたのでは、脳梗塞が発症してからの経過時間が長くなるため、血栓溶解療法による治療後の出血のリスクが高くなる可能性がある。さらに、上述したような脳梗塞が発症してからの経過時間を認識するためには複数のMRI画像の取得が必要となるため、患者の負担が大きくなる。
本開示は上記事情に鑑みなされたものであり、CT画像を用いて脳梗塞が発症してからの経過時間に応じて梗塞領域を迅速に判別できるようにすることを目的とする。
本開示による判別器の学習装置は、脳梗塞を発症している被検体の脳のCT画像およびCT画像を取得するCT装置とは異なるモダリティにより取得された、被検体の少なくとも1つの脳画像を取得する画像取得部と、
少なくとも脳画像に基づいて、脳画像から、発症からの経過時間に応じた梗塞領域を抽出する梗塞領域抽出部と、
CT画像と脳画像との位置合わせを行う位置合わせ部と、
位置合わせの結果に基づいて、CT画像における発症からの経過時間に応じた梗塞領域を特定する梗塞領域特定部と、
CT画像において特定された、発症からの経過時間に応じた梗塞領域を教師データとして、入力されたCT画像における発症からの経過時間に応じた梗塞領域を判別する判別器の学習を行う学習部とを備える。
「少なくとも脳画像に基づいて」とは、脳画像以外の他の画像、例えばCT画像にも基づいてもよいことを意味する。
なお、本開示による判別器の学習装置においては、脳画像はMRI画像であってもよい。
また、本開示による判別器の学習装置においては、MRI画像は拡散強調画像、FLAIR画像およびT2強調画像の少なくとも1つであってもよい。
本開示による判別器は、本開示による判別器の学習装置により学習がなされたものである。
本開示による梗塞領域判別装置は、判別対象のCT画像を取得する画像取得部と、
判別対象のCT画像における梗塞領域を発症からの経過時間に応じて判別する、本開示による判別器とを備える。
なお、本開示による梗塞領域判別装置においては、判別器による梗塞領域の判別結果を表示部に表示する表示制御部をさらに備えるものであってもよい。
本開示による判別器の学習方法は、脳梗塞を発症している被検体の脳のCT画像およびCT画像を取得するCT装置とは異なるモダリティにより取得された、被検体の少なくとも1つの脳画像を取得し、
少なくとも脳画像に基づいて、脳画像から、発症からの経過時間に応じた梗塞領域を抽出し、
CT画像と脳画像との位置合わせを行い、
位置合わせの結果に基づいて、CT画像における発症からの経過時間に応じた梗塞領域を特定し、
CT画像において特定された、発症からの経過時間に応じた梗塞領域を教師データとして、入力されたCT画像における発症からの経過時間に応じた梗塞領域を判別する判別器の学習を行う。
本開示による梗塞領域判別方法は、判別対象のCT画像を取得し、
本開示による判別器により、判別対象のCT画像における梗塞領域を発症からの経過時間に応じて判別する。
なお、本開示による判別器の学習方法および本開示による梗塞領域判別方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示による他の判別器の学習装置は、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
脳梗塞を発症している被検体の脳のCT画像およびCT画像を取得するCT装置とは異なるモダリティにより取得された、被検体の少なくとも1つの脳画像を取得し、
少なくとも脳画像に基づいて、脳画像から、発症からの経過時間に応じた梗塞領域を抽出し、
CT画像と脳画像との位置合わせを行い、
位置合わせの結果に基づいて、CT画像における発症からの経過時間に応じた梗塞領域を特定し、
CT画像において特定された、発症からの経過時間に応じた梗塞領域を教師データとして、入力されたCT画像における発症からの経過時間に応じた梗塞領域を判別する判別器の学習を行う処理を実行する。
本開示による他の梗塞領域判別装置は、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
判別対象のCT画像を取得し、
本開示による判別器により、判別対象のCT画像における梗塞領域を発症からの経過時間に応じて判別する処理を実行する。
本開示によれば、CT画像のみを用いて、発症からの経過時間に応じた脳梗塞の診断を迅速に行うことができる。
本開示の実施形態による学習装置、判別器および梗塞領域判別装置を適用した、診断支援システムの概要を示すハードウェア構成図 本実施形態による梗塞領域判別装置の概略構成を示す図 拡散強調画像およびFLAIR画像の例を示す図 CT画像、拡散強調画像およびFLAIR画像の信号値と梗塞領域の発症からの経過時間との関係を示す図 CT画像と拡散強調画像との位置合わせを説明するための図 CT画像における発症からの経過時間に応じた梗塞領域の特定を説明するための図 判別結果の表示の例を示す図 本実施形態において学習時に行われる処理を示すフローチャート 本実施形態において発症からの経過時間に応じた梗塞領域の判別時に行われる処理を示すフローチャート
以下、図面を参照して本開示の実施形態について説明する。図1は、本開示の実施形態による判別器の学習装置、判別器および梗塞領域判別装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本実施形態による梗塞領域判別装置1、3次元画像撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。なお、梗塞領域判別装置1には、本実施形態による学習装置および判別器が内包される。
3次元画像撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を医用画像として生成する装置である。3次元画像撮影装置2により生成された医用画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、被検体である患者の診断対象部位は脳であり、3次元画像撮影装置2はCT装置2AおよびMRI装置2Bである。そして、CT装置2Aにおいて、被検体の脳を含む3次元のCT画像Bc0を生成し、MRI装置2Bにおいて、被検体の脳を含む少なくとも1つの3次元のMRI画像を生成する。なお、本実施形態においては、MRI画像は、拡散強調画像Bm1およびFLAIR画像Bm2の2種類の画像が生成されるものとする。また、本実施形態においては、CT画像Bc0は、造影剤を使用しないで撮影を行うことにより取得される非造影CT画像とするが、造影剤を使用して撮影を行うことにより取得した造影CT画像を用いてもよい。なお、MRI装置2BがCT装置2Aとは異なるモダリティであり、拡散強調画像Bm1およびFLAIR画像Bm2が異なるモダリティにより取得された少なくとも1つの脳画像である。なお、以降の説明において、拡散強調画像Bm1およびFLAIR画像Bm2をMRI画像Bm0で代表させる場合があるものとする。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成されたCT画像およびMRI画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
梗塞領域判別装置1は、1台のコンピュータに、本開示の学習プログラムおよび梗塞領域判別プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションまたはパーソナルコンピュータでもよく、それらとネットワークを介して接続されたサーバコンピュータでもよい。学習プログラムおよび梗塞領域判別プログラムは、DVD(Digital Versatile Disc)あるいはCD−ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。
図2は、コンピュータに学習プログラムおよび梗塞領域判別プログラムをインストールすることにより実現される、本実施形態による梗塞領域判別装置の概略構成を示す図である。図2に示すように、梗塞領域判別装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12およびストレージ13を備えている。また、梗塞領域判別装置1には、液晶ディスプレイ等の表示部14、並びにキーボードおよびマウス等の入力部15が接続されている。
ストレージ13には、ハードディスクドライブ等からなり、ネットワーク4を経由して画像保管サーバ3から取得した、被検体の医用画像、並びに処理に必要な情報を含む各種情報が記憶されている。
また、メモリ12には、学習プログラムおよび梗塞領域判別プログラムが記憶されている。学習プログラムは、CPU11に実行させる処理として、脳梗塞を発症している被検体の脳のCT画像Bc0、拡散強調画像Bm1およびFLAIR画像Bm2を取得する画像取得処理、少なくとも拡散強調画像Bm1およびFLAIR画像Bm2に基づいて、拡散強調画像Bm1およびFLAIR画像Bm2から発症からの経過時間に応じた梗塞領域を抽出する梗塞領域抽出処理、CT画像Bc0と拡散強調画像Bm1およびFLAIR画像Bm2の少なくとも一方との位置合わせを行う位置合わせ処理、位置合わせの結果に基づいて、CT画像Bc0における梗塞領域を発症からの経過時間に応じて特定する梗塞領域特定処理、CT画像Bc0において特定された、発症からの経過時間に応じた梗塞領域を教師データとして、入力されたCT画像Bc1における発症からの経過時間に応じた梗塞領域を判別する判別器の学習を行う学習処理を規定する。また、梗塞領域判別プログラムは、CPU11に実行させる処理として、判別対象のCT画像Bc1を取得する画像取得処理、判別対象のCT画像Bc1における梗塞領域を発症からの経過時間に応じて判別する判別処理、および判別結果を表示部14に表示する表示制御処理を規定する。
そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、画像取得部21、梗塞領域抽出部22、位置合わせ部23、梗塞領域特定部24、学習部25、判別器26および表示制御部27として機能する。ここで、画像取得部21、梗塞領域抽出部22、位置合わせ部23、梗塞領域特定部24および学習部25が、本実施形態の判別器の学習装置を構成する。また、判別器26および表示制御部27が、本実施形態の梗塞領域判別装置を構成する。
画像取得部21は、判別器26の学習のために、脳梗塞を発症している被検体の脳のCT画像Bc0、拡散強調画像Bm1およびFLAIR画像Bm2を画像保管サーバ3から取得する。また、発症からの経過時間に応じた梗塞領域の判別のために、梗塞領域の判別対象のCT画像Bc1を画像保管サーバ3から取得する。なお、CT画像Bc0、CT画像Bc1、拡散強調画像Bm1およびFLAIR画像Bm2が既にストレージ13に記憶されている場合には、画像取得部21は、ストレージ13からCT画像Bc0、CT画像Bc1、拡散強調画像Bm1およびFLAIR画像Bm2を取得するようにしてもよい。また、画像取得部21は、後述する判別器26の学習のために、多数の被検体についてのCT画像Bc0、拡散強調画像Bm1およびFLAIR画像Bm2を取得する。
ここで、梗塞領域の発症からの経過時間について説明する。脳梗塞の病期は、発症後24時間以内の超急性期、発症後1〜7日の急性期、発症後1〜4週間の亜急性期、それ以降の慢性期(陳旧性)がある。本実施形態においては、亜急性期と慢性期とをまとめて亜急性期等とし、発症からの経過時間として、超急性期、急性期および亜急性期等を判別するものとする。
梗塞領域抽出部22は、少なくとも拡散強調画像Bm1およびFLAIR画像Bm2から脳の梗塞領域を抽出する。なお、本実施形態においては、CT画像Bc0をも用いて梗塞領域を抽出する。図3は拡散強調画像Bm1およびFLAIR画像Bm2の例を示す図である。なお、拡散強調画像Bm1およびFLAIR画像Bm2は3次元画像であるが、ここでは説明のため、拡散強調画像Bm1およびFLAIR画像Bm2の1つの断層面における2次元の断層画像を用いて説明する。なお、図3に示すように、拡散強調画像Bm1は、頭蓋骨が消去された脳実質のみを含む画像となる。一方、FLAIR画像Bm2は頭蓋骨も含んでいる。また、図3に示す拡散強調画像Bm1は超急性期および急性期の梗塞領域を含み、FLAIR画像Bm2は急性期の梗塞領域を含むものとする。図3に示すように、拡散強調画像Bm1においては、超急性期および急性期の梗塞領域は他の領域と比較して高い信号値(低い濃度)を有するものとなる。また、FLAIR画像Bm2においては、急性期の梗塞領域は他の領域と比較して高い信号値(低い濃度)を有するものとなる。
なお、図3には現れていないが、FLAIR画像Bm2においては、超急性期の梗塞領域は他の領域と同程度か低い信号値(高い濃度)を有するものとなる。また、拡散強調画像Bm1においては、亜急性期等の梗塞領域は他の領域と同程度か低い信号値(高い濃度)を有するものとなる。また、CT画像Bc0においては、亜急性期等の梗塞領域は他の領域よりも明らかに低い信号値(高い濃度)を有するものとなる。
図4は、CT画像、拡散強調画像およびFLAIR画像の信号値と梗塞領域の発症からの経過時間との関係を示す図である。梗塞領域抽出部22は、CT画像Bc0、拡散強調画像Bm1およびFLAIR画像Bm2の信号値に基づいて、図4に示す関係を参照して、発症からの経過時間に応じた梗塞領域を抽出する。すなわち、梗塞領域抽出部22は、拡散強調画像Bm1において高信号かつFLAIR画像Bm2において等信号となる領域を、拡散強調画像Bm1およびFLAIR画像Bm2の少なくとも一方から超急性期の梗塞領域として抽出する。また、梗塞領域抽出部22は、拡散強調画像Bm1において高信号かつFLAIR画像Bm2において高信号となる領域を、拡散強調画像Bm1およびFLAIR画像Bm2の少なくとも一方から急性期の梗塞領域として抽出する。また、梗塞領域抽出部22は、拡散強調画像Bm1において低信号かつCT画像Bc0において低信号となる領域を、拡散強調画像Bm1から亜急性期等の梗塞領域として抽出する。なお、図4に示す関係はストレージ13に保存しておけばよい。
なお、梗塞領域抽出部22は、拡散強調画像Bm1およびFLAIR画像Bm2の少なくとも一方から発症からの経過時間に応じた梗塞領域を抽出するように学習がなされた判別器を用いて、発症からの経過時間に応じた梗塞領域を抽出するようにしてもよい。これにより、図3に示す梗塞領域A1および梗塞領域A2の少なくとも一方が抽出される。
位置合わせ部23は、CT画像Bc0と拡散強調画像Bm1およびFLAIR画像Bm2の少なくとも一方との位置合わせを行う。図5は、CT画像Bc0と拡散強調画像Bm1との位置合わせを説明するための図である。なお、CT画像Bc0および拡散強調画像Bm1はともに3次元画像であるが、ここでは説明のため、CT画像Bc0および拡散強調画像Bm1の対応する1つの断層面における2次元の断層画像を用いて説明する。図5に示すように、同一被検体においては、脳の形状は略同一となる。一方、拡散強調画像Bm1においては、超急性期および急性期の梗塞領域が他の領域と比較して高い信号値(低い濃度)を有するものとなる。これに対して、CT画像Bc0においては、超急性期および急性期の梗塞領域と他の領域とは信号値の差異が拡散強調画像Bm1ほど大きくない。なお、CT画像Bc0は、拡散強調画像Bm1とは異なり、頭蓋骨および脳実質を含んでいる。このため、位置合わせ部23は、CT画像Bc0から脳実質の領域を脳領域として抽出し、抽出した脳領域と拡散強調画像Bm1との位置合わせを行う。
本実施形態において、位置合わせ部23は、非剛体位置合わせにより、CT画像Bc0および拡散強調画像Bm1のいずれか一方を他方に対して位置合わせする。本実施形態においては、CT画像Bc0を拡散強調画像Bm1に対して位置合わせしているが、拡散強調画像Bm1をCT画像Bc0に対して位置合わせしてもよい。
なお、非剛体位置合わせとしては、例えばBスプラインおよびシンプレートスプライン等の関数を用いて、CT画像Bc0における特徴点をMRI画像Bm0における特徴点に対応する対応点に非線形に変換することによる手法を用いることができるが、これに限定されるものではない。
なお、FLAIR画像Bm2を用いる場合、位置合わせ部23は、拡散強調画像Bm1の場合と同様に、CT画像Bc0とFLAIR画像Bm2との位置合せを行う。
梗塞領域特定部24は、位置合わせ部23による位置合わせの結果に基づいて、CT画像Bc0における発症からの経過時間に応じた梗塞領域を特定する。図6はCT画像Bc0における発症からの経過時間に応じた梗塞領域の特定を説明するための図である。図6に示すように、梗塞領域特定部24は、MRI画像Bm0において抽出した梗塞領域A1またはFLAIR画像Bm2において抽出した梗塞領域A2に対応するCT画像Bc0のボクセルの領域を梗塞領域A3に特定する。なお、特定した梗塞領域A3には、発症からの経過時間に応じたラベルが付与される。図6においては、「急性期」のラベルが付与された状態を示している。
学習部25は、CT画像Bc0において特定された、発症からの経過時間に応じた梗塞領域を教師データとして、入力されたCT画像における発症からの経過時間に応じた梗塞領域を判別する判別器26の学習を行う。本実施形態においては、判別器26は、判別対象となるCT画像Bc1が入力されると、CT画像Bc1における発症からの経過時間に応じた梗塞領域を判別する。具体的には、判別器26は、判別対象となるCT画像Bc1の各ボクセルを、梗塞領域であるか梗塞領域以外の領域であるか、さらには梗塞領域の場合は発症からの経過時間に応じた1以上の梗塞領域のいずれであるかを判別する。発症からの経過時間に応じた1以上の梗塞領域のいずれであるか判別するとは、梗塞領域が、超急性期、急性期および亜急性期等のいずれであるかを判別することを意味する。このため、学習部25は、複数の被検体のCT画像Bc0において特定した梗塞領域A3から、あらかじめ定められたサイズ(例えば3×3等)の領域内の特徴量を取得し、取得した特徴量を判別器26に入力し、発症からの経過時間に応じた梗塞領域の判別結果を出力するように、判別器26の学習、すなわち機械学習を行う。
このように学習が行われることにより、CT画像Bc1が入力されると、CT画像Bc1のボクセルを、発症からの経過時間に応じた1以上の梗塞領域と梗塞領域外の領域とに分類して、判別対象のCT画像Bc1における発症からの経過時間に応じた梗塞領域を判別する判別器26が生成される。
表示制御部27は、判別対象となるCT画像Bc1の判別器26による判別結果を表示部14に表示する。図7は判別結果の表示の例を示す図である。なお、図7においては、判別対象となるCT画像Bc1の1つの断面における断層画像を示している。図7に示すように、表示部14に表示された判別結果においては、判別対象のCT画像Bc1において、梗塞領域A4が特定されている。また、梗塞領域A4の発症からの経過時間である「急性期」のラベルL0が表示されている。
なお、機械学習の手法としては、サポートベクタマシン(SVM(Support Vector Machine))、ディープニューラルネットワーク(DNN(Deep Neural Network))、畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))、およびリカレントニューラルネットワーク(RNN(Recurrent Neural Network))等を用いることができる。
次いで、本実施形態において行われる処理について説明する。図8は本実施形態において学習時に行われる処理を示すフローチャートである。まず、画像取得部21が、脳梗塞を発症している被検体の脳のCT画像Bc0およびMRI画像Bm0(すなわち拡散強調画像Bm1およびFLAIR画像Bm2)を取得し(ステップST1)、梗塞領域抽出部22が、拡散強調画像Bm1およびFLAIR画像Bm2から発症からの経過時間に応じた梗塞領域A1,A2をそれぞれ抽出する(ステップST2)。次いで、位置合わせ部23が、CT画像Bc0と拡散強調画像Bm1およびFLAIR画像Bm2の少なくとも一方との位置合わせを行い(ステップST3)、梗塞領域特定部24が、位置合わせの結果に基づいて、CT画像Bc0における発症からの経過時間に応じた梗塞領域A3を特定する(ステップST4)。そして、学習部25が、CT画像Bc0において特定された、発症からの経過時間に応じた梗塞領域を教師データとして、入力されたCT画像Bc1における梗塞領域を判別する判別器26を学習し(ステップST6)、処理を終了する。
図9は本実施形態において発症からの経過時間に応じた梗塞領域の判別時に行われる処理を示すフローチャートである。まず、画像取得部21が、判別対象となるCT画像Bc1を取得し(ステップST11)、判別器26が判別対象のCT画像における、発症からの経過時間に応じた梗塞領域を判別する(ステップST12)。そして、表示制御部27が、判別結果を表示部14に表示し(ステップST13)、処理を終了する。
このように、本実施形態においては、脳梗塞を発症している被検体の脳のCT画像Bc0、拡散強調画像Bm1およびFLAIR画像Bm2を取得し、拡散強調画像Bm1およびFLAIR画像Bm2から発症からの経過時間に応じた梗塞領域を抽出し、CT画像Bc0と拡散強調画像Bm1およびFLAIR画像Bm2の少なくとも一方との位置合わせを行う。そして、位置合わせの結果に基づいて、CT画像Bc0における発症からの経過時間に応じた梗塞領域A3を特定し、特定された梗塞領域A1を教師データとして、入力されたCT画像Bc1における、発症からの経過時間に応じた梗塞領域を判別する判別器26の学習を行うようにした。
ここで、CT画像においては、出血領域が他の領域とは大きく異なる信号値を有するため、CT画像において出血領域を特定することは容易である。しかしながら、CT画像においては、梗塞領域は他の領域と異なる信号値を有するものの、その差は出血領域と他の領域との差よりも小さい。一方、MRI画像においては、梗塞領域が他の領域とは大きく異なる信号値を有する。特に、拡散強調画像Bm1およびFLAIR画像Bm2においては、発症からの経過時間に応じて信号値が異なるため、拡散強調画像Bm1およびFLAIR画像Bm2、さらにはCT画像Bc0をも用いることにより、梗塞領域の発症からの経過時間を特定することができる。このため、脳梗塞を発症している被検体の脳の拡散強調画像Bm1およびFLAIR画像Bm2の少なくとも一方とCT画像Bc0とを位置合わせすれば、拡散強調画像Bm1およびFLAIR画像Bm2における梗塞領域A1,A2に基づいて、CT画像Bc0における発症からの経過時間に応じた梗塞領域A3を特定することができる。したがって、特定された発症からの経過時間に応じた梗塞領域A3を教師データとして判別器26の学習を行うことにより、学習された判別器26によって、判別対象となるCT画像Bc1における、発症からの経過時間に応じた梗塞領域を判別できることとなる。これにより、CT画像のみを用いて、脳の出血領域のみならず、発症からの経過時間に応じた梗塞領域を判別することができる。よって、本実施形態によれば、CT画像のみを用いて、発症からの経過時間に応じた脳梗塞の診断を迅速に行うことができる。
なお、上記実施形態においては、MRI画像Bm0として拡散強調画像Bm1およびFLAIR画像Bm2を用いているが、拡散強調画像Bm1およびFLAIR画像Bm2以外のMRI画像を用いてもよい。例えば、T1強調画像およびT2強調画像等を用いてもよい。また、拡散強調画像Bm1、FLAIR画像Bm2、T1強調画像およびT2強調画像等から選択された1以上の画像を用いてもよい。これらのMRI画像の組み合わせにより、亜急性期の梗塞領域と慢性期の梗塞領域とを特定することも可能となる。具体的には、拡散強調画像Bm1において等〜低信号であり、T2強調画像において高信号の場合、亜急性期の梗塞領域であると特定することができる。また、拡散強調画像Bm1において低信号であり、T2強調画像において高信号の場合、慢性期の梗塞領域であると特定することができる。したがって、さらにこのような関係を用いて判別器26の学習を行うことにより、超急性期、急性期、亜急性期および慢性期の梗塞領域を判別することが可能となる。
また、上記実施形態においては、梗塞領域の発症からの経過時間を特定するためにCT画像Bc0を用いているが、MRI画像のみを用いてもよい。
また、上記実施形態においては、判別器26の学習に用いるCT画像Bc0として、非造影CT画像または造影CT画像を用いているが、造影CT画像および非造影CT画像の双方を判別器26の学習に用いるようにしてもよい。このように学習された判別器26を用いることにより、判別対象のCT画像が造影CT画像および非造影CT画像のいずれであっても、梗塞領域を判別できることとなる。
また、上記実施形態においては、梗塞領域判別装置1が学習装置を内包しているが、これに限定されるものではない。すなわち、診断支援システムにおいて、梗塞領域判別装置1とは別個に、画像取得部21、梗塞領域抽出部22、位置合わせ部23、梗塞領域特定部24、および学習部25を備え、判別器26の学習を行う学習装置を備えるようにしてもよい。この場合、梗塞領域判別装置1は、画像取得部21、判別器26および表示制御部27のみを備えるものとなる。
また、上記実施形態において、例えば、画像取得部21、梗塞領域抽出部22、位置合わせ部23、梗塞領域特定部24、学習部25、判別器26および表示制御部27といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
1 梗塞領域判別装置
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 ディスプレイ
15 入力部
21 画像取得部
22 梗塞領域抽出部
23 位置合わせ部
24 梗塞領域特定部
25 学習部
26 判別器
27 表示制御部
A1,A2,A3 梗塞領域
Bc0 CT画像
Bc1 判別対象のCT画像
Bm1 拡散強調画像
Bm2 FLAIR画像

Claims (10)

  1. 脳梗塞を発症している被検体の脳のCT画像および該CT画像を取得するCT装置とは異なるモダリティにより取得された、前記被検体の少なくとも1つの脳画像を取得する画像取得部と、
    少なくとも前記脳画像に基づいて、前記脳画像から、発症からの経過時間に応じた梗塞領域を抽出する梗塞領域抽出部と、
    前記CT画像と前記脳画像との位置合わせを行う位置合わせ部と、
    前記位置合わせの結果に基づいて、前記CT画像における発症からの経過時間に応じた前記梗塞領域を特定する梗塞領域特定部と、
    前記CT画像において特定された、発症からの経過時間に応じた梗塞領域を教師データとして、入力されたCT画像における発症からの経過時間に応じた梗塞領域を判別する判別器の学習を行う学習部とを備えた判別器の学習装置。
  2. 前記脳画像はMRI画像である請求項1に記載の学習装置。
  3. 前記MRI画像は拡散強調画像、FLAIR画像およびT2強調画像の少なくとも1つである請求項2に記載の判別器の学習装置。
  4. 請求項1から3のいずれか1項に記載の判別器の学習装置により学習がなされた判別器。
  5. 判別対象のCT画像を取得する画像取得部と、
    前記判別対象のCT画像における梗塞領域を発症からの経過時間に応じて判別する、請求項4に記載の判別器とを備えた梗塞領域判別装置。
  6. 前記判別器による前記梗塞領域の判別結果を表示部に表示する表示制御部をさらに備えた請求項5に記載の梗塞領域判別装置。
  7. 脳梗塞を発症している被検体の脳のCT画像および該CT画像を取得するCT装置とは異なるモダリティにより取得された、前記被検体の少なくとも1つの脳画像を取得し、
    少なくとも前記脳画像に基づいて、前記脳画像から、発症からの経過時間に応じた梗塞領域を抽出し、
    前記CT画像と前記脳画像との位置合わせを行い、
    前記位置合わせの結果に基づいて、前記CT画像における発症からの経過時間に応じた前記梗塞領域を特定し、
    前記CT画像において特定された、発症からの経過時間に応じた梗塞領域を教師データとして、入力されたCT画像における発症からの経過時間に応じた梗塞領域を判別する判別器の学習を行う判別器の学習方法。
  8. 判別対象のCT画像を取得し、
    請求項4に記載の判別器により、前記判別対象のCT画像における梗塞領域を発症からの経過時間に応じて判別する梗塞領域判別方法。
  9. 脳梗塞を発症している被検体の脳のCT画像および該CT画像を取得するCT装置とは異なるモダリティにより取得された、前記被検体の少なくとも1つの脳画像を取得する手順と、
    少なくとも前記脳画像に基づいて、前記脳画像から、発症からの経過時間に応じた梗塞領域を抽出する手順と、
    前記CT画像と前記脳画像との位置合わせを行う手順と、
    前記位置合わせの結果に基づいて、前記CT画像における発症からの経過時間に応じた前記梗塞領域を特定する手順と、
    前記CT画像において特定された、発症からの経過時間に応じた梗塞領域を教師データとして、入力されたCT画像における発症からの経過時間に応じた梗塞領域を判別する判別器の学習を行う手順とをコンピュータに実行させる判別器の学習プログラム。
  10. 判別対象のCT画像を取得する手順と、
    請求項4に記載の判別器により、前記判別対象のCT画像における梗塞領域を発症からの経過時間に応じて判別する手順とをコンピュータに実行させる梗塞領域判別プログラム。
JP2018162861A 2018-08-31 2018-08-31 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム Abandoned JP2020032045A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018162861A JP2020032045A (ja) 2018-08-31 2018-08-31 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム
US16/536,242 US11049251B2 (en) 2018-08-31 2019-08-08 Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018162861A JP2020032045A (ja) 2018-08-31 2018-08-31 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020032045A true JP2020032045A (ja) 2020-03-05
JP2020032045A5 JP2020032045A5 (ja) 2020-09-24

Family

ID=69641593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018162861A Abandoned JP2020032045A (ja) 2018-08-31 2018-08-31 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US11049251B2 (ja)
JP (1) JP2020032045A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020032045A (ja) * 2018-08-31 2020-03-05 富士フイルム株式会社 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム
US10984530B1 (en) * 2019-12-11 2021-04-20 Ping An Technology (Shenzhen) Co., Ltd. Enhanced medical images processing method and computing device
CN111951265B (zh) * 2020-08-31 2023-12-01 杭州脉流科技有限公司 基于脑ct影像的脑梗评分方法、装置、计算机设备和存储介质
JP7250382B1 (ja) 2021-12-09 2023-04-03 株式会社E.P.Medical 血管内デバイスを用いたてんかん診断用のシステム、血管内デバイスを用いたてんかん診断用の情報処理方法、および、血管内デバイスを用いたてんかん診断用のコンピュータプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017048856A1 (en) * 2015-09-14 2017-03-23 Rensselaer Polytechnic Institute Simultaneous ct-mri image reconstruction
JP2018011958A (ja) * 2016-07-21 2018-01-25 東芝メディカルシステムズ株式会社 医用画像処理装置及び医用画像処理プログラム
WO2019216125A1 (ja) * 2018-05-09 2019-11-14 富士フイルム株式会社 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110082371A1 (en) 2008-06-03 2011-04-07 Tomoaki Chono Medical image processing device and medical image processing method
JP2014513622A (ja) 2011-03-29 2014-06-05 ボストン サイエンティフィック ニューロモデュレイション コーポレイション 治療刺激提供システムのための通信インタフェース
US10395762B1 (en) * 2011-06-14 2019-08-27 Merge Healthcare Solutions Inc. Customized presentation of data
JP5989354B2 (ja) 2012-02-14 2016-09-07 東芝メディカルシステムズ株式会社 画像診断支援装置及び画像診断支援装置の作動方法
CA2969140A1 (en) * 2014-12-01 2016-06-09 Quikflo Technologies Inc. Decision support tool for stroke patients
US10489905B2 (en) * 2017-07-21 2019-11-26 Canon Medical Systems Corporation Method and apparatus for presentation of medical images
JP2020032045A (ja) * 2018-08-31 2020-03-05 富士フイルム株式会社 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム
US20200359981A1 (en) * 2019-05-03 2020-11-19 Ischemaview, Inc. Analysis of intracranial blood vessels

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017048856A1 (en) * 2015-09-14 2017-03-23 Rensselaer Polytechnic Institute Simultaneous ct-mri image reconstruction
JP2018011958A (ja) * 2016-07-21 2018-01-25 東芝メディカルシステムズ株式会社 医用画像処理装置及び医用画像処理プログラム
WO2019216125A1 (ja) * 2018-05-09 2019-11-14 富士フイルム株式会社 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JARI O.KARONEN ET AL.: ""Combined Diffusion and Perfusion MRI With Correlation to Single-Photon Emissiono CT in Acute Ishemi", STROKE, vol. 1999:30, JPN6021031104, 1 August 1999 (1999-08-01), pages 1583 - 1590, ISSN: 0004571110 *
POMAN PETER ET AL.: ""A Quantitative Symmetry-based Analysis of Hyperacute Ischemic Stroke Lesions in Non-Contrast Comput", MEDICAL PHYSICS, vol. 44, no. 1, JPN6021031103, January 2017 (2017-01-01), pages 192 - 199, ISSN: 0004721188 *
後藤 政実: ""脳梗塞の急性期・亜急性期におけるMR検査(ワークショップ-よりよい撮像技術をもとめて(その81)-「拡散強", 放射線撮影分科会誌, vol. 46巻, JPN6022008069, 2006, pages 43 - 46, ISSN: 0004721191 *
日本医学放射線学会 編: "1.脳神経 CQ4「急性期脳梗塞患者に対する再灌流療法の適応決定に有用な画像検査は何か?」", "画像診断ガイドライン 2016年版", JPN6022008070, 15 September 2016 (2016-09-15), pages 70 - 73, ISSN: 0004721189 *
豊田 一則: ""第11回リラックスカンファレンス 急性期脳梗塞治療:最近の話題"", [オンライン], vol. [検索日:令和4年2月22日], JPN6022008068, 30 August 2017 (2017-08-30), ISSN: 0004721190 *
長島 宏幸 他5名: ""脳CT画像における急性期脳梗塞のコンピュータによる検出"", MEDICAL IMAGING TECHNOLOGY, vol. 27, no. 1, JPN6021031102, January 2009 (2009-01-01), pages 30 - 38, ISSN: 0004721187 *

Also Published As

Publication number Publication date
US11049251B2 (en) 2021-06-29
US20200074633A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP7129869B2 (ja) 疾患領域抽出装置、方法及びプログラム
US11049251B2 (en) Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region
JP7018856B2 (ja) 医用画像処理装置、方法およびプログラム
US20200104996A1 (en) Apparatus, method, and program for training discriminator discriminating disease region, discriminator discriminating disease region, disease region discrimination apparatus, and disease region discrimination program
WO2019216125A1 (ja) 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム
JP6981940B2 (ja) 画像診断支援装置、方法及びプログラム
JP6945493B2 (ja) 医用画像処理装置、方法およびプログラム
WO2020054188A1 (ja) 医用画像処理装置、方法およびプログラム
US11551351B2 (en) Priority judgement device, method, and program
JP2019180545A (ja) 予測装置、予測方法、及び予測プログラム
WO2019102917A1 (ja) 読影医決定装置、方法およびプログラム
JP6968195B2 (ja) 検査情報表示装置、方法およびプログラム
JP2019213785A (ja) 医用画像処理装置、方法およびプログラム
WO2019208130A1 (ja) 医療文書作成支援装置、方法およびプログラム、学習済みモデル、並びに学習装置、方法およびプログラム
US11176413B2 (en) Apparatus, method, and program for training discriminator discriminating disease region, discriminator discriminating disease region, disease region discrimination apparatus, and disease region discrimination program
US11328414B2 (en) Priority judgement device, method, and program
WO2019150717A1 (ja) 葉間膜表示装置、方法およびプログラム
US20240037738A1 (en) Image processing apparatus, image processing method, and image processing program
JP7376715B2 (ja) 経過予測装置、経過予測装置の作動方法および経過予測プログラム
WO2020262681A1 (ja) 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器
US20230121783A1 (en) Medical image processing apparatus, method, and program
JP6765396B2 (ja) 医用画像処理装置、方法およびプログラム
WO2020241857A1 (ja) 医療文書作成装置、方法およびプログラム、学習装置、方法およびプログラム、並びに学習済みモデル
JP2023091190A (ja) 医療画像診断支援装置、医療画像診断支援方法及びプログラム
JP2021175454A (ja) 医用画像処理装置、方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20220428