JP2022529094A - 画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体 - Google Patents

画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP2022529094A
JP2022529094A JP2021538462A JP2021538462A JP2022529094A JP 2022529094 A JP2022529094 A JP 2022529094A JP 2021538462 A JP2021538462 A JP 2021538462A JP 2021538462 A JP2021538462 A JP 2021538462A JP 2022529094 A JP2022529094 A JP 2022529094A
Authority
JP
Japan
Prior art keywords
cerebral
point
region
prediction point
vein
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021538462A
Other languages
English (en)
Inventor
宋涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Intelligent Technology Co Ltd
Publication of JP2022529094A publication Critical patent/JP2022529094A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/507Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for determination of haemodynamic parameters, e.g. perfusion CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本願の実施例は、画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体を提供する。前記方法は、第1セグメンテーションされるべき脳画像を取得することと、深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得ることと、前記前大脳動脈予測点及び前記脳静脈予測点を利用して前記脳画像に対応する灌流パラメータマップを算出することと、前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を算出することと、を含む。

Description

(関連出願の相互参照)
本願は、2020年03月18日に提出された、出願番号が202010192934.5である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願の実施例は、医用画像技術分野に関し、特に画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体に関する。
脳コンピュータ断層撮影(CT:Computed Tomography)灌流イメージングは、脳内の血行動態を分析するためのイメージング技術であり、虚血性脳卒中に広く用いられる。CT灌流イメージングは、ヨウ化造影剤を静脈内にボーラス注射する時に脳組織密度の動的変化を観察することで、異なる数学モデルに基づいて、局所的脳血液量、局所的脳血流量、平均通過時間及びピーク到達時間を算出することである。一般的には、ピーク到達時間が6秒(s:second)より大きいものを低灌流領域とし、病巣側の局所的脳血流量が正常側の局所的脳血流量よりも30%小さいものを脳梗塞コア領域とし、低灌流領域における脳梗塞コア領域以外の余剰領域を虚血性ペナンブラとする。脳梗塞コア領域と虚血性ペナンブラ領域のセグメンテーションは、治療計画の策定にとって極めて重要である。
数学モデルに基づいた従来の脳梗塞コア領域と虚血性ペナンブラ領域のセグメンテーション方法に、位置決めが不正確であり、検出結果が不正確であるなどの欠点がある。
本願の実施例は、画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体を提供する。
本願の実施例は、画像セグメンテーション方法を提供する。前記方法は、第1セグメンテーションされるべき脳画像を取得することと、深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得ることと、前記前大脳動脈予測点及び前記脳静脈予測点を利用して前記脳画像に対応する灌流パラメータマップを決定することと、前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を決定することと、を含む。
ここで、深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得る前に、前記方法は、脳サンプル画像を取得することであって、前記脳サンプル画像は、前脳動脈点及び脳静脈点に対して初期アノテーションを行った画像である、ことと、脳サンプル画像を利用して初期深層学習位置決めネットワークに対して訓練を行い、前記深層学習位置決めネットワークを得ることと、を更に含む。
ここで、深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得ることは、深層学習位置決めネットワークにより、前記脳画像に対して位置決めを行い、前大脳動脈候補点及び脳静脈候補点を得ることと、局所探索アルゴリズムを利用して、前記前大脳動脈候補点に対応する前大脳動脈予測点及び前記脳静脈候補点に対応する脳静脈予測点を決定することと、を含む。
ここで、局所探索アルゴリズムを利用して、前記前大脳動脈候補点に対応する前大脳動脈予測点及び前記脳静脈候補点に対応する脳静脈予測点を決定することは、前記前大脳動脈候補点を円心とした所定の第1半径範囲内の領域を、前大脳動脈点候補領域として決定し、前記脳静脈候補点を円心とした所定の第2半径範囲内の領域を、脳静脈点候補領域として決定することと、前記局所探索アルゴリズムを利用して、前記前大脳動脈点候補領域から前記前大脳動脈予測点を決定し、前記脳静脈点候補領域から前記脳静脈予測点を決定することと、を含む。
前記局所探索アルゴリズムを利用して、前記前大脳動脈点候補領域から前記前大脳動脈予測点を決定し、前記脳静脈点候補領域から前記脳静脈予測点を決定することは、前記前大脳動脈点候補領域から、時間最大値に対応する複数の第1組織密度値を決定し、前記脳静脈点候補領域から、時間最大値に対応する複数の第2組織密度値を決定することと、前記複数の第1組織密度値のうち組織密度値の最大値を前記前大脳動脈予測点として決定し、前記複数の第2組織密度値のうち組織密度値の最大値を前記脳静脈予測点として決定することと、を含む。
ここで、前記灌流パラメータマップは、局所的脳血液量マップ、局所的脳血流量マップ、平均通過時間マップ及びピーク到達時間マップを含む。
ここで、前記前大脳動脈予測点及び前記脳静脈予測点を利用して前記脳画像に対応する灌流パラメータマップを決定することは、前記前大脳動脈予測点に対応する関数曲線及び前記脳静脈予測点に対応する関数曲線を取得することと、前記前大脳動脈予測点に対応する関数曲線を第1動脈入力関数と決定し、前記脳静脈予測点に対応する関数曲線を静脈出力関数と決定することと、前記静脈出力関数を利用して前記第1動脈入力関数を修正し、第2動脈入力関数を得ることと、前記第2動脈入力関数を利用して、デコンボリューションアルゴリズムで、前記局所的脳血液量マップ、前記局所的脳血流量マップ、前記平均通過時間マップ及び前記ピーク到達時間マップを決定することと、を含む。
ここで、前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を算出することは、第2セグメンテーションされるべき脳画像を取得することと、前記ピーク到達時間マップにおける所定の時間より大きい領域を低灌流領域として決定することと、前記局所的脳血液量マップ、前記局所的脳血流量マップを利用して、畳み込みニューラルネットワークアルゴリズムを使用して、前記低灌流領域から、前記第2セグメンテーションされるべき脳画像に対応する前記梗塞コア領域を取得することと、を含む。
ここで、前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を算出することは、第2セグメンテーションされるべき脳画像を取得することと、前記ピーク到達時間マップにおける所定の時間より大きい領域を低灌流領域として決定することと、前記局所的脳血液量マップ、前記局所的脳血流量マップ及び前記平均通過時間マップを利用して、畳み込みニューラルネットワークアルゴリズムを使用して、前記低灌流領域から、前記第2セグメンテーションされるべき脳画像に対応する前記梗塞コア領域を取得することと、を含む。
ここで、前記方法は、前記低灌流領域及び前記梗塞コア領域に基づいて、虚血性ペナンブラ領域を決定することを更に含み、前記梗塞コア領域と前記虚血性ペナンブラ領域の合計は、前記低灌流領域に等しい。
本願の実施例は、画像セグメンテーション装置を提供する。前記装置は、第1セグメンテーションされるべき脳画像を取得するように構成される取得モジュールと、深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得るように構成される位置決めモジュールと、前記前大脳動脈予測点及び前記脳静脈予測点を利用して脳画像に対応する灌流パラメータマップを決定するように構成される灌流パラメータマップ取得モジュールと、灌流パラメータマップを利用して前記脳灌流梗塞コア領域を決定するように構成される梗塞コア領域セグメンテーションモジュールと、を備える。
本願の実施例は、画像セグメンテーション機器を提供する。前記機器は、相互結合されるプロセッサとメモリを備え、前記メモリは、上記いずれか一項に記載の画像セグメンテーション方法を実施させるプログラム命令を記憶するように構成され、前記プロセッサは、前記メモリに記憶されている前記プログラム命令を実行するように構成される。
本願の実施例は、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体にプログラムファイルが記憶されており、前記プログラムファイルが実行されてコンピュータに上記いずれか一項に記載の画像セグメンテーション方法を実施させる。
本願の実施例で提供される画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体は、第1セグメンテーションされるべき脳画像を取得した場合、深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得る。これにより、前大脳動脈予測点及び脳静脈予測点の位置決め精度を向上させる。更に、前記前大脳動脈予測点及び前記脳静脈予測点を利用して脳画像に対応する灌流パラメータマップを決定し、灌流パラメータマップを利用して前記脳灌流梗塞コア領域を算出する。前大脳動脈予測点及び脳静脈予測点の位置決め精度を向上させるため、前大脳動脈予測点及び前記脳静脈予測点により決定された、脳画像に対応する灌流パラメータマップをより正確にし、梗塞コア領域のセグメンテーション精度及びロバスト性を向上させる。
本願の実施例によるネットワークアーキテクチャを示す概略図である。 本願の実施例によるもう1つのネットワークアーキテクチャを示す概略図である。 本願の実施例による画像セグメンテーション方法を示すフローチャートである。 本願の実施例による画像セグメンテーション方法におけるステップS22の実現フローを示す概略図である。 本願の実施例による画像セグメンテーション方法におけるステップS32の実現フローを示す概略図である。 本願の実施例による画像セグメンテーション方法におけるステップS42の実現フローを示す概略図である。 本願の実施例による画像セグメンテーション方法におけるステップS23の実現フローを示す概略図である。 本願の実施例による画像セグメンテーション方法におけるステップS24の実現フローを示す概略図である。 本願の実施例による画像セグメンテーション方法におけるステップS24のもう1つの実現フローを示す概略図である。 本願の実施例による画像セグメンテーション方法のもう1つの実現フローを示す概略図である。 本願の実施例によるまた1つの画像セグメンテーション方法を示すフローチャートである。 本願の実施例による画像セグメンテーション装置の構造を示す概略図である。 本願の実施例による画像セグメンテーション機器の構造を示す概略図である。 本願の実施例によるコンピュータ可読記憶媒体の構造を示す概略図である。
以下、本願の実施例における図面を参照しながら、本願の実施例における技術的解決手段を明瞭かつ完全に説明する。勿論、記述される実施例は、全ての実施例ではなく、ただ本願の一部の実施例である。本願における実施例に基づいて、当業者が創造的な労力なしに得られる他の実施例の全ては、本願の保護の範囲に含まれる。
本願の実施例で提供される画像セグメンテーション方法は、深層学習アルゴリズムで、前脳動脈点及び脳静脈点に対して位置決めを行うことで、脳動脈点と静脈点の位置の自動的な位置決め又は手動位置決めが不正確であるという欠点を解消し、後続の演算を保障する。また、本願の実施例で提供される画像セグメンテーション方法は、正常側と病巣側の比較に依存することなく、正常側及び病巣側がいずれも異常側である場合、比により異常を検出できないという問題を防止することができ、梗塞コア領域のセグメンテーション精度及びロバスト性を更に向上させることができる。以下、図面及び実施例を参照しながら、本願の実施例を詳しく説明する。
図1aは、本願の実施例によるネットワークアーキテクチャを示す概略図である。図1aに示すように、該ネットワークアーキテクチャに、CT装置11及びコンピュータ機器12が含まれる。ここで、CT装置11は、セグメンテーションされるべき脳画像を収集するように構成される。CT装置11とコンピュータ機器12とは、通信接続が確立されている。CT装置11は、得られたセグメンテーションされるべき脳画像をコンピュータ機器12に送信することができる。コンピュータ機器12に脳サンプル画像が記憶されており、コンピュータ機器12は、脳サンプル画像に基づいて、深層学習位置決めネットワークを訓練することができる。コンピュータ機器12は、セグメンテーションされるべき脳画像を深層学習位置決めネットワークに入力し、前大脳動脈予測点及び脳静脈予測点を得て、前記前大脳動脈予測点及び前記脳静脈予測点を利用して前記脳画像に対応する灌流パラメータマップを決定し、前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を決定する。
図1bは、本願の実施例によるもう1つのネットワークアーキテクチャを示す概略図である。図1bに示すように、該ネットワークアーキテクチャに、CT装置11、コンピュータ機器12及びサーバ13が含まれる。ここで、CT装置11は、セグメンテーションされるべき脳画像を収集するように構成される。CT装置11とコンピュータ機器12とは、通信接続が確立されている。CT装置11は、得られたセグメンテーションされるべき脳画像をコンピュータ機器12に送信することができる。サーバ13に脳サンプル画像が記憶されており、サーバ13は、脳サンプル画像に基づいて、深層学習位置決めネットワークを訓練することができる。コンピュータ機器12とサーバとは、同様に通信接続が確立されている。コンピュータ機器12は、サーバ13から深層学習位置決めネットワークを取得することができる。コンピュータ機器12は、セグメンテーションされるべき脳画像を深層学習位置決めネットワークに入力し、前大脳動脈予測点及び脳静脈予測点を得て、前記前大脳動脈予測点及び前記脳静脈予測点を利用して前記脳画像に対応する灌流パラメータマップを決定し、前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を決定する。
図1a及び図1bに示す適用シーンの概略図を参照しながら、以下、画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体の各実施例を説明する。本願の実施例において、CT装置及びコンピュータ機器12は、一体に集積されてもよいことに留意されたい。
本願の実施例は、画像セグメンテーション方法を提供する。前記方法は、画像セグメンテーション機器に適用される。前記画像セグメンテーション機器は、コンピュータ機器であってもよい。本願の実施例で提供される方法は、コンピュータプログラムにより実現してもよい。該コンピュータプログラムが実行されると、本願の実施例で提供される画像セグメンテーション方法における各ステップを完了する。幾つかの実施例において、該コンピュータプログラムは、画像セグメンテーション機器のプロセッサにより実行されてもよい。図2を参照すると、図2は、本願の実施例による画像セグメンテーション方法を示すフローチャートである。前記方法は、以下を含む。
ステップS21において、第1セグメンテーションされるべき脳画像を取得する。
一実施例において、脳画像は、脳CT画像であってもよい。脳CT画像は、CTイメージング技術により取得される。例示的に、X(X-ray)ビームにより、人体検査部位の一定の厚さの層面に対して走査を行い、探測器により、該層面を透過するX線を受信し、可視光に変換した後、光電変換器により、電気信号に変換し、更に、アナログ/デジタル変換器により、デジタル信号に変換し、コンピュータに入力して処理を行い、CT画像を得る。本願の実施例において、CT画像形成処理は以下を含む、選択された層面を複数の体積が同じである長方形に分けて、ボクセルと呼ぶ。走査で得られた情報に対して演算を行い、各ボクセルのX線減衰係数又は吸収係数を得て、X線減衰係数又は吸収係数を行列状に配列し、つまり、数値行列に配列する。本願の実施例において、数値行列は、磁気ディスク又は光ディスクに記憶されてもよい。デジタル/アナログ変換器により、数値行列における各数値を黒から白へのグレースケールが不均一である小さいブロックである画素に変換し、行列に応じて配列し、CT画像を構成する。下記各実施例における画像セグメンテーション方法はいずれも脳CT画像を例として説明する。
ステップS22において、深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得る。
幾つかの実施例において、深層学習位置決めネットワークにより、前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得る前に、訓練により、深層学習位置決めネットワークを得ることができる。訓練により深層学習位置決めネットワークを得るプロセスは、脳サンプル画像を取得し、脳サンプル画像において、前脳動脈点及び脳静脈点に対して初期アノテーションを行うことと、初期アノテーションされた脳サンプル画像を利用して初期深層学習位置決めネットワークに対して訓練を行い、深層学習位置決めネットワークを得ることと、を含む。本願の実施例において、脳サンプル画像において、前脳動脈点及び脳静脈点に対して初期アノテーションを行う場合、手動でアノテーションを行うことができる。他の実施形態において、例えば、機械認識アノテーションなどの他の方式でアノテーションを行うこともできる。
上記方式で、訓練された深層学習位置決めネットワークにより、脳画像において位置決めを行い、前大脳動脈予測点及び脳静脈予測点をそれぞれ取得する。本願の実施例において、深層学習位置決めネットワークにより、脳画像において位置決めを行う場合、収束、デコンボリューションなどにより演算を行うことができる。
図3は、本願の実施例による画像セグメンテーション方法におけるステップS22の実現フローを示す概略図である。図3に示すように、ステップS22「深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得ること」は、下記ステップにより実現してもよい。
ステップS31において、深層学習位置決めネットワークにより、前記脳画像に対して位置決めを行い、前大脳動脈候補点及び脳静脈候補点を得る。
深層学習位置決めネットワークにより、前大脳動脈予測点及び脳静脈予測点を得る前に、まず位置決めを行い、前大脳動脈候補点及び脳静脈候補点を得る必要がある。
ステップS32において、局所探索アルゴリズムを利用して、前大脳動脈候補点に対応する前大脳動脈予測点及び脳静脈候補点に対応する脳静脈予測点を決定する。
局所探索アルゴリズムは、簡単な貪欲探索アルゴリズムであり、該アルゴリズムは、その都度、現在の解の近傍解空間から最適な解を現在の解として選択し、局所的な最適解に達するまで継続する。本願の実施例は、局所探索アルゴリズムを利用して、前大脳動脈候補点から、対応する前大脳動脈予測点を取得し、脳静脈候補点から、対応する脳静脈予測点を取得することで、より正確な前大脳動脈予測点及び脳静脈予測点を得ることができる。
本願の実施例において、深層学習位置決めネットワークにより、決定された前大脳動脈候補点及び脳静脈予測点の精度及びロバスト性を向上させる。本願の実施例において、更に、局所探索アルゴリズムで、前大脳動脈候補点及び脳静脈候補点に基づいて、前大脳動脈予測点及び脳静脈予測点を決定する。
図4は、本願の実施例による画像セグメンテーション方法におけるステップS22の実現フローを示す概略図である。図4に示すように、ステップS32「局所探索アルゴリズムを利用して、前大脳動脈候補点に対応する前大脳動脈予測点及び脳静脈候補点に対応する脳静脈予測点を算出すること」は、下記ステップにより実現してもよい。
ステップS41において、前大脳動脈候補点を円心とした所定の第1半径範囲内の領域を、前大脳動脈点候補領域として決定し、脳静脈候補点を円心とした所定の第2半径範囲内の領域を、脳静脈点候補領域として決定する。
深層学習アルゴリズムにより得られた、前大脳動脈候補点を円心とした所定の第1半径範囲内の領域を前大脳動脈点候補領域とする。深層学習アルゴリズムにより得られた、脳静脈候補点を円心とした所定の第2半径範囲内の領域を脳静脈点候補領域とする。
ここで、所定の第1半径及び所定の第2半径は、1mm、2mm、2.5mm、10mm等であってもよく、所定の第1半径と所定の第2半径の値は、同じであっても異なってもよく、ここで、限定しない。
ステップS42において、局所探索アルゴリズムを利用して、前大脳動脈点候補領域から前大脳動脈予測点を決定し、脳静脈点候補領域から脳静脈予測点を決定する。
局所探索アルゴリズムを利用して、取得された前大脳動脈点候補領域から、前大脳動脈予測点を探索し、脳静脈点候補領域から、脳静脈予測点を探索する。
局所探索アルゴリズムは、簡単な貪欲探索アルゴリズムであり、該アルゴリズムは、その都度、現在の解の近傍解空間から最適な解を現在の解として選択し、局所的な最適解に達するまで継続する。本願の実施例は、局所探索アルゴリズム及び深層学習アルゴリズムにより前大脳動脈予測点及び脳静脈予測点を取得することで、決定された前大脳動脈予測点及び脳静脈予測点の精度及びロバスト性を向上させる。
図5は、本願の実施例による画像セグメンテーション方法におけるステップS42の実現フローを示す概略図である。図5に示すように、ステップS42「局所探索アルゴリズムを利用して、前大脳動脈点候補領域から前大脳動脈予測点を決定し、脳静脈点候補領域から脳静脈予測点を決定すること」は、下記ステップにより実現してもよい。
ステップS51において、前大脳動脈点候補領域から、時間最大値に対応する複数の第1組織密度値を決定し、脳静脈点候補領域から、時間最大値に対応する複数の第2組織密度値を決定する。
前大脳動脈点候補領域に複数本の曲線が含まれる。幾つかの実施例において、複数本の曲線の横座標が時間座標であり、縦座標が組織密度座標であるとすれば、複数本の曲線から、時間座標の最大値に対応する第1組織密度値をそれぞれ取得する。曲線の数は、第1組織密度値の数である。例えば、曲線が30本であると、取得された第1組織密度値の数は、30個である。
脳静脈点候補領域に複数本の曲線が含まれる。幾つかの実施例において、複数本の曲線の横座標が時間座標であり、縦座標が組織密度座標であるとすれば、複数本の曲線から、時間座標の最大値に対応する第2組織密度値をそれぞれ取得する。曲線の数は、第2組織密度値の数である。例えば、曲線が30本であると、取得された第2組織密度値の数は、30個である。
ステップS52において、複数の前記第1組織密度値のうち組織密度値の最大値を前大脳動脈予測点として決定し、複数の前記第2組織密度値のうち組織密度値の最大値を脳静脈予測点として決定する。
取得された第1組織密度値の数が30個であると、得られた30個の第1組織密度値の大きさを比較し、第1組織密度値の最大値に対応する座標を前大脳動脈予測点とする。時間最大値をTm1と表記し、第1組織密度値の最大値をHm1と表記する。この場合、前大脳動脈予測点は、位置(Tm1,Hm1)に対応する。
取得された第2組織密度値の数が30個であると、得られた30個の第2組織密度値の大きさを比較し、第2組織密度値の最大値に対応する座標を脳静脈予測点とする。時間最大値をTm2と表記し、第2組織密度値の最大値をHm2と表記する。この場合、前大脳動脈予測点は、位置(Tm2,Hm2)に対応する。
本願の実施例に示す方法は、まず、深層学習ネットワークモデルを利用して、前大脳動脈候補点及び脳静脈候補点を検出し、更に、局所探索アルゴリズムを利用して、前大脳動脈予測点及び脳静脈予測点を決定することで、決定された前大脳動脈予測点及び脳静脈予測点を、対応する複数の組織密度値の最大値にし、更に、取得された前大脳動脈予測点及び脳静脈予測点の精度及びロバスト性を向上させる。
ステップS23において、前大脳動脈予測点及び脳静脈予測点を利用して脳画像に対応する灌流パラメータマップを決定する。
前大脳動脈予測点及び脳静脈予測点を得た後に、更に、脳画像に対応する灌流パラメータマップを更に算出する。
図6は、本願の実施例による画像セグメンテーション方法におけるステップS23の実現フローを示す概略図である。図6に示すように、ステップS23「前大脳動脈予測点及び脳静脈予測点を利用して脳画像に対応する灌流パラメータマップを算出すること」は、下記ステップにより実現してもよい。
ステップS61において、前大脳動脈予測点に対応する関数曲線及び脳静脈予測点に対応する関数曲線を取得する。
脳静脈予測点及び前大脳動脈予測点を得た後、脳静脈予測点及び前大脳動脈予測点が位置する曲線をそれぞれ、脳静脈予測点に対応する関数曲線及び前大脳動脈予測点に対応する関数曲線とする。
ステップS62において、前大脳動脈予測点に対応する関数曲線を第1動脈入力関数とし、脳静脈予測点に対応する関数曲線を静脈出力関数とする。
前大脳動脈予測点に対応する関数曲線を第1動脈入力関数とし、脳静脈予測点に対応する関数曲線を静脈出力関数とする。幾つかの実施例において、静脈出力関数を第1動脈入力関数の累積とするため、静脈出力の値は、動脈入力の値より大きい。
ステップS63において、静脈出力関数を利用して第1動脈入力関数を修正し、第2動脈入力関数を得る。
ロバスト性を向上させるために、第1動脈入力関数を取得した後、静脈出力関数を利用して、第1動脈入力関数に対して収束修正を行い、第2動脈入力関数を得る。
ステップS64において、第2動脈入力関数を利用して、デコンボリューションアルゴリズムで、局所的脳血液量マップ、局所的脳血流量マップ、平均通過時間マップ及びピーク到達時間マップを決定する。
修正後に得られた第2動脈入力関数を利用して、デコンボリューション演算方法で、脳画像の灌流パラメータマップを得る。一実施例において、灌流パラメータマップは、局所的脳血液量マップ(rCBV:Regional Cerebral Blood Volume)、局所的脳血流量マップ(rCBF:renal cortical blood flow)、平均通過時間マップ(MTT)及びピーク到達時間マップ(Tmax)を含む。
本願の実施例で提供される方法は、まず、深層学習により、前大脳動脈候補点及び脳静脈候補点を検出し、更に、局所探索アルゴリズムを利用して前大脳動脈予測点及び脳静脈予測点を取得することで、取得された前大脳動脈予測点及び脳静脈予測点の精度及びロバスト性を向上させ、更に、算出された局所的脳血液量マップ、局所的脳血流量マップ、平均通過時間マップ及びピーク到達時間マップの精度を高くする。
ステップS24において、灌流パラメータマップを利用して脳灌流梗塞コア領域を決定する。
本願の実施例において、病巣側の局所的脳血流量が正常側の局所的脳血流量よりも所定の閾値だけ小さいものを脳梗塞コア領域とする。例示的に、病巣側の局所的脳血流量が正常側の局所的脳血流量よりも30%小さいものを脳梗塞コア領域とする。
図7は、本願の実施例による画像セグメンテーション方法におけるステップS24の実現フローを示す概略図である。図7に示すように、ステップS24は、下記ステップにより実現してもよい。
ステップS71において、第2セグメンテーションされるべき脳画像を取得する。
幾つかの実施例において、第2セグメンテーションされるべき脳画像は、磁気共鳴(DWI:Diffusion-Weighted Imaging)画像である。本願の実施例における第2セグメンテーションされるべき脳画像は、梗塞コア領域がアノテーションされた画像である。本願の実施例における第2セグメンテーションされるべき脳画像と第1セグメンテーションされるべき脳画像は、同一の患者の脳画像である。他の実施例において、本願の実施例における第2セグメンテーションされるべき脳画像と第1セグメンテーションされるべき脳画像は、異なる患者の脳画像であってもよい。
ステップS72において、ピーク到達時間マップにおける所定の時間より大きい領域を低灌流領域として決定する。
例示的に、所定の時間が6秒であり、ピーク到達時間マップ(Tmax)における時間が6sより大きい領域を低灌流領域として決定する。
ステップS73において、局所的脳血液量マップ、局所的脳血流量マップを利用して、畳み込みニューラルネットワークアルゴリズムを使用して、低灌流領域から、前記第2セグメンテーションされるべき脳画像に対応する梗塞コア領域を取得する。
畳み込みニューラルネットワークアルゴリズムにより、梗塞コア領域がアノテーションされた第2セグメンテーションされるべき脳画像に基づいて、局所的脳血液量マップ、局所的脳血流量マップから、梗塞コア領域を得る。重畳、歪み除去などの方式で、畳み込みニューラルネットワークアルゴリズムを利用して、梗塞コア領域を得ることができる。
本願の実施例で提供される方法は、梗塞コア領域を算出する時に用いられる灌流パラメータマップは、局所的脳血液量マップ、局所的脳血流量マップである。梗塞コア領域のセグメンテーションの正確性を更に向上させる。
図8は、本願の実施例による画像セグメンテーション方法におけるステップS24のもう1つの実現フローを示す概略図である。図8に示すように、ステップS24「灌流パラメータマップを利用して脳灌流梗塞コア領域を算出すること」は、下記ステップにより実現してもよい。
ステップS81において、第2セグメンテーションされるべき脳画像を取得する。
幾つかの実施例において、第2セグメンテーションされるべき脳画像は、DWI画像である。本願の実施例における第2セグメンテーションされるべき脳画像は、梗塞コア領域がアノテーションされた画像である。本願の実施例における第2セグメンテーションされるべき脳画像と第1セグメンテーションされるべき脳画像は、同一の患者の脳画像である。他の実施例において、本願の実施例における第2セグメンテーションされるべき脳画像と第1セグメンテーションされるべき脳画像は、異なる患者の脳画像であってもよい。
ステップS82において、ピーク到達時間マップにおける所定の時間より大きい領域を低灌流領域として決定する。
例示的に、所定の時間が6秒であり、ピーク到達時間マップにおける時間が6sより大きい領域を低灌流領域とする。
ステップS83において、前記局所的脳血液量マップ、局所的脳血流量マップ及び前記平均通過時間マップを利用して、畳み込みニューラルネットワークアルゴリズムを使用して、前記低灌流領域から、前記第2セグメンテーションされるべき脳画像に対応する前記梗塞コア領域を取得する。
畳み込みニューラルネットワークアルゴリズムにより、梗塞コア領域がアノテーションされた第2セグメンテーションされるべき脳画像に基づいて、局所的脳血液量マップ、局所的脳血流量マップ及び平均通過時間マップから、梗塞コア領域を得る。重畳、歪み除去などの方式で、畳み込みニューラルネットワークアルゴリズムを利用して、梗塞コア領域を得ることができる。
本願の実施例で提供される方法は、梗塞コア領域を算出する時に用いられる灌流パラメータマップは、局所的脳血液量マップ、局所的脳血流量マップ及び平均通過時間マップである。従って、本願の実施例で得られた梗塞コア領域の精度及びロバスト性をより高くする。
本願の実施例に記載の画像セグメンテーション方法は、深層学習により、前大脳動脈候補点及び脳静脈候補点を検出し、局所探索アルゴリズムを利用して前大脳動脈予測点及び脳静脈予測点を取得することで、取得された前大脳動脈予測点及び脳静脈予測点の精度及びロバスト性を向上させ、更に、算出された局所的脳血液量マップ、局所的脳血流量マップ、平均通過時間マップ及びピーク到達時間マップの精度をより高くする。本願の実施例に記載の方法は、梗塞コア領域をセグメンテーションする場合、正常側と病巣側の比を参考にする必要がなく、病巣側及び正常側がいずれも異常側である場合にセグメンテーション精度が低いという状況を排除し、梗塞コア領域のセグメンテーション精度及びロバスト性を更に向上させることができる。
図9は、本願の実施例による画像セグメンテーション方法のもう1つの実現フローを示す概略図である。図9に示すように、本願の実施例に示す方法において、ステップS91からステップS94は、ステップS21からステップS24と同じである。本願の実施例を図2に示す画像セグメンテーション方法と比較すると、前記方法は、以下を更に含む。
ステップS95において、低灌流領域及び梗塞コア領域に基づいて、虚血性ペナンブラ領域を決定する。
梗塞コア領域と虚血性ペナンブラ領域の合計は、低灌流領域に等しい。上記実施例により梗塞コア領域を得た後、低灌流領域における梗塞コア領域以外の余剰領域は、虚血性ペナンブラ領域である。
本願の実施例に記載の方法は、深層学習により、前大脳動脈候補点及び脳静脈候補点を検出し、局所探索アルゴリズムを利用して前大脳動脈予測点及び脳静脈予測点を取得することで、取得された前大脳動脈予測点及び脳静脈予測点の精度及びロバスト性を向上させ、更に、算出された局所的脳血液量マップ、局所的脳血流量マップ、平均通過時間マップ及びピーク到達時間マップの精度をより高くする。
本願の実施例に記載の方法は、梗塞コア領域をセグメンテーションする場合、正常側と病巣側の比を参考にする必要がなく、病巣側及び正常側がいずれも異常側である場合にセグメンテーション精度が低いという状況を排除し、梗塞コア領域のセグメンテーション精度及びロバスト性を更に向上させることができる。梗塞コア領域と虚血性ペナンブラ領域の合計は、低灌流領域に等しいため、梗塞コア領域のセグメンテーション精度及びロバスト性がより高いことを前提として、本願の実施例の方法は、虚血性ペナンブラ領域のセグメンテーション精度及びロバスト性を更に向上させる。
上述した各実施例を基に、本願の実施例は、また1つの画像セグメンテーション方法を提供する。図10は、本願の実施例によるまた1つの画像セグメンテーション方法を示すフローチャートである。図10に示すように、前記方法は、以下を含む。
ステップS101において、前脳動脈点及び脳静脈点を位置決めする。
まず、深層学習位置決めネットワークにより、前脳動脈点及び脳静脈点という2つの候補点を位置決めし、更に、局所探索アルゴリズムにより、正確な前脳動脈点及び脳静脈点を決定し、更に動脈入力関数AIF及び静脈出力関数VOF(Volume Fluent)を決定する。
ステップS102において、灌流算出を行う。
AIFを利用して、デコンボリューションSVDアルゴリズムにより、4つの灌流パラメータマップrCBV、rCBF、MTT及びTmaxを算出する。
ステップS103において、虚血性ペナンブラ領域と梗塞コア領域をセグメンテーションする。
最後に、Tmaxが6sより大きいものを低灌流領域とし、4つのパラメータマップを入力として、梗塞コア領域をセグメンテーションし、両者のミスマッチ(mismatch)を虚血性ペナンブラのセグメンテーション結果とする。
本願の実施例で提供される方法は、深層学習位置決めネットワーク及び局所探索アルゴリズムにより、前脳動脈点及び脳静脈点を自動的に検出することで、取得された前脳動脈点及び脳静脈点のアルゴリズム精度及びロバスト性を向上させる。深層学習により、梗塞コアをセグメンテーションすることで、その精度及びロバスト性を向上させる。また、脳の両側にいずれも梗塞コア領域が存在するという特殊の状況を解決することができる。
図11は、本願の実施例による画像セグメンテーション装置の構造を示す概略図である。図11に示すように、前記画像セグメンテーション装置は、取得モジュール111と、位置決めモジュール112と、灌流パラメータマップ取得モジュール113と、梗塞コア領域セグメンテーションモジュール114と、を備える。
ここで、取得モジュール111は、第1セグメンテーションされるべき脳画像を取得するように構成され、位置決めモジュール112は、深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得るように構成される。灌流パラメータマップ取得モジュール113は、前記前大脳動脈予測点及び前記脳静脈予測点を利用して前記脳画像に対応する灌流パラメータマップを算出するように構成される。梗塞コア領域セグメンテーションモジュール114は、灌流パラメータマップを利用して脳灌流梗塞コア領域を算出するように構成される。
幾つかの実施例において、取得モジュール111は更に、
脳サンプル画像を取得することであって、前記脳サンプル画像は、前脳動脈点及び脳静脈点に対して初期アノテーションを行った画像である、ことと、
前記脳サンプル画像を利用して初期深層学習位置決めネットワークに対して訓練を行い、前記深層学習位置決めネットワークを得ることと、を実行するように構成される。
幾つかの実施例において、位置決めモジュール112は更に、
前記深層学習位置決めネットワークにより、前記脳画像に対して位置決めを行い、前大脳動脈候補点及び脳静脈候補点を得て、
局所探索アルゴリズムを利用して、前記前大脳動脈候補点に対応する前大脳動脈予測点及び前記脳静脈候補点に対応する脳静脈予測点を決定するように構成される。
幾つかの実施例において、位置決めモジュール112は更に、以下のように構成される。
局所探索アルゴリズムを利用して、前記前大脳動脈候補点に対応する前大脳動脈予測点及び前記脳静脈候補点に対応する脳静脈予測点を決定することは、
前記前大脳動脈候補点を円心とした所定の第1半径範囲内の領域を、前大脳動脈点候補領域として決定し、前記脳静脈候補点を円心とした所定の第2半径範囲内の領域を、脳静脈点候補領域として決定することと、
前記局所探索アルゴリズムを利用して、前記前大脳動脈点候補領域から前記前大脳動脈予測点を決定し、前記脳静脈点候補領域から前記脳静脈予測点を決定することと、を含む。
幾つかの実施例において、位置決めモジュール112は更に、
前記前大脳動脈点候補領域から、時間最大値に対応する複数の第1組織密度値を決定し、前記脳静脈点候補領域から、時間最大値に対応する複数の第2組織密度値を決定し、
前記複数の第1組織密度値のうち組織密度値の最大値を前記前大脳動脈予測点として決定し、前記複数の第2組織密度値のうち組織密度値の最大値を前記脳静脈予測点として決定するように構成される。
幾つかの実施例において、前記灌流パラメータマップは、局所的脳血液量マップ、局所的脳血流量マップ、平均通過時間マップ及びピーク到達時間マップを含む。
幾つかの実施例において、灌流パラメータマップ取得モジュール113は更に、
前記前大脳動脈予測点に対応する関数曲線及び前記脳静脈予測点に対応する関数曲線を取得し、
前記前大脳動脈予測点に対応する関数曲線を第1動脈入力関数とし、前記脳静脈予測点に対応する関数曲線を静脈出力関数とし、
前記静脈出力関数を利用して前記第1動脈入力関数を修正し、第2動脈入力関数を得て、
前記第2動脈入力関数を利用して、デコンボリューションアルゴリズムで、前記局所的脳血液量マップ、前記局所的脳血流量マップ、前記平均通過時間マップ及び前記ピーク到達時間マップを決定するように構成される。
幾つかの実施例において、梗塞コア領域セグメンテーションモジュール114は更に、
第2セグメンテーションされるべき脳画像を取得し、
前記ピーク到達時間マップにおける所定の時間より大きい領域を低灌流領域として決定し、
前記局所的脳血液量マップ、前記局所的脳血流量マップを利用して、畳み込みニューラルネットワークアルゴリズムを使用して、前記低灌流領域から、前記第2セグメンテーションされるべき脳画像に対応する前記梗塞コア領域を取得するように構成される。
幾つかの実施例において、梗塞コア領域セグメンテーションモジュール114は更に、
第2セグメンテーションされるべき脳画像を取得し、
前記ピーク到達時間マップにおける所定の時間より大きい領域を低灌流領域として決定し、
前記局所的脳血液量マップ、前記局所的脳血流量マップ及び前記平均通過時間マップを利用して、畳み込みニューラルネットワークアルゴリズムを使用して、前記低灌流領域から、前記第2セグメンテーションされるべき脳画像に対応する前記梗塞コア領域を取得するように構成される。
幾つかの実施例において、梗塞コア領域セグメンテーションモジュール114は更に、
前記低灌流領域及び前記梗塞コア領域に基づいて、虚血性ペナンブラ領域を決定するように構成され、
前記梗塞コア領域と前記虚血性ペナンブラ領域の合計は、前記低灌流領域に等しい。
本願の実施例で提供される画像セグメンテーション装置は、深層学習アルゴリズムにより、前大脳動脈候補点及び脳静脈候補点を位置決めし、更に、局所探索アルゴリズムにより、前大脳動脈候補点及び脳静脈候補点に基づいて前大脳動脈予測点及び脳静脈予測点を決定することができる。深層学習により検出された前大脳動脈候補点及び脳静脈候補点、局所探索アルゴリズムにより取得された前大脳動脈予測点及び脳静脈予測点の精度及びロバスト性はより著しい。
また、本願の実施例で提供される画像セグメンテーション装置は、梗塞コア領域をセグメンテーションする場合、病巣側と正常側の比を参考にする必要がなく、病巣側及び正常側がいずれも異常側である場合にセグメンテーション精度が低いという状況を排除し、梗塞コア領域のセグメンテーション精度及びロバスト性を更に向上させることができる。
図12は、本願の実施例による画像セグメンテーション機器の構造を示す概略図である。図12に示すように、画像セグメンテーション機器は、相互結合されるメモリ121、プロセッサ122及び通信バス123を備える。
メモリ121は、上記いずれか一項に記載の画像セグメンテーション方法を実施させるプログラム命令を記憶するように構成される。
プロセッサ122は、メモリ121に記憶されているプログラム命令を実行するように構成される。
通信バス123は、メモリ121とプロセッサ122との接続通信を実施させるように構成される。ここで、プロセッサ122は、中央演算装置(Central Processing Unit:CPU)と呼ばれてもよい。プロセッサ122は、信号処理能力を持つ集積回路チップであってもよい。プロセッサ122は、汎用プロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、フィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)又は他のプログラマブルゲートアレイ、ディスクリートゲート又はトランジスタ論理デバイス、ディスクリートハードウェアコンポーネントであってもよい。汎用プロセッサは、マイクロプロセッサであってもよく、又は、該プロセッサは、如何なる従来のプロセッサなどであってもよい。
メモリ121は、メモリバンク、フラッシュメモリカード(TFカード:Micro SD Card)などであってもよく、画像セグメンテーション機器における全ての情報を記憶することができる。入力されたオリジナルデータ、コンピュータプログラム、中間実行結果及び最終的実行結果は、いずれもメモリに記憶される。これは、コントローラにより指定された位置に応じて情報を記憶して取り出す。メモリがなければ、画像セグメンテーション機器は、記憶機能を持たせず、正常な動作を確保できない。画像セグメンテーション機器におけるメモリは、用途に応じて、メインメモリ(内部メモリ)とサブメモリ(外部メモリ)に分けられてもよい。外部メモリと内部メモリに分けられるという分類方法で分類されてもよい。外部メモリは、一般的には磁気媒体又は光ディスクなどであり、情報を長期的に記憶することができる。内部メモリは、マザーボードにおける記憶部材であり、現在実行されているデータ及びプログラムを記憶するために用いられるが、プログラム及びデータを一時的に記憶することのみに用いられる。電源を遮断するか又はパワーダウンすると、データは、失われる。
本願で提供される幾つかの実施例において、開示される方法及び機器は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した機器の実施形態はただ例示的なもので、例えば、前記モジュール又はユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又はコンポーネントを組み合わせてもよいし、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよいし、実行しなくてもよい。また、示したか或いは検討した相互間の結合、直接的な結合又は通信接続は、幾つかのインターフェイス、機器又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
分離部材として説明したユニットは、物理的に別個のものであってもよいし、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよいし、そうでなくてもよい。即ち、同一の位置に位置してもよいし、複数のネットワークユニットに分布してもよい。実際の需要に応じてそのうちの一部又は全てのコンポーネントにより本実施形態の方策の目的を実現することができる。
また、本願の各実施例における各機能ユニットは一つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ以上のユニットが一つのユニットに集積されてもよい。上記集積したユニットはハードウェアとして実現してもよく、ソフトウェア機能コンポーネントとして実現してもよい。
集積したユニットは、ソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよい。このような理解のもと、本願の実施例の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、1台のコンピュータ機器(パソコン、システムサーバ、又はネットワーク機器など)又はプロセッサ(processor)に、本願の各実施例に記載の方法の全部又は一部を実行させるための若干の命令を含む。
図13は、本願の実施例によるコンピュータ可読記憶媒体の構造を示す概略図である。図13に示すように、本願のコンピュータ可読記憶媒体に、上記全ての、画像セグメンテーション方法を実現できるプログラムファイル131が記憶されている。ここで、該プログラムファイル131は、ソフトウェア製品の形態で上記コンピュータ可読記憶媒体に記憶される。1台のコンピュータ機器(パソコン、システムサーバ、又はネットワーク機器など)又はプロセッサ(processor)に、本願の各実施形態に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶装置は、USBメモリ、リムーバブルハードディスク、読み出し専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスクなどの、プログラムコードを記憶できる種々の媒体を含む。又は、コンピュータ、サーバ、携帯電話、タブレットなどの端末機器を含む。
本願の実施例で提供される画像セグメンテーション機器は、深層学習アルゴリズムにより、前大脳動脈候補点及び脳静脈候補点を位置決めし、更に、局所探索アルゴリズムにより、前大脳動脈候補点及び脳静脈候補点に基づいて前大脳動脈予測点及び脳静脈予測点を決定することができる。深層学習により検出された前大脳動脈候補点及び脳静脈候補点、局所探索アルゴリズムにより取得された前大脳動脈予測点及び脳静脈予測点の精度及びロバスト性はより著しい。
また、本願の実施例で提供される画像セグメンテーション機器は、梗塞コア領域をセグメンテーションする場合、病巣側と正常側の比を参考にする必要がなく、病巣側及び正常側がいずれも異常側である場合にセグメンテーション精度が低いという状況を排除し、梗塞コア領域のセグメンテーション精度及びロバスト性を更に向上させることができる。
以上は、本願の実施例の実施形態だけであり、本願の実施例の特許請求の範囲を限定するものではない、本願の実施例の明細書及び図面による同等の構造又は同等のプロセスの変換に対する利用、又は他の関連技術分野における直接的又は間接的な利用のすべてが本願の実施例の特許請求の範囲に属する。
本願の実施例は、画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体を提供する。前記方法は、第1セグメンテーションされるべき脳画像を取得することと、深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得ることと、前記前大脳動脈予測点及び前記脳静脈予測点を利用して前記脳画像に対応する灌流パラメータマップを決定することと、前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を決定することと、を含む。これにより、梗塞コア領域のセグメンテーション精度及びロバスト性を向上させる。

Claims (14)

  1. 画像セグメンテーション方法であって、
    第1セグメンテーションされるべき脳画像を取得することと、
    深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得ることと、
    前記前大脳動脈予測点及び前記脳静脈予測点を利用して前記脳画像に対応する灌流パラメータマップを決定することと、
    前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を決定することと、を含む、画像セグメンテーション方法。
  2. 前記深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得る前に、
    脳サンプル画像を取得することであって、前記脳サンプル画像は、前脳動脈点及び脳静脈点に対して初期アノテーションを行った画像である、ことと、
    前記脳サンプル画像を利用して初期深層学習位置決めネットワークに対して訓練を行い、前記深層学習位置決めネットワークを得ることと、を更に含むことを特徴とする
    請求項1に記載の画像セグメンテーション方法。
  3. 前記深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得ることは、
    前記深層学習位置決めネットワークにより、前記脳画像に対して位置決めを行い、前大脳動脈候補点及び脳静脈候補点を得ることと、
    局所探索アルゴリズムを利用して、前記前大脳動脈候補点に対応する前大脳動脈予測点及び前記脳静脈候補点に対応する脳静脈予測点を決定することと、を含むことを特徴とする
    請求項2に記載の画像セグメンテーション方法。
  4. 前記局所探索アルゴリズムを利用して、前記前大脳動脈候補点に対応する前大脳動脈予測点及び前記脳静脈候補点に対応する脳静脈予測点を決定することは、
    前記前大脳動脈候補点を円心とした所定の第1半径範囲内の領域を、前大脳動脈点候補領域として決定し、前記脳静脈候補点を円心とした所定の第2半径範囲内の領域を、脳静脈点候補領域として決定することと、
    前記局所探索アルゴリズムを利用して、前記前大脳動脈点候補領域から前記前大脳動脈予測点を決定し、前記脳静脈点候補領域から前記脳静脈予測点を決定することと、を含むことを特徴とする
    請求項3に記載の画像セグメンテーション方法。
  5. 前記局所探索アルゴリズムを利用して、前記前大脳動脈点候補領域から前記前大脳動脈予測点を決定し、前記脳静脈点候補領域から前記脳静脈予測点を決定することは、
    前記前大脳動脈点候補領域から、時間最大値に対応する複数の第1組織密度値を決定し、前記脳静脈点候補領域から、時間最大値に対応する複数の第2組織密度値を決定することと、
    前記複数の第1組織密度値のうち組織密度値の最大値を前記前大脳動脈予測点として決定し、前記複数の第2組織密度値のうち組織密度値の最大値を前記脳静脈予測点として決定することと、を含むことを特徴とする
    請求項4に記載の画像セグメンテーション方法。
  6. 前記灌流パラメータマップは、局所的脳血液量マップ、局所的脳血流量マップ、平均通過時間マップ及びピーク到達時間マップを含むことを特徴とする
    請求項1に記載の画像セグメンテーション方法。
  7. 前記前大脳動脈予測点及び前記脳静脈予測点を利用して前記脳画像に対応する灌流パラメータマップを決定することは、
    前記前大脳動脈予測点に対応する関数曲線及び前記脳静脈予測点に対応する関数曲線を取得することと、
    前記前大脳動脈予測点に対応する関数曲線を第1動脈入力関数と決定し、前記脳静脈予測点に対応する関数曲線を静脈出力関数と決定することと、
    前記静脈出力関数を利用して前記第1動脈入力関数を修正し、第2動脈入力関数を得ることと、
    前記第2動脈入力関数を利用して、デコンボリューションアルゴリズムで、前記局所的脳血液量マップ、前記局所的脳血流量マップ、前記平均通過時間マップ及び前記ピーク到達時間マップを決定することと、を含むことを特徴とする
    請求項6に記載の画像セグメンテーション方法。
  8. 前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を算出することは、
    第2セグメンテーションされるべき脳画像を取得することと、
    前記ピーク到達時間マップにおける所定の時間より大きい領域を低灌流領域として決定することと、
    前記局所的脳血液量マップ、前記局所的脳血流量マップを利用して、畳み込みニューラルネットワークアルゴリズムを使用して、前記低灌流領域から、前記第2セグメンテーションされるべき脳画像に対応する前記梗塞コア領域を取得することと、を含むことを特徴とする
    請求項7に記載の画像セグメンテーション方法。
  9. 前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を算出することは、
    第2セグメンテーションされるべき脳画像を取得することと、
    前記ピーク到達時間マップにおける所定の時間より大きい領域を低灌流領域として決定することと、
    前記局所的脳血液量マップ、前記局所的脳血流量マップ及び前記平均通過時間マップを利用して、畳み込みニューラルネットワークアルゴリズムを使用して、前記低灌流領域から、前記第2セグメンテーションされるべき脳画像に対応する前記梗塞コア領域を取得することと、を含むことを特徴とする
    請求項7に記載の画像セグメンテーション方法。
  10. 前記低灌流領域及び前記梗塞コア領域に基づいて、虚血性ペナンブラ領域を決定することを更に含み、
    前記梗塞コア領域と前記虚血性ペナンブラ領域の合計は、前記低灌流領域に等しいことを特徴とする
    請求項8又は9に記載の画像セグメンテーション方法。
  11. 画像セグメンテーション装置であって、
    第1セグメンテーションされるべき脳画像を取得するように構成される取得モジュールと、
    深層学習位置決めネットワークにより前記脳画像に対して位置決めを行い、前大脳動脈予測点及び脳静脈予測点を得るように構成される位置決めモジュールと、
    前記前大脳動脈予測点及び前記脳静脈予測点を利用して脳画像に対応する灌流パラメータマップを決定するように構成される灌流パラメータマップ取得モジュールと、
    前記灌流パラメータマップを利用して前記脳灌流梗塞コア領域を決定するように構成される梗塞コア領域セグメンテーションモジュールと、を備える、画像セグメンテーション装置。
  12. 相互結合されるプロセッサとメモリを備える画像セグメンテーション機器であって、
    前記メモリは、請求項1から10のうちいずれか一項に記載の画像セグメンテーション方法を実施させるプログラム命令を記憶するように構成され、
    前記プロセッサは、前記メモリに記憶されている前記プログラム命令を実行するように構成される、画像セグメンテーション機器。
  13. コンピュータに請求項1から10のうちいずれか一項に記載の画像セグメンテーション方法を実施させるためのプログラムファイルを記憶した、コンピュータ可読記憶媒体。
  14. 電子機器で実行されると、前記電子機器のプロセッサに、請求項1から10のうちいずれか一項に記載の画像セグメンテーション方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。
JP2021538462A 2020-03-18 2020-07-07 画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体 Pending JP2022529094A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010192934.5 2020-03-18
CN202010192934.5A CN111489360A (zh) 2020-03-18 2020-03-18 一种图像分割方法及相关设备
PCT/CN2020/100711 WO2021184600A1 (zh) 2020-03-18 2020-07-07 一种图像分割方法及装置、设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
JP2022529094A true JP2022529094A (ja) 2022-06-17

Family

ID=71798168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021538462A Pending JP2022529094A (ja) 2020-03-18 2020-07-07 画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体

Country Status (5)

Country Link
JP (1) JP2022529094A (ja)
KR (1) KR20210118389A (ja)
CN (1) CN111489360A (ja)
TW (1) TWI767492B (ja)
WO (1) WO2021184600A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112419340B (zh) * 2020-12-09 2024-06-28 东软医疗系统股份有限公司 脑脊液分割模型的生成方法、应用方法及装置
CN113034438B (zh) * 2021-03-01 2021-11-23 北京安德医智科技有限公司 一种ct灌注参数预测方法及装置、电子设备和存储介质
CN113827263A (zh) * 2021-11-08 2021-12-24 上海联影智能医疗科技有限公司 灌注影像处理方法、系统、电子设备及存储介质
CN114121236A (zh) * 2021-11-22 2022-03-01 上海商汤智能科技有限公司 图像检测方法及相关装置、电子设备和存储介质
CN114266789B (zh) * 2021-12-28 2023-05-23 沈阳东软智能医疗科技研究院有限公司 基于脑部影像的梗死区域分割方法、装置、设备及介质
CN114170440A (zh) * 2021-12-31 2022-03-11 上海联影智能医疗科技有限公司 图像特征点的确定方法、装置、计算机设备和存储介质
CN114648514B (zh) * 2022-03-30 2022-11-29 中国人民解放军总医院第二医学中心 一种脑动脉定位提取方法、装置、电子设备及存储介质
CN115546159B (zh) * 2022-10-13 2023-07-25 数坤(上海)医疗科技有限公司 图像处理方法、装置、设备和存储介质
CN115830014B (zh) * 2023-02-03 2023-05-05 脑玺(苏州)智能科技有限公司 缺血半暗带的误标记识别方法、装置、设备及存储介质
CN116798612A (zh) * 2023-08-23 2023-09-22 北京超数时代科技有限公司 一种用于神经类疾病的数字诊疗系统
CN117975012B (zh) * 2024-02-07 2024-08-09 浙江大学 人体脉络丛分割方法、系统、存储介质及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012521590A (ja) * 2009-03-26 2012-09-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 灌流画像
CN103839249A (zh) * 2012-11-23 2014-06-04 上海联影医疗科技有限公司 Ct肝灌注的图像后处理方法和ct肝灌注方法
CN105997128A (zh) * 2016-08-03 2016-10-12 上海联影医疗科技有限公司 利用灌注成像识别病灶的方法及系统
JP2018538076A (ja) * 2015-12-21 2018-12-27 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 灌流デジタルサブトラクション血管造影
CN110287956A (zh) * 2019-06-13 2019-09-27 北京理工大学 血管中心线自动匹配方法及装置
JP2019534727A (ja) * 2016-09-18 2019-12-05 イェダ リサーチ アンド ディベロップメント カンパニー リミテッドYeda Research And Development Co.Ltd. 蛍光照明に基づいて3d画像を生成するためのシステムおよび方法
JP2020503095A (ja) * 2016-12-23 2020-01-30 ハートフロー, インコーポレイテッド 解剖学的モデルパラメータの機械学習

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5243865B2 (ja) * 2008-07-07 2013-07-24 浜松ホトニクス株式会社 脳疾患診断システム
CN102028494B (zh) * 2011-01-24 2012-05-09 海纳医信(北京)软件科技有限责任公司 脑灌注图像序列处理方法及系统
CN103186895A (zh) * 2013-04-15 2013-07-03 武汉大学 一种基于神经网络模型的ct灌注医疗图像智能融合方法
CN104287764B (zh) * 2014-09-11 2017-05-31 沈阳东软医疗系统有限公司 一种ct灌注成像方法和设备
US10037603B2 (en) * 2015-05-04 2018-07-31 Siemens Healthcare Gmbh Method and system for whole body bone removal and vascular visualization in medical image data
CN105809670B (zh) * 2016-02-29 2019-07-19 上海联影医疗科技有限公司 灌注分析方法
CN107451455A (zh) * 2017-07-29 2017-12-08 广东欧珀移动通信有限公司 解锁控制方法及相关产品
WO2019061202A1 (en) * 2017-09-28 2019-04-04 Shenzhen United Imaging Healthcare Co., Ltd. SYSTEM AND METHOD FOR PROCESSING COLON IMAGE DATA
CN108053446A (zh) * 2017-12-11 2018-05-18 北京奇虎科技有限公司 基于点云的定位方法、装置及电子设备
CN109035255B (zh) * 2018-06-27 2021-07-02 东南大学 一种基于卷积神经网络的ct图像中带夹层主动脉分割方法
CN109242863B (zh) * 2018-09-14 2021-10-26 北京市商汤科技开发有限公司 一种缺血性脑卒中图像区域分割方法及装置
CN109726753A (zh) * 2018-12-25 2019-05-07 脑玺(上海)智能科技有限公司 基于时间信号曲线的灌注动态影像的分割方法及系统
CN110223285B (zh) * 2019-06-13 2021-02-02 中南大学湘雅二医院 基于动物迁移和神经网络模型的影像结果预测方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012521590A (ja) * 2009-03-26 2012-09-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 灌流画像
CN103839249A (zh) * 2012-11-23 2014-06-04 上海联影医疗科技有限公司 Ct肝灌注的图像后处理方法和ct肝灌注方法
JP2018538076A (ja) * 2015-12-21 2018-12-27 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 灌流デジタルサブトラクション血管造影
CN105997128A (zh) * 2016-08-03 2016-10-12 上海联影医疗科技有限公司 利用灌注成像识别病灶的方法及系统
JP2019534727A (ja) * 2016-09-18 2019-12-05 イェダ リサーチ アンド ディベロップメント カンパニー リミテッドYeda Research And Development Co.Ltd. 蛍光照明に基づいて3d画像を生成するためのシステムおよび方法
JP2020503095A (ja) * 2016-12-23 2020-01-30 ハートフロー, インコーポレイテッド 解剖学的モデルパラメータの機械学習
CN110287956A (zh) * 2019-06-13 2019-09-27 北京理工大学 血管中心线自动匹配方法及装置

Also Published As

Publication number Publication date
KR20210118389A (ko) 2021-09-30
CN111489360A (zh) 2020-08-04
TW202137132A (zh) 2021-10-01
TWI767492B (zh) 2022-06-11
WO2021184600A1 (zh) 2021-09-23

Similar Documents

Publication Publication Date Title
JP2022529094A (ja) 画像セグメンテーション方法及び装置、機器並びにコンピュータ可読記憶媒体
Wang et al. Smartphone-based wound assessment system for patients with diabetes
Liu et al. Liver segmentation for CT images using GVF snake
CN110458830B (zh) 图像处理方法、装置、服务器及存储介质
Hammouda et al. A new framework for performing cardiac strain analysis from cine MRI imaging in mice
US10984530B1 (en) Enhanced medical images processing method and computing device
KR102228087B1 (ko) 의료영상에서의 특정연골 분할 방법 및 장치
JP2019512361A (ja) 体積画像データセット内の血管構造のセグメント化のための方法及びシステム
WO2017148332A1 (zh) 一种灌注分析方法与设备
CN114066886B (zh) 骨骼分割边界确定方法、装置、电子设备及存储介质
Van den Oever et al. Application of artificial intelligence in cardiac CT: from basics to clinical practice
Chen et al. Automated artery localization and vessel wall segmentation using tracklet refinement and polar conversion
Bard et al. Automated quality-controlled cardiovascular magnetic resonance pericardial fat quantification using a convolutional neural network in the UK biobank
Sakellarios et al. Novel methodology for 3D reconstruction of carotid arteries and plaque characterization based upon magnetic resonance imaging carotid angiography data
Qiao et al. Temporally coherent cardiac motion tracking from cine MRI: Traditional registration method and modern CNN method
WO2020154398A1 (en) Noninvasive real-time patient-specific assessment of stroke severity
CN113192031B (zh) 血管分析方法、装置、计算机设备和存储介质
Danala et al. Developing new quantitative CT image markers to predict prognosis of acute ischemic stroke patients
CN113450329A (zh) 一种微循环图像血管分支红细胞流速计算方法及系统
Tan et al. Automatic localization of the left ventricular blood pool centroid in short axis cardiac cine MR images
CN113129297B (zh) 基于多期相肿瘤影像的直径自动测量方法及系统
CN112785580B (zh) 确定血管流速的方法及装置
CN115035133A (zh) 一种模型训练方法、图像分割方法及相关装置
CN114121236A (zh) 图像检测方法及相关装置、电子设备和存储介质
CN114862823A (zh) 区域分割方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230301