JP7250166B2 - 画像分割方法及び装置、画像分割モデルのトレーニング方法及び装置 - Google Patents

画像分割方法及び装置、画像分割モデルのトレーニング方法及び装置 Download PDF

Info

Publication number
JP7250166B2
JP7250166B2 JP2021560144A JP2021560144A JP7250166B2 JP 7250166 B2 JP7250166 B2 JP 7250166B2 JP 2021560144 A JP2021560144 A JP 2021560144A JP 2021560144 A JP2021560144 A JP 2021560144A JP 7250166 B2 JP7250166 B2 JP 7250166B2
Authority
JP
Japan
Prior art keywords
segmentation
region
mediastinum
neural network
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021560144A
Other languages
English (en)
Other versions
JP2022546149A (ja
Inventor
恩佑 劉
少康 王
寛 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infervision Medical Technology Co Ltd
Infervision Co Ltd
Original Assignee
Infervision Medical Technology Co Ltd
Infervision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202010752149.0A external-priority patent/CN111899245B/zh
Application filed by Infervision Medical Technology Co Ltd, Infervision Co Ltd filed Critical Infervision Medical Technology Co Ltd
Publication of JP2022546149A publication Critical patent/JP2022546149A/ja
Application granted granted Critical
Publication of JP7250166B2 publication Critical patent/JP7250166B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本願は、2020年7月30日に出願された出願番号が202010752149.0である中国特許出願の優先権を主張し、そのすべての内容を引用により本明細書に組み込む。
本発明は、画像処理技術分野に関し、具体的には画像分割方法及び装置、画像分割モデルのトレーニング方法及び装置に関する。
画像分割は、映像学に基づく診断において重要な役割を果たしている。例えば、肺の血管を動脈と静脈に区分することは、医者が特定の様態で動脈又は静脈樹に影響を及ぼす肺疾患を正確に診断するために力になる。
以上に鑑みて、本発明の実施例は、動脈と静脈に対する分割の正確度及び効率を向上させるために、画像分割方法及び装置、画像分割モデルのトレーニング方法及び装置を提供することを目的とする。
本発明の実施例の第1の態様によると、画像分割方法を提供する。当該画像分割方法は、背景、縦隔、動脈及び静脈を含む分割対象画像に基づいて、前記分割対象画像の縦隔領域における前記縦隔、前記動脈、前記静脈及び前記背景の第1の分割結果を取得するステップと、前記分割対象画像に基づいて、前記分割対象画像の外延領域における血管及び前記背景の第2の分割結果を取得するステップと、前記第1の分割結果及び前記第2の分割結果に基づいて、前記分割対象画像における前記縦隔、前記動脈、前記静脈及び前記背景の分割結果を取得するステップと、を含む。
本発明の実施例の第2の態様によると、画像分割モデルのトレーニング方法を提供する。当該トレーニング方法は、縦隔領域における縦隔、背景、動脈及び静脈の第1のラベルと、外延領域における背景及び血管の第2のラベルとを含むサンプル画像を確定するステップと、前記サンプル画像に基づいてニューラルネットワークを訓練して、前記縦隔領域における縦隔、背景、動脈及び静脈の第1の分割結果を取得するためのネットワークモデルを生成するステップと、前記サンプル画像に基づいてカスケードニューラルネットワークを訓練して、前記外延領域における背景及び血管の第2の分割結果を取得するための分割モデルを生成するステップと、を含む。ここで、前記ニューラルネットワークは3Dニューラルネットワークであり、前記カスケードニューラルネットワークは、特徴抽出に用いられる第1のニューラルネットワークと、前記第2の分割結果を生成する第2のニューラルネットワークと、を含む。
本発明の実施例の第3の態様によると、画像分割装置を提供する。当該画像分割装置は、背景、縦隔、動脈及び静脈を含む分割対象画像に基づいて、前記分割対象画像の縦隔領域における前記縦隔、前記動脈、前記静脈及び前記背景の第1の分割結果を取得するように構成される第1の分割モジュールと、前記分割対象画像に基づいて、前記分割対象画像の外延領域における血管及び前記背景の第2の分割結果を取得するように構成される第2の分割モジュールと、前記第1の分割結果及び前記第2の分割結果に基づいて、前記分割対象画像における前記縦隔、前記動脈、前記静脈及び前記背景の分割結果を取得するように構成される取得モジュールと、を備える。
本発明の実施例の第4の態様によると、画像分割モデルのトレーニング装置を提供する。当該トレーニング装置は、縦隔領域における縦隔、背景、動脈及び静脈の第1のラベルと、外延領域における背景及び血管の第2のラベルとを含むサンプル画像を確定するように構成される確定モジュールと、前記サンプル画像に基づいてニューラルネットワークを訓練して、前記縦隔領域における縦隔、背景、動脈及び静脈の第1の分割結果を取得するためのネットワークモデルを生成するように構成される第1のトレーニングモジュールと、前記サンプル画像に基づいてカスケードニューラルネットワークを訓練して、前記外延領域における背景及び血管の第2の分割結果を取得するための分割モデルを生成するように構成される第2のトレーニングモジュールと、を備える。ここで、前記ニューラルネットワークは3Dニューラルネットワークであり、前記カスケードニューラルネットワークは、特徴抽出に用いられる第1のニューラルネットワークと、前記第2の分割結果を生成する第2のニューラルネットワークと、を含む。
本発明の実施例の第5の態様によると、電子デバイスを提供する。当該電子デバイスは、プロセッサと、前記プロセッサにより実行可能な命令を記憶するメモリと、を備える。前記プロセッサは、上述のいずれかの実施例に記載の画像分割方法、及び/又は、上述のいずれかの実施例に記載の画像分割モデルのトレーニング方法を実行するように構成される。
本発明の実施例の第6の態様によると、コンピュータ読取可能な記憶媒体を提供する。前記記憶媒体にはコンピュータプログラムが記憶されており、前記コンピュータプログラムは、上述のいずれかの実施例に記載の画像分割方法、及び/又は、上述のいずれかの実施例に記載の画像分割モデルのトレーニング方法を実行するように構成される。
本発明の実施例に係る画像分割方法は、縦隔領域に対する血管分割タスクと外延領域に対する血管分割タスクとを分離させて、縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果と、外延領域における血管及び背景の第2の分割結果とをそれぞれ取得し、さらに第1の分割結果及び第2の分割結果に基づいて分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得することによって、動脈、静脈及び背景をそれぞれ直接分割する際に外延領域と縦隔領域との血管サイズが不一致のために異なるサイズの血管の分割が影響されてしまう問題を防ぐことができ、したがって動脈と静脈に対する分割の正確度と効率を向上させることができる。
本発明の、上述及び上述以外の目的、特徴及び長所をより明確にするために、図面を参考しながら本発明の実施例をより詳しく説明する。図面は本発明の実施例に対する更なる理解を提供するために用いられ、明細書の一部として本発明の実施例と一緒に本発明を解釈するものに過ぎず、本発明に対する制限にはならない。図面において、同じ参考符号は通常、同じ部品やステップを指示する。
本発明の実施例に係る実施環境を示す模式図である。 本発明の一実施例に係る画像分割方法のフローチャートである。 本発明の他の一実施例に係る画像分割方法のフローチャートである。 本発明の一実施例に係る領域拡張の実現を示す模式図である。 本発明の一実施例に係る画像分割モデルのトレーニング方法のフローチャートである。 本発明の一実施例に係るカスケードニューラルネットワークを訓練する流れを示す模式図である。 本発明の一実施例に係るラベリングされたサンプル画像の模式図である。 本発明の一実施例に係る画像分割装置のブロック図である。 本発明の他の一実施例に係る画像分割装置のブロック図である。 本発明の他の一実施例に係る画像分割装置のブロック図である。 本発明の一実施例に係る画像分割モデルのトレーニング装置のブロック図である。 本発明の他の一実施例に係る画像分割モデルのトレーニング装置のブロック図である。 本発明の他の一実施例に係る画像分割モデルのトレーニング装置のブロック図である。 本発明の一実施例に係る電子デバイスの構造を示すブロック図である。
以下、本発明の実施例による図面を参照しながら本発明の実施例に係る技術案を明確で完全に説明する。明らかに、ここで説明される実施例は本発明の一部の実施例に過ぎず、すべての実施例ではない。当業者が創造的な労働をせずに本発明の実施例に基づいて取得する他の実施例はすべて本発明の保護範囲に属する。
<本発明の基本原理>
ディープラーニングにおいては、カスケード構造を有する人工ニューラルネットワークを構築することによって、計算システムの中で人工知能を実現する。カスケード構造の人工ニューラルネットワークが入力情報を層別で抽出及び選別することができるため、ディープラーニングは表現学習(Representation Learning)の能力を具備しており、エンドツーエンドの教師あり学習及び教師なし学習を実現することができる。ディープラーニングにおいて使用されるカスケード構造の人工ニューラルネットワークは複数の形態を有し、その階層の複雑さが一般に「深さ」と呼ばれる。アーキテクチャ分類によれば、ディープラーニングの形式は多層パーセプトロン、畳み込みニューラルネットワーク、循環ニューラルネットワーク、高信頼ネットワーク及び他の混合アーキテクチャを含む。ディープラーニングにおいては、データを用いてそのアーキテクチャ中のパラメータを更新してトレーニング目標を達成しており、当該流れが一般に「学習」と呼ばれる。ディープラーニングは、コンピュータにパターン特徴を自動的に学習させる方法を提示するとともに、モデル構築のプロセスに特徴学習を融合させることによって、人工による特徴設計の欠陥を補うことができる。
ニューラルネットワークは運算モデルであり、互いに連結される大量のノード(又はニューロンと呼ばれる)により構成される。いずれのノードも1つのストラテジー関数に対応しており、2つずつのノードの間の連結は、当該連結を通る信号に対する1つの加重値を表し、ウエイトと呼ばれる。ニューラルネットワークは一般に複数のニューラルネットワーク層を含み、上下のネットワーク層同士は互いにカスケード接続されており、i個目のニューラルネットワーク層の出力がi+1個目のニューラルネットワーク層の入力に接続され、i+1個目のニューラルネットワーク層の出力がi+2個目のニューラルネットワーク層の入力に接続される、等々である。トレーニングサンプルがカスケードニューラルネットワーク層に入力された後、各ニューラルネットワーク層を通して1つの出力結果が出力され、当該出力結果が次のニューラルネットワーク層の入力になる。このように、複数のニューラルネットワーク層による計算に基づいて出力を取得し、出力層の出力の予測結果と本当の目標値とを比較し、さらに予測結果と目標値との間の差異によって各層のウエイトマトリックス及びストラテジー関数を調整する。ニューラルネットワークにより出力される予測結果が本当の目標結果に一致するようになるまでに、ニューラルネットワークはトレーニングサンプルを用いて上述の調整プロセスを繰り返して行って、ニューラルネットワークのウエイトなどのパラメータが最適化される。当該プロセスがすなわちニューラルネットワークの訓練プロセスである。ニューラルネットワークが訓練された後、ニューラルネットワークモデルが得られる。
最新の研究によれば、動脈/静脈に対する区分を行うと、肺塞栓症をよりうまく判断できる。一方、動脈樹の変化は慢性血栓塞栓性肺動脈高圧の進展に関わる。また、肺実質内動脈の変化は右心室の機能障害に関わる。この2つの血管樹の変化を検出するために、医者は患者の胸部CT画像を人工的に分析して異常を探す。この作業は時間がかかり且つ標準化されにくいため、大規模の臨床研究や現実世界における臨床決断には向いていない。そこで、医者が病変を正確に診断できるように力になれる、CT画像での動脈と静脈の自動分離が、注目されるようになってきた。
従来の血管分割手段は主に、ディープラーニングに基づく血管分割と従来の学習に基づく血管分割に分ける。特に、肺血管を分割する作業においては、従来の血管分割手段のほとんどが、血管のHU値の差異程度に基づいて計算を行う。このような手段は、病巣がないCT画像に用いられる場合にはまだそれなりに効果を示しているが、肺炎、結節又は腫瘍が存在しているCT画像に用いられると、血管のHU値が近似する病変を分割してしまう。そのため、このような手段のロバスト性は現在の製品使用シーンにおける要求を満たすことができない。
一方、ディープラーニングに基づく血管分割手段においては、現在の主流の研究傾向はほとんどグラフ構造に基づく改造を利用している。このような改造はグラフ畳み込み及びグラフカットの使用を含む。ただし、予測スピード及びリソース(ビデオメモリ及び内蔵メモリなど)の占用の面において、このように改造されたアルゴリズムは、オンライン製品の、リアルタイム性及びリソース調達に対する需要を満足することができない。
本発明の基本原理を紹介したため、以下、図面を参照しながら本発明の非制限的な各実施例を説明する。
<例示的なシステム>
図1は本発明の実施例に係る実施環境を示す模式図である。当該実施環境は、CTスキャナー130、サーバ120及びコンピュータデバイス110を備える。コンピュータデバイス110はCTスキャナー130から肺臓の医用画像を取得することができる。それとともに、コンピュータデバイス110は通信ネットワークを介してサーバ120と接続することができる。選択的に、通信ネットワークは有線ネットワーク又は無線ネットワークである。
CTスキャナー130は、人体組織に対してX線走査を行って人体組織のCT画像を取得するように構成される。一実施例においては、CTスキャナー130を用いて肺臓を走査することによって肺臓の医用画像を取得することができる。
コンピュータデバイス110は汎用型コンピュータ又は専用の集積回路により構成されるコンピュータ装置などであってもよく、本発明の実施例はこれについて制限しない。例えば、コンピュータデバイス110はタブレットパソコンなどのモバイル端末デバイスであってもよく、又はパーソナルコンピュータ(Personal Computer,PC)、例えば、ラップトップ型携帯コンピュータやデスクトップコンピュータなどであってもよい。上述のコンピュータデバイス110は1つであってもよく、複数であってもよく、その種類が同じであってもよく、異なってもよいことを、当業者であれば理解できる。例えば、上述のコンピュータデバイス110は1つであってもよく、又は上述のコンピュータデバイス110は数十台や数百台ひいてはより多くてもよい。本発明の実施例はコンピュータデバイス110の数及びデバイス種類について制限しない。コンピュータデバイス110の中にはネットワークモデル及び分割モデルが配置されていてもよく、ネットワークモデルは肺臓の医用画像の縦隔領域における縦隔、動脈、静脈及び背景に対して分割を行って第1の分割結果を取得するように構成され、分割モデルは肺臓の医用画像の外延領域における血管及び背景に対して分割を行って第2の分割結果を取得するように構成される。コンピュータデバイス110は、その中に配置されているネットワークモデル及び分割モデルを利用して、CTスキャナー130から取得した肺臓の医用画像に対して画像分割を行って、第1の分割結果及び第2の分割結果を取得し、ひいては肺臓の医用画像における縦隔、動脈、静脈及び背景の分割結果を取得する。このように、縦隔領域の血管分割タスクと外延領域の血管分割タスクを分離させることによって、動脈、静脈及び背景を直接分割する際に外延領域の血管と縦隔領域の血管とがサイズが不一致のために異なるサイズの血管に対する分割が影響されてしまうことを避けることができ、したがって動脈と静脈に対する分割の正確度及び効率を向上させることができる。
サーバ120は1つのサーバであるか、又は複数のサーバにより構成されるか、又は1つの仮想化プラットフォームであるか、又は1つのクラウド計算サービスセンターである。一部の選択的な実施例において、サーバ120は、コンピュータデバイス110により収集されたトレーニング画像を受信し、トレーニング画像に基づいてニューラルネットワークを訓練して、肺臓の医用画像の縦隔領域における縦隔、動脈、静脈及び背景に対する分割に用いられるネットワークモデルと、肺臓の医用画像の外延領域における血管及び背景に対する分割に用いられる分割モデルとを取得することができる。コンピュータデバイス110はCTスキャナー130から取得した肺臓の医用画像をサーバに送信することができ、サーバ120は訓練して取得したネットワークモデル及び分割モデルを利用して、肺臓の医用画像の縦隔領域における縦隔、動脈、静脈及び背景に対する分割と、外延領域における血管及び背景に対する分割とを行って、肺臓の医用画像における縦隔、動脈、静脈及び背景の分割結果を取得し、さらに、医療関係者が照会できるよう、当該分割結果をコンピュータデバイス110に送信する。このように、縦隔領域の血管分割タスクと外延領域の血管分割タスクを分けることによって、動脈、静脈及び背景に対して直接分割を行う際に外延領域と縦隔領域の血管サイズの不一致により招来される異なるサイズの血管の分割が影響されてしまう問題を防ぐことができ、したがって動脈と静脈に対する分割の正確度と効率を向上させることができる。
<例示的な方法>
図2は本発明の一実施例に係る画像分割方法のフローチャートである。図2に記載の方法は計算デバイス(例えば、サーバ)により実行されることができるが、本発明の実施例はこれに限られない。サーバは1つのサーバであってもよく、又は複数のサーバにより構成されてもよく、又は1つの仮想化プラットフォームや1つのクラウド計算サービスセンターであってもよく、本発明の実施例はこれについて制限しない。図2に示しように、当該方法は以下の内容を含む。
S210において、背景、縦隔、動脈及び静脈を含む分割対象画像に基づいて、分割対象画像の縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果を取得する。
分割対象画像は、電子コンピュータ断層撮影(Computed Tomography,CT)、磁気共鳴撮影(Magnetic Resonance Imaging,MRI)、コンピュータX線撮影(Computed Radiography,CR)又はデジタルX線撮影(Digital Radiography,DR)などの医用映像であってもよく、本発明の実施例はこれについて制限しない。
分割対象画像は肺臓の医用画像であってもよいが、本発明の実施例はこれについて制限せず、分割対象画像は他の臓器の医用画像であってもよい。当該医用画像は、サイズが比較的に大きい血管とサイズが比較的に小さい血管とが領域区画の方式(例えば、本発明の実施例による縦隔領域と外延領域)によって区分されることが可能であるとの条件を満足すればよい。本発明の実施例は分割対象画像の詳しい形態についても制限せず、分割対象画像は生の医用画像であってもよく、前処理された医用画像であってもよく、生の医用画像の一部であってもよい。
一実施例において、縦隔領域は、左右の縦隔胸膜の付近領域を指し、その範囲には心臓と、心臓を出入りする大血管、食管、気管、胸腺、神経及びリンパ組織などが入っている。外延領域は、縦隔領域以外の、血管を有する領域を指す。例えば、肺臓の医用画像において、縦隔領域は左右の縦隔胸膜の付近領域を指し、外延領域は縦隔領域以外の肺内の領域を指す。縦隔領域における血管のサイズは、外延領域における血管のサイズより大きい。
一実施例においては、背景、動脈及び静脈を含む分割対象画像に対して第1の分割を行って、縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果を取得することができる。なお、本発明の実施例は第1の分割の実施形態を詳しく制限しない。
S220において、分割対象画像に基づいて、分割対象画像の外延領域における血管及び背景の第2の分割結果を取得する。
一実施例においては、分割対象画像に対して第2の分割を行って、外延領域における血管及び背景の第2の分割結果を取得することができる。なお、本発明の実施例は第2の分割の実施形態を詳しく制限しない。
分割対象画像に対して第2の分割を行うことによって、分割対象画像の外延領域における血管と背景を分割することができる。ただし、血管に対する区分を行わない。すなわち、血管が動脈であるか静脈であるかを区分せず、血管と背景に分割することができればよい。
本発明の実施例は第1の分割と第2の分割との実施形態が同一であるか否かについても制限せず、両者は同一であってもよく、異なってもよい。また、本発明の実施例は第1の分割と第2の分割が実行される順についても制限せず、第1の分割が先に実行されてもよく、第2の分割が先に実行されてもよく、又は第1の分割と第2の分割が同時に実行されてもよく、それぞれの分割結果が取得されればよい。
S230において、第1の分割結果及び第2の分割結果に基づいて、分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得する。
一実施例においては、第1の分割結果及び第2の分割結果を処理することによって縦隔、動脈、静脈及び背景の分割結果を取得することができる。なお、本発明の実施例は第1の分割結果及び第2の分割結果に対する処理手段について制限せず、最終的に背景、動脈及び静脈の分割結果を取得できればよい。
第1の分割結果は分割対象画像の縦隔領域の分割結果を指し、第2の分割結果は分割対象画像の外延領域の分割結果を指す。例えば、直ちに第1の分割結果と第2の分割結果とを単純に重ね合わせることによって分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得してもよく、又は、第1の分割結果及び第2の分割結果を1つの中間結果として見なし、当該中間結果を処理することによって縦隔、動脈、静脈及び背景の分割結果を取得することもできる。
このように、縦隔領域の血管分割タスクと外延領域の血管分割タスクを分離させ、縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果と、外延領域における血管及び背景の第2の分割結果とをそれぞれ取得してから、第1の分割結果及び第2の分割結果に基づいて分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得することによって、動脈、静脈及び背景を直接分割する際に外延領域の血管と縦隔領域の血管とがサイズが不一致のために異なるサイズの血管に対する分割が影響されてしまうことを避けることができ、したがって動脈と静脈に対する分割の正確度及び効率を向上させることができる。
本発明の他の実施例において、図3に示す方法は図2に示す方法の一例であり、図3に示す方法は以下の内容を更に含む。
S310において、分割対象画像をネットワークモデルに入力する。
分割対象画像を分割するためには、分割対象画像を、縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果を取得するために用いられるネットワークモデルに入力して分割することができる。
本発明の実施例はネットワークモデルの種類について詳しく制限しない。当該ネットワークモデルは任意の種類のニューラルネットワークにより構成されることができる。選択的に、当該ネットワークモデルは畳み込みニューラルネットワーク(Convolutional Neural Network,CNN)、ディープニューラルネットワーク(Deep Neural Network,DNN)又は回帰型ニューラルネットワーク(Recurrent Neural Network,RNN)などであってもよい。当該ネットワークモデルは入力層、畳み込み層、プーリング層、接続層などのニューラルネットワーク層を備えることができ、本発明の実施例はこれについて制限しない。また、本発明の実施例は各種類のニューラルネットワーク層の個数についても制限しない。
S320において、分割対象画像に基づいて、分割対象画像の縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果をネットワークモデルによって取得する。
分割対象画像をネットワークモデルに直接入力して、分割対象画像の縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果を取得する。分割対象画像を当該ネットワークモデルに入力して分割を行うことによって、分割対象画像の縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果の正確度をより向上させることができる。
1つの実施例において、分割対象画像をネットワークモデルに入力するステップは、分割対象画像の縦隔領域に対して切り分け作業を行って複数のブロック画像を取得するステップと、複数のブロック画像をネットワークモデルに入力するステップとを含み、なお、複数のブロック画像のうちのいずれのブロック画像も前記縦隔を含む。ここで、分割対象画像に基づいて、分割対象画像の縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果をネットワークモデルによって取得するステップは、複数のブロック画像に基づいて、複数のブロック画像に対応する縦隔領域における縦隔、動脈、静脈及び背景の複数のサブ分割結果をネットワークモデルによって取得するステップと、ガウシアンぼかし処理によって複数のサブ分割結果を組合せて、組合せられた分割結果を取得するステップと、組合せられた分割結果に対して連結領域アルゴリズムによって後処理を行って、第1の分割結果を取得するステップと、を含む。
当該ネットワークモデルは3Dネットワークモデルであってもよく、2Dネットワークモデルであってもよく、本発明の実施例はこれについて制限せず、当業者は適用場面における実際のニーズに応じてネットワークモデルの種類を設計することができる。
例えば、3Dネットワークモデルは、精度がよく、3Dの出来栄えがよいため、医用画像分割の分野において広く利用されている。しかしながら、3D分割のネットワークモデルは計算リソースを大量消耗してしまうので、3D分割のネットワークモデルに完全な分割対象画像(すなわち、生の医用画像)を直接入力すると、3D分割のネットワークモデルのトレーニングに必要なビデオメモリが膨大になる。
計算リソースの消耗と最終的な分割精度を両立させるためには、分割対象画像の縦隔領域に対して切り分け作業を行うことができる。すなわち、縦隔領域に対応する分割対象画像を切り分けることによって、縦隔領域に対応する複数のブロック画像を取得する。ここで、複数のブロック画像は互いにオーバーラップするブロック画像であってもよい。その後、複数のブロック画像をネットワークモデルに入力して分割を行う。なお、本発明の実施例は分割対象画像の分割から得られるブロック画像の数について制限せず、隣接する2つのブロック画像の間のオーバーラップ部分のサイズについても制限しない。
ブロック画像は縦隔を含むため、縦隔領域における血管の種類に対する判断では有利である。つまり、縦隔は、3Dネットワークモデルが動脈と静脈の区分学習を行うための参照物として利用されることができ、したがって3Dネットワークモデルは動脈と静脈の種類判別をよりうまく実現することができる。
一実施例においては、複数のブロック画像を取得した後、複数のブロック画像をネットワークモデルに入力して画像分割を行う。ここで、1つのブロック画像をネットワークモデルに入力するたびに1つのサブ分割結果を出力することができる。つまり、1つのブロック画像は1つのサブ分割結果に対応しており、それで複数のブロック画像は複数のサブ分割結果に対応する。複数のサブ分割結果は、分割対象画像の縦隔領域における縦隔、動脈、静脈及び背景の分割結果に対応する。
一実施例において、複数のサブ分割結果を組合せて、分割対象画像と類似するサイズを有するmaskを取得して第1の分割結果とする。複数のブロック画像は互いにオーバーラップするブロック画像であるため、組合せによって得られる第1の分割結果の境界の平滑さを確保するためには、中心位置の分割結果のみを保留し、中心位置の分割結果に対して組合せ作業を実施することができる。つまり、分割対象画像の縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果の境界を平滑にするためには、複数のサブ分割結果をガウシアンぼかし処理によって組合せることができ、したがって平滑な境界を有する、縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果が得られる。
なお、最も単純な組合せ方式として、複数のブロック画像を直接結合することができる。この方式は簡単で迅速であるが、杭垣効果(すなわち、ネットワークモデルがブロック画像の境界付近で出来栄えが悪く、一致性が悪いため、2つの隣接するブロック画像に対応する切り分け結果が組合せられるときに、結合跡が目立つこと)を招来してしまう。ネットワークモデルはブロック画像の中心位置においてより信頼性の高い分割結果を出して出来栄えがより良いため、ブロック画像の中心位置近くの分割結果のみを保留することができる。例えば、ブロック画像のサイズが192×192×64であるが、中心位置近くの、サイズが160×160×48となる領域の分割結果のみを保留することができる。杭垣効果をより緩和してネットワークモデルの分割結果をより滑らかにするためには、直接結合する組合せ方式のもとに、切り分けステップ長さを変更して、サイズが160×160×48である2つの領域の分割結果のオーバーラップ領域の平均値を求めることができる。しかしながら、当該組合せ方式の欠点は、前述の先験的な仮説を利用していないことである。そこで、ガウシアンぼかし処理に基づく組合せ方式を採用することによってこの欠点を補うことができ、それによって分割結果の正確度を向上させる。
ガウス関数を用いて、ブロック画像の中心位置をガウス核の平均値として、ガウス加重によってぼかしを行う。こうすると、ブロック画像の中心位置においてネットワークモデルの信頼性がより高くなるとの先験的知識にちょうど合致するので、組合せによって得られた第1の分割結果をよりうまく平滑化させることができる。
なお、本発明の実施例はガウシアンぼかし処理に用いられる関数を制限せず、ガウス関数を採用してもよく、他の鐘形関数を採用してもよい。
一実施例において、一部の体外偽陽性を除去するために、加えて、組合せられた各ブロック画像の境界付近における一致性を確保するためには、連結領域アルゴリズムを利用して組合せられた分割結果に対して後処理を行って第1の分割結果を取得することができる。なお、本発明の実施例は後処理の実施形態を詳しく制限せず、偽陽性及び境界付近における不一致ポイントを除去できればよい。
1つの実施例において、組合せられた分割結果に対して連結領域アルゴリズムによって後処理を行って第1の分割結果を取得するステップは、連結領域アルゴリズムによって、組合せられた分割結果から静脈の最大連結領域及び動脈の最大連結領域を取得するステップと、静脈の最大連結領域及び動脈の最大連結領域に基づいて、組合せられた分割結果からノイズを除去して、第1の分割結果を取得するステップと、を含む。ここで、ノイズは、動脈及び静脈に同時に含まれる成分と、偽陽性の成分とを含む。
まず、組合せられた分割結果に対して連結領域処理を行って、最大連結領域を取得する。当該最大連結領域は、動脈の最大連結領域及び静脈の最大連結領域を含む。次に、組合せられた分割結果から動脈の最大連結領域及び静脈の最大連結領域を除去して、組合せられた分割結果中のノイズを特定する。最後に、組合せられた分割結果から当該ノイズを除去して、第1の分割結果を取得することができる。こうすることによって、得られる第1の分割結果には、動脈及び静脈に同時に含まれる成分又は偽陽性の成分などの要求を満たさない成分が含まれない。
当該ノイズは、動脈及び静脈に同時に含まれる成分及び偽陽性の成分を含んでもよいが、本発明の実施例はこれについて制限せず、ノイズは他の要求未達の成分であってもよい。
S330において、分割対象画像を分割モデルに入力する。
分割対象画像を分割するためには、分割対象画像を、外延領域における血管及び背景の第2の分割結果を取得するために用いられる分割モデルに入力して分割を行うことができる。
本発明の実施例は分割モデルの種類について詳しく制限しない。当該分割モデルは任意の種類のニューラルネットワークにより構成されてもよい。選択的に、当該分割モデルは畳み込みニューラルネットワーク(Convolutional Neural Network,CNN)、ディープニューラルネットワーク(Deep Neural Network,DNN)又は回帰型ニューラルネットワーク(Recurrent Neural Network,RNN)などであってもよい。当該分割モデルは、入力層、畳み込み層、プーリング層、接続層などのニューラルネットワーク層を含んでもよく、本発明の実施例はこれについて制限しない。また、本発明の実施例は各種類のニューラルネットワーク層の個数についても制限しない。
S340において、分割対象画像に基づいて、外延領域における血管及び背景の第2の分割結果を分割モデルによって取得する。
分割対象画像を分割モデルに直接入力して、分割対象画像の外延領域における血管及び背景の第2の分割結果を取得する。分割対象画像を当該分割モデルに入力して分割を行うことによって、分割対象画像の外延領域における血管及び背景の第2の分割結果の正確度を向上させることができる。
分割モデルは分割対象画像の外延領域における血管と背景を分割することができるが、血管を区分しない。すなわち、血管が動脈であるか静脈であるかを区分せず、血管と背景を分割すればよい。
例えば、肺臓の医用画像において、外延領域は肺内の領域を指す。肺内の領域においては血管が判別されやすいため、分割モデルとして軽量化のモデルアーキテクチャを採用してもよい。一実施例において、当該分割モデルは2D分割モデルであってもよく、本発明の実施例はこれについて制限しないため、当業者は適用場面における実際のニーズに応じてネットワークモデルの種類を設計することができる。また、本発明の実施例は分割モデルのモデルアーキテクチャについても詳しく制限しないため、当業者は適用場面における実際のニーズに応じて分割モデルのモデルアーキテクチャを設計することができ、例えば、分割モデルはResNet18及び特徴ピラミッドネットワークにより構成されることができる。
まとめると、ネットワークモデルを用いて縦隔領域におけるサイズが比較的に大きい血管を分割し、分割モデルを用いて外延領域におけるサイズが比較的に小さい血管を分割することによって、サイズが大きい血管とサイズが小さい血管を1つのモデルのみにより分割する場合に分割効果及び分割性能を兼備できない課題を解決することができる。
例えば、1つの3Dネットワークモデルのみを用いて縦隔領域における血管及び外延領域における血管に対して分割を行う場合、縦隔を含むブロック画像のサイズは、外延領域における動脈及び静脈の区分正確度に相関する。具体的に、ブロック画像のCT物理的解像度(すなわち、PixelSpacing解像度であり、PixelSpacing解像度が高いほど現実物理世界の再現性がよくなり、PixelSpacing解像度が低いほど現実物理空間の再現性が悪くなる)が外延領域におけるサイズが小さい血管に対する分割に影響を及ぼす。つまり、ブロック画像のCT物理的解像度が高ければ高いほど、外延領域におけるサイズが小さい血管に対する分割に有利である。理論的に、ブロック画像の物理的体積が大きいほどそのCT物理的解像度が高くなり、したがって3Dネットワークモデルがサイズの小さい血管を分割するときの出来栄え及び動脈と静脈を区分するときの出来栄えがよくなる。しかしながら、ブロック画像のサイズが一定である場合、物理的体積とCT物理的解像度とは負の相関になる。そのため、物理的体積及びCT物理的解像度を同時に向上させる(すなわち、3Dネットワークモデルの、サイズの小さい血管に対する分割正確度及び動脈と静脈に対する区分正確度を向上させる)ためには、ブロック画像のサイズを拡大する必要がある。例えば、ブロック画像の物理的体積が一定である場合、ブロック画像のCT物理的解像度を0.5に調整すると、ブロック画像の各辺は2倍に拡大される。こうすると、ブロック画像のサイズ及び3Dネットワークモデルの大きさはいずれも元の8倍に拡大される。つまり、このときにブロック画像の物理的体積を増加すると、ブロック画像のサイズの増加が元の8倍を超えてしまう。明らかに、これは3D分割のネットワークモデルのトレーニングに必要なビデオメモリの増加に繋がって、3Dネットワークモデルの分割対象画像に対する分割効率が低下してしまう。
そこで、上述の矛盾を避けるためには、2つのモデルを用いてそれぞれ異なる分割を実施させる。すなわち、2D分割モデルは外延領域におけるサイズが比較的に小さい血管に対する分割制度を担当し、3Dネットワークモデルは縦隔領域におけるサイズが比較的に大きい血管に対する区分及び分割の正確度を担当する。こうすることによって、ブロック画像のサイズを控えることができ、すなわち3Dネットワークモデルの分割タスクを簡単化させることができる。それとともに、縦隔及び縦隔領域近くの血管に対する分割及び区分の正確度を保証することができ、すなわち、ブロック画像の物理的体積を十分大きく保証できれば、縦隔及び縦隔領域近くの血管に対する分割効果及び区分効果がよくなる。例えば、CT物理的空間解像度を元の1.3倍に増加させるとき、同じ縦隔及び縦隔領域近くの血管に対する分割効果及び区分効果を達成するために必要なビデオメモリが従来の2倍に縮小し、したがって3Dネットワークモデルの分割対象画像に対する分割効率を向上させる。
S350において、第1の分割結果における動脈及び静脈と、第2の分割結果における血管とに基づいて、領域拡張アルゴリズムによって、分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得する。
図4には領域拡張の実現を示している。図4に示すように、第1の分割結果及び第2の分割結果を取得した後、第1の分割結果における動脈及び静脈と、第2の分割結果における血管とに対して領域拡張(RegionGrowth)を行うことによって、第1の分割結果における動脈及び静脈と、第2の分割結果における血管とを結合して、分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得することができる。RegionGrowthの速度が要求を満たすようにするためには、cudaによって実現することができる。
なお、領域拡張アルゴリズムは、近似性を有する画素をまとめて最終的な領域を構成することである。まず、分割対象である各領域のそれぞれにおいて1つの種画素を拡張の始点として特定する。次に、種画素の周囲の隣接領域にある、種と同一又は類似する性質を有する画素(事前確定した拡張又は類似標準により確定する)を種画素の所在領域に併入する。続いて新しい画素を種として周囲へ拡張させる。併入可能な、条件を満足する画素がなくなると、1つの最終的な領域の拡張が完了する。
本発明の他の実施例において、第1の分割結果における動脈及び静脈と、第2の分割結果における血管とに基づいて、分割対象画像における縦隔、動脈、静脈及び背景の分割結果を領域拡張アルゴリズムによって取得するステップは、第1の分割結果における動脈及び静脈を始点として、第1の分割結果における動脈及び静脈を、第2の分割結果における血管に沿って、予め設定された血管生長長さに基づいて領域拡張を行って、分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得するステップを含む。
第1の分割結果においては縦隔領域の動脈と静脈が区分されており、第2の分割結果においては外延領域の血管が動脈と静脈に区分されておらず、加えて、第1の分割結果と第2の分割結果とは縦隔領域における血管が重なるが肺内の領域における血管が重ならない。そのため、第1の分割結果における動脈及び静脈を領域拡張の始点とし、第2の分割結果における血管を領域拡張の軌道とし、領域拡張アルゴリズムを利用して、第1の分割結果における動脈及び静脈が第2の分割結果における血管に沿って外延領域へ延びるようにする。つまり、第1の分割結果における動脈及び静脈を第2の分割結果における血管に沿って拡張させる。
動脈と静脈は2つの完全な連結領域であるため、確定された動脈及び静脈を始点として連結領域の分析を行うことによって、領域拡張された後の外延領域における動脈と静脈を区分することができる。また、動脈と静脈は2つの完全な連結領域であり、且つ第2の分割結果にある偽陽性はこの2つの完全な連結領域と結合することがないため、領域拡張を行うことによって、第2の分割結果から偽陽性を除去することも実現できる。
領域拡張アルゴリズムは反復型のアルゴリズムであるため、第1の分割結果中の動脈及び静脈が第2の分割結果中の血管に沿って領域拡張されるときの予め設定された血管生長長さ(例えば、肺臓の医用画像の場合、予め設定された血管生長長さは予め設定された肺内の血管生長長さとなる)を毎回の反復において設定することができる。分割後に画像を表示するとき、毎回の反復の予め設定された血管生長長さを調節することによって、血管の粒度をダイナミックに表示することができる。こうすることによって、医療関係者が分割された後の画像のVRを照会するときに一部の病巣が血管により遮蔽されることを防ぐことができるため、ユーザの使用体験を向上させることができる。
なお、本発明の実施例は毎回の反復における予め設定された血管生長長さの値を詳しく制限せず、適用場面によるニーズに応じて選択することができる。
まとめると、第1の分割結果における動脈及び静脈を第2の分割結果における血管に従って外延領域に向けて伸ばすことによって、動脈と静脈の分割タスクを3つのサブタスクに分けることができ、2つのモデルを用いて第1の分割結果と第2の分割結果をそれぞれ取得することによってタスクの複雑さを緩和させることができ、それによって、より簡単なモデルアーキテクチャを採用することが可能になって、ビデオメモリを低減するとともに予測スピードを向上させて、オンライン製品のリアルタイム性及びリソース調達の面における要求を満足することができる。
図5は本発明の一実施例に係る画像分割モデルのトレーニング方法のフローチャートである。図5に記載の方法は計算デバイス(例えば、サーバ)により実行されることができるが、本発明の実施例はこれに限られない。サーバは1つのサーバであってもよく、又は複数のサーバにより構成されてもよく、又は1つの仮想化プラットフォームや1つのクラウド計算サービスセンターであってもよく、本発明の実施例はこれについて制限しない。図5に示すように、当該方法は以下の内容を含む。
S510において、サンプル画像を確定する。
サンプル画像は、縦隔領域における縦隔、背景、動脈及び静脈の第1のラベルと、外延領域における背景及び血管の第2のラベルと、を含む。
当該第1のラベルは、サンプル画像の縦隔領域における縦隔、背景、動脈及び静脈に対してラベリングを行うことによって得られるラベルを指す。当該第2のラベルは、サンプル画像の外延領域における背景及び血管に対してラベリングを行うことによって得られるラベルを指す。当該第2のラベルにおける血管は動脈と静脈に区分されない。
本実施例で言及されたサンプル画像は、上述の実施例による分割対象画像と同じ種類の画像である。当該サンプル画像は人工的にラベリングされるため、第1のラベル及び第2のラベルが得られる。
なお、本発明の実施例はサンプル画像の形態について詳しく制限しない。サンプル画像は生の医用画像であってもよく、前処理された医用画像であってもよく、生の医用画像の一部であってもよい。
本実施例による縦隔領域及び外延領域は、上述の画像分割方法の実施例による縦隔領域及び外延領域と同一であるため、その詳しい細部についての説明は上述の画像分割方法の実施例を参照すればよく、ここでは重複を避けるために省略する。
S520において、サンプル画像に基づいてニューラルネットワークを訓練して、縦隔領域における縦隔、背景、動脈及び静脈の第1の分割結果を取得するためのネットワークモデルを生成する。
ここで、ニューラルネットワークは3Dニューラルネットワークである。
一実施例においては、サンプル画像をニューラルネットワークに入力してニューラルネットワークを訓練することによって、当該ネットワークモデルを生成する。
訓練されるニューラルネットワークは任意の種類のニューラルネットワークであってもよい。選択的に、訓練されるニューラルネットワークは畳み込みニューラルネットワーク(Convolutional Neural Network,CNN)、ディープニューラルネットワーク(Deep Neural Network,DNN)又は回帰型ニューラルネットワーク(Recurrent Neural Network,RNN)などであってもよく、本発明の実施例は訓練されるニューラルネットワークの種類について詳しく制限しない。訓練されるニューラルネットワークは、入力層、畳み込み層、プーリング層、接続層などのニューラルネットワーク層を含むことができ、本発明の実施例はこれについて制限しない。また、本発明の実施例は各種類のニューラルネットワーク層の個数についても制限しない。好ましく、訓練されるニューラルネットワークは3Dニューラルネットワークである。
S530において、サンプル画像に基づいてカスケードニューラルネットワークを訓練して、外延領域における背景及び血管の第2の分割結果を取得するための分割モデルを生成する。
ここで、カスケードニューラルネットワークは、特徴抽出に用いられる第1のニューラルネットワークと、第2の分割結果を生成する第2のニューラルネットワークとを含む。
一実施例においては、サンプル画像をカスケードニューラルネットワークに入力し、カスケードニューラルネットワークを訓練して、当該分割モデルを生成する。
第1のニューラルネットワーク及び第2のニューラルネットワークは任意の種類のニューラルネットワークであってもよい。選択的に、第1のニューラルネットワーク及び第2のニューラルネットワークは畳み込みニューラルネットワーク(Convolutional Neural Network,CNN)、ディープニューラルネットワーク(Deep Neural Network,DNN)又は回帰型ニューラルネットワーク(Recurrent Neural Network,RNN)などであってもよく、本発明の実施例は第1のニューラルネットワーク及び第2のニューラルネットワークの種類について詳しく制限しない。第1のニューラルネットワーク及び第2のニューラルネットワークは、入力層、畳み込み層、プーリング層、接続層などのニューラルネットワーク層を含むことができ、本発明の実施例はこれについて制限しない。また、本発明の実施例は各種類のニューラルネットワーク層の個数についても制限しない。
当該カスケードニューラルネットワークは、特徴抽出に用いられる第1のニューラルネットワークと、第1のニューラルネットワークの後に位置し、第2の分割結果を生成する第2のニューラルネットワークとを含む。なお、本発明の実施例はカスケードニューラルネットワークの構造を詳しく制限せず、当該カスケードニューラルネットワークは他のニューラルネットワークを含んでもよい。
本発明の実施例はネットワークモデルと分割モデルに対する訓練順番について制限しない。ネットワークモデルを先に訓練してもよく、分割モデルを先に訓練してもよく、ネットワークモデルと分割モデルを同時に訓練してもよく、訓練済みのネットワークモデル及び分割モデルを取得できればよい。
本発明の他の実施例において、前記方法は、サンプル画像の縦隔領域に対して切り分け作業を行うことによって、複数のブロック画像を取得するステップを更に含む。ここで、複数のブロック画像のうちのいずれのブロック画像も縦隔を含む。ここで、前記サンプル画像に基づいてニューラルネットワークを訓練して、縦隔領域における縦隔、背景、動脈及び静脈の第1の分割結果を取得するためのネットワークモデルを生成するステップは、複数のブロック画像に基づいてニューラルネットワークを訓練して、ネットワークモデルを生成するステップを含む。
本実施例による切り分け作業は、上述の画像分割方法の実施例による切り分け作業と同じであるため、その詳しい細部については上述の画像分割方法の実施例を参照すればよく、ここでは省略する。
一実施例においては、複数のブロック画像をそれぞれ3Dニューラルネットワークに入力して3Dニューラルネットワークを訓練することによって、当該ネットワークモデルを生成する。なお、本発明の実施例は3Dニューラルネットワークを訓練するプロセスについては詳しく制限せず、縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果を取得するためのネットワークモデルを形成することができればよい。
例えば、第1の損失関数を利用して、3Dニューラルネットワークにより出力される各ブロック画像に対応する第1の分割結果と、各ブロック画像に対応する第1のラベル(すなわち、縦隔、背景、動脈及び静脈の目標結果)との間の類似度損失を計算することによって、3Dニューラルネットワークの第1の損失関数値を取得することができる。第1の損失関数値が小さければ小さいほど、予測した第1の分割結果が目標結果に近いと考えられ、予測の正確率が高いと判定される。逆に、第1の損失関数値が大きければ大きいほど、予測の正確率が低いと判定される。当該第1の損失関数値に対して勾配逆伝播を行うことによって当該3Dニューラルネットワークのパラメータ(例えば、ウェイト、バイアスなど)を更新することができるが、本発明はこれについて制限しない。
本発明の他の実施例において、サンプル画像に基づいてカスケードニューラルネットワークを訓練して、外延領域における背景及び血管の第2の分割結果を取得するための分割モデルを生成するステップは、第1のニューラルネットワークを用いてサンプル画像に対してダウンサンプリング作業を行うことによって、複数の第1の特徴図を取得するステップと、第2のニューラルネットワークを用いて複数の第1の特徴図に対してアップサンプリング及び融合作業を行うことによって、第2の特徴図を取得するステップと、分類器を用いて第2の特徴図を活性化し、外延領域における背景及び血管の第2の分割結果を取得するステップと、第2の分割結果及び第2のラベルに基づいて、カスケードニューラルネットワークの損失関数値を取得するステップと、損失関数値に基づいて、カスケードニューラルネットワークのパラメータを更新するステップと、を含む。ここで、第1のニューラルネットワークは深層残差ネットワークであり、第2のニューラルネットワークは特徴ピラミッドネットワークである。
図6には当該カスケードニューラルネットワークを訓練する流れの一例を示す。詳しくは以下の通りである。
サンプル画像を深層残差ネットワークに入力してダウンサンプリング作業を行って、複数の第1の特徴図(すなわち、第1の特徴図1、第1の特徴図2、第1の特徴図3及び第1の特徴図4)を生成する。なお、本発明の実施例は第1の特徴図の数について詳しく制限せず、本発明の実施例はダウンサンプリングの倍数についても制限しない。
さらに、複数の第1の特徴図をそれぞれ特徴ピラミッドネットワークに入力し、複数の第1の特徴図に対してアップサンプリング及び融合作業を行うことによって、第2の特徴図を生成する。具体的には、第1の特徴図4を特徴ピラミッドネットワークに入力し、第1の特徴図3を次元削減してから特徴ピラミッドネットワークに入力して第1の特徴図4と融合させることによって、融合された特徴図1を取得し、次に第1の特徴図2を次元削減してから特徴ピラミッドネットワークに入力して、融合された特徴図1と融合させることによって、融合された特徴図2を取得する。続いて、融合された特徴図2に対してアップサンプリング作業を行ってサンプル画像と同じサイズを有する第2の特徴図を取得する。最後に、分類器を用いて第2の特徴図を活性化することによって、外延領域における背景及び血管の第2の分割結果を取得する。
なお、本発明の実施例はアップサンプリングの倍数を限定しない。図6に示されるトレーニングプロセスは、カスケードニューラルネットワークを訓練する流れの一例に過ぎず、本発明を制限するものにはならない。
一実施例においては、損失関数を利用して第2の分割結果と第2のラベル(すなわち、背景及び血管の目標結果)との間の類似度損失を計算することによって、カスケードニューラルネットワークの損失関数値を取得することができる。損失関数値が小さいほど、予測した第2の分割結果が目標結果に近いと考えられ、予測の正確率が高いと判定される。逆に、損失関数値が大きいほど、予測の正確率が低いと判定される。
一実施例において、当該カスケードニューラルネットワークの損失関数値に対して勾配逆伝播を行うことによって当該カスケードニューラルネットワークのパラメータ(例えば、ウェイト、バイアスなど)を更新することができるが、本発明はこれについて制限しない。
本発明の他の実施例において、前記方法は、第2のラベル中の血管の所在領域に対して最大プーリング作業を行うことによって、第2のラベル中の血管の所在領域が膨張された後のサンプル画像における目標領域を取得するステップを更に含む。ここで、第2の分割結果及び第2のラベルに基づいてカスケードニューラルネットワークの損失関数値を取得するステップは、目標領域に対応する第2の分割結果及び第2のラベルに基づいて、カスケードニューラルネットワークの損失関数値を取得するステップを含む。
従来の分割ネットワークにおいて、ポジティブサンプル(動脈及び静脈)の画素ポイントの数はネガティブサンプル(背景)の画素ポイントの数より遥かに少ない。ディープラーニングにおいて、この現象はクラス不均衡と呼ばれる。クラス不均衡は、モデルが数の多いサンプル、すなわちネガティブサンプル(背景)を学習する傾向がより強くなる原因となる。
この問題を緩和するためには、最大プーリング(max pooling)作業を利用して、ポジティブサンプルが位置するラベリングされた領域を「膨張」させる。図7に示すように、左の図面は第2のラベルの初期ラベリング結果であり、その中、白いラベル付きの領域が血管であり、他の黒い領域が背景である。右の図面は「膨張」された後のラベリング結果であり、その中、白い領域全体は、白いラベル付きの領域が膨張されて得られた目標領域である。当該目標領域は、左の図面における白いラベル付きの領域と、当該領域付近の黒い領域(すなわち背景)とを含む。こうすることによって、ポジティブサンプルとネガティブサンプルの不均衡問題を効果的に緩和することができ、したがって血管がより精度高く分割されるとともに、分割モデルの収束速度も早くなる。
本実施例においては、第2のラベル中の血管の所在領域(すなわち、白いラベル付きの領域)に対して最大プーリング作業を行うことによって、第2のラベル中の血管の所在領域が膨張された後のサンプル画像における目標領域(すなわち、「膨張」された目標領域)を取得することができる。当該目標領域は、血管ラベルと、血管ラベル付近の背景ラベルとを含む。
損失関数を利用して目標領域に対応する第2の分割結果とサンプル画像の第2のラベルとの間の類似度損失を計算することによって、カスケードニューラルネットワークの損失関数値を取得することができる。こうすることによって、目標領域中のポジティブサンプル及びネガティブサンプルの損失のみを計算することができ、すなわち、目標領域内の画素値の損失関数のみを計算することができるため、クラス不均衡問題を効果的に抑えることができる。
<例示的な装置>
本発明の装置実施例は本発明に係る方法実施例を実行するために用いられることができる。本発明の装置実施例に記載されていない細部については、本発明の方法実施例を参照すればよい。
図8は本発明の一実施例に係る画像分割装置のブロック図である。図8に示すように、当該装置800は、
背景、縦隔、動脈及び静脈を含む分割対象画像に基づいて、分割対象画像の縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果を取得するように構成される第1の分割モジュール810と、
分割対象画像に基づいて、分割対象画像の外延領域における血管及び背景の第2の分割結果を取得するように構成される第2の分割モジュール820と、
第1の分割結果及び第2の分割結果に基づいて、分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得する取得モジュール830と、を備える。
1つの実施例において、図9に示すように、前記装置800は、分割対象画像をネットワークモデルに入力するように構成される第1の入力モジュール840を更に備える。
1つの実施例において、第1の分割モジュール810はさらに、分割対象画像に基づいて、ネットワークモデルを用いて、分割対象画像の縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果を取得するように構成される。
1つの実施例において、第1の入力モジュール840はさらに、分割対象画像の縦隔領域に対して切り分け作業を行って複数のブロック画像を取得し、複数のブロック画像をネットワークモデルに入力するように構成される。ここで、複数のブロック画像のうちのいずれのブロック画像も縦隔を含む。
1つの実施例において、第1の分割モジュール810は、分割対象画像に基づいてネットワークモデルを用いて分割対象画像の縦隔領域における縦隔、動脈、静脈及び背景の第1の分割結果を取得するとき、さらに、複数のブロック画像に基づいて、ネットワークモデルを用いて、複数のブロック画像に対応する縦隔領域における縦隔、動脈、静脈及び背景の複数のサブ分割結果を取得し、ガウシアンぼかし処理によって複数のサブ分割結果に対して組合せ作業を行うことによって、組合せられた分割結果を取得し、連結領域アルゴリズムを利用して組合せられた分割結果に対して後処理を行って第1の分割結果を取得するように構成される。
1つの実施例において、第1の分割モジュール810は、連結領域アルゴリズムを利用して組合せられた分割結果に対して後処理を行って第1の分割結果を取得するとき、さらに、連結領域アルゴリズムを利用して組合せられた分割結果における静脈の最大連結領域及び動脈の最大連結領域を取得し、静脈の最大連結領域及び動脈の最大連結領域に基づいて、組合せられた分割結果からノイズを除去して第1の分割結果を取得するように構成される。ここで、ノイズは動脈と静脈に同時に含まれる成分及び偽陽性の成分を含む。
1つの実施例において、図10に示すように、前記装置800は、分割対象画像を分割モデルに入力するように構成される第2の入力モジュール850を更に備える。
1つの実施例において、第2の分割モジュール820はさらに、分割対象画像に基づいて、分割モデルを用いて外延領域における血管及び背景の第2の分割結果を取得するように構成される。
1つの実施例において、取得モジュール830はさらに、第1の分割結果における動脈及び静脈と、第2の分割結果における血管とに基づいて、領域拡張アルゴリズムによって、分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得するように構成される。
1つの実施例において、取得モジュール830は、領域拡張アルゴリズムによって分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得するとき、さらに、第1の分割結果における動脈及び静脈を始点として、第1の分割結果の動脈及び静脈を、第2の分割結果における血管に沿って予め設定された血管生長長さに基づいて領域拡張を行うことによって、分割対象画像における縦隔、動脈、静脈及び背景の分割結果を取得するように構成される。
図11は本発明の一実施例に係る画像分割モデルのトレーニング装置のブロック図である。図11に示すように、当該装置1100は、確定モジュール1110、第1のトレーニングモジュール1120及び第2のトレーニングモジュール1130を備える。
確定モジュール1110は、サンプル画像を確定するように構成される。ここで、サンプル画像は縦隔領域における縦隔、背景、動脈及び静脈の第1のラベルと、外延領域における背景及び血管の第2のラベルを含む。
第1のトレーニングモジュール1120は、サンプル画像に基づいてニューラルネットワークを訓練することによって、縦隔領域における縦隔、背景、動脈及び静脈の第1の分割結果を取得するためのネットワークモデルを生成するように構成される。ここで、前記ニューラルネットワークは3Dニューラルネットワークである。
第2のトレーニングモジュール1130は、前記サンプル画像に基づいてカスケードニューラルネットワークを訓練することによって、外延領域における背景及び血管の第2の分割結果を取得するための分割モデルを生成するように構成される。ここで、カスケードニューラルネットワークは、特徴抽出に用いられる第1のニューラルネットワークと、第2の分割結果を生成する第2のニューラルネットワークとを含む。
1つの実施例において、図12に示すように、前記装置1100は、サンプル画像の縦隔領域に対して切り分け作業を行うことによって、複数のブロック画像を取得するように構成される切り分けモジュール1140を更に備える。ここで、複数のブロック画像のうちのいずれのブロック画像も縦隔を含む。
1つの実施例において、第1のトレーニングモジュール1120はさらに、複数のブロック画像に基づいてニューラルネットワークを訓練して、ネットワークモデルを生成するように構成される。
1つの実施例において、第2のトレーニングモジュール1130はさらに、第1のニューラルネットワークを用いてサンプル画像に対してダウンサンプリング作業を行って、複数の第1の特徴図を取得し、第2のニューラルネットワークを用いて複数の第1の特徴図に対してアップサンプリング及び融合作業を行って、第2の特徴図を取得し、分類器を用いて第2の特徴図を活性化して外延領域における背景及び血管の第2の分割結果を取得し、第2の分割結果及び第2のラベルに基づいて、カスケードニューラルネットワークの損失関数値を取得し、損失関数値に基づいてカスケードニューラルネットワークのパラメータを更新するように構成される。ここで、第1のニューラルネットワークは深層残差ネットワークであり、第2のニューラルネットワークは特徴ピラミッドネットワークである。
1つの実施例において、図13に示すように、前記装置1100は、第2のラベル中の血管の所在領域に対して最大プーリング作業を行うことによって、第2のラベル中の血管の所在領域が膨張された後のサンプル画像における目標領域を取得するように構成される最大プーリングモジュール1150を更に備える。
1つの実施例において、第2のトレーニングモジュール1130は、第2の分割結果及び第2のラベルに基づいてカスケードニューラルネットワークの損失関数値を取得するとき、さらに、目標領域に対応する第2の分割結果及び第2のラベルに基づいて、カスケードニューラルネットワークの損失関数値を取得するように構成される。
<例示的な電子デバイス>
以下、図14を参照しながら本発明の実施例に係る電子デバイスを説明する。図14は本発明の実施例に係る電子デバイスのブロック図である。
図14に示すように、電子デバイス1400は1つ又は複数のプロセッサ1410と、メモリ1420とを備える。
プロセッサ1410は中央処理ユニット(CPU)又はデータ処理能力及び/又は命令実行能力を有する他の形の処理ユニットであってもよく、電子デバイス1400における他のコンポーネントが期待される機能を実行するように制御することができる。
メモリ1420は1つ又は複数のコンピュータプログラム製品を含むことができる。前記コンピュータプログラム製品は様々な形のコンピュータ読取可能な記憶媒体、例えば、揮発性メモリ及び/又は不揮発性メモリを含んでもよい。前記揮発性メモリは例えば、ランダムアクセスメモリ(RAM)及び/又は、キャッシュメモリ(cache)などを含むことができる。前記不揮発性メモリは例えば、リードオンリーメモリ(ROM)、ハードディスク、フラッシュメモリなどを含むことができる。前記コンピュータ読取可能な記憶媒体においては1つ又は複数のコンピュータプログラム命令が記憶されていてもよく、プロセッサ1410は前記プログラム命令を実行して、前述の本発明の各実施例による画像分割方法、画像分割モデルのトレーニング方法及び/又は他の期待される機能を実現することができる。前記コンピュータ読取可能な記憶媒体においては、入力信号、信号成分、騒音成分などの様々な内容が更に記憶されていてもよい。
1つの例において、電子デバイス1400は入力装置1430及び出力装置1440を更に備えることができる。これらのコンポーネントはバスシステム及び/又は他の形の接続メカニズム(図示せず)により互いに接続することができる。
例えば、当該入力装置1430は上述のマイクロフォン又はマイクロフォンマトリックスであってもよく、音源からの入力信号を捕獲するように構成される。当該電子デバイスが単体デバイスである場合、当該入力装置1430は通信ネットワーク接続器であってもよい。
また、当該入力装置1430はキーボードやマウスなどを含んでもよい。
当該出力装置1440は外部に様々な情報(確定された徴候種類情報などを含む)を出力することができる。当該出力装置1440は、ディスプレイ、スピーカー、プリンター、通信ネットワーク及びそれが接続しているリモート出力デバイスなどを含んでもよい。
もちろん、簡略化するために、図14には当該電子デバイス1400中の、本発明と関連するコンポーネントのうちの一部のみを示しており、バス、入力/出力インタフェースなどのコンポーネントを省略した。また、実際の適用場面に応じて、電子デバイス1400は他の任意の適切なコンポーネントを備えることもできる。
<例示的なコンピュータプログラム製品及びコンピュータ読取可能な記憶媒体>
上述の方法及びデバイス以外に、本発明の実施例はコンピュータプログラム命令を備えるコンピュータプログラム製品であってもよい。前記コンピュータプログラム命令がプロセッサにより実行されるとき、前記プロセッサは本明細書に記載の「例示的な方法」で説明された本発明の実施例による画像分割方法、画像分割モデルのトレーニング方法のステップを実施する。
前記コンピュータプログラム製品は1つ又は複数のプログラム設計言語の任意の組み合わせによって本発明の実施例による作業を実行するためのプログラムコードを編成することができる。前記プログラム設計言語は対象向けのプログラム設計言語、例えばJava、C++などを含み、一般の過程式のプログラム設計言語、例えば「C」言語又は類似のプログラム設計言語を更に含む。プログラムコードは、完全にユーザの計算デバイスで実行されるか、部分的にユーザデバイスで実行されるか、独立したソフトウェアパックとして実行されるか、一部がユーザの計算デバイスで実行されて一部がリモート計算デバイスで実行されるか、又は、完全にリモート計算デバイスで実行されることができる。
また、本発明の実施例はコンピュータ読取可能な記憶媒体であってもよく、それにはコンピュータプログラム命令が記憶されている。前記コンピュータプログラム命令がプロセッサにより実行されるとき、前記プロセッサは、本明細書に記載の「例示的な方法」で説明された本発明の各実施例による画像分割方法、画像分割モデルのトレーニング方法のステップを実施する。
前記コンピュータ読取可能な記憶媒体は1つ又は複数の読取可能な媒体の任意の組み合わせであってもよい。読取可能な媒体は読取可能な信号媒体又は読取可能な記憶媒体であってもよい。読取可能な記憶媒体は例えば、電気、磁気、光、電磁気、赤外線、又は半導体のシステム、装置もしくはデバイス、又はこれらの任意の組み合わせを含んでもよいが、これらに限られない。読取可能な記憶媒体の更に具体的な例(全体リストではない)としては、1つ又は複数の導線を有する電気接続、携帯式ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、書き込み及び消去可能なリードオンリーメモリ(EPROM又はキャッシュ)、光ファイバー、携帯式コンパクトディスクリードオンリーメモリ(CD-ROM)、光メモリ部品、磁気メモリ部品、又はこれらの任意の適切な組み合わせを含む。
例示及び説明を目的として、以上の内容を開示した。また、以上の内容は本発明の実施例をここで開示された形に限るためのものではない。以上で既に複数の例示的な態様及び実施例を説明したが、当業者であれば、他の変形、変更、変化、追加及びサブ組み合わせを理解できるべきである。

Claims (12)

  1. 画像分割方法であって、
    分割対象画像の縦隔領域に対して切り分け作業を行うことによって、複数のブロック画像を取得するステップであって、前記分割対象画像は背景、縦隔、動脈及び静脈を含み、前記複数のブロック画像はいずれも前記縦隔を含むステップと、
    前記複数のブロック画像をネットワークモデルに入力するステップと、
    前記複数のブロック画像に対応する前記縦隔領域における前記縦隔、前記動脈、前記静脈及び前記背景の複数のサブ分割結果を前記ネットワークモデルによって取得するステップと、
    ガウシアンぼかし処理によって前記複数のサブ分割結果を組合せて、組合せられた分割結果を取得するステップと、
    前記組合せられた分割結果に対して連結領域アルゴリズムによって後処理を行って、前記縦隔領域における前記縦隔、前記動脈、前記静脈及び前記背景の第1の分割結果を取得するステップと、
    前記分割対象画像に基づいて、前記分割対象画像の外延領域における血管及び前記背景の第2の分割結果を取得するステップであって、前記外延領域は、前記縦隔領域以外の、血管を有する領域であるステップと、
    前記第1の分割結果及び前記第2の分割結果に基づいて、前記分割対象画像における前記縦隔、前記動脈、前記静脈及び前記背景の分割結果を取得するステップと、を含む
    ことを特徴とする画像分割方法。
  2. 前記組合せられた分割結果に対して連結領域アルゴリズムによって後処理を行って、前記縦隔領域における前記縦隔、前記動脈、前記静脈及び前記背景の第1の分割結果を取得する前記ステップは、
    前記連結領域アルゴリズムによって、前記組合せられた分割結果から静脈の最大連結領域及び動脈の最大連結領域を取得するステップと、
    前記静脈の最大連結領域及び前記動脈の最大連結領域に基づいて、前記組合せられた分割結果からノイズを除去して、前記第1の分割結果を取得するステップと、を含み、
    前記ノイズは、前記動脈及び前記静脈に同時に含まれる成分と、偽陽性の成分とを含む
    ことを特徴とする請求項に記載の画像分割方法。
  3. 前記分割対象画像を分割モデルに入力するステップを更に含み、
    前記分割対象画像に基づいて、前記分割対象画像の外延領域における血管及び前記背景の第2の分割結果を取得する前記ステップは、
    前記分割対象画像に基づいて、前記外延領域における血管及び前記背景の第2の分割結果を前記分割モデルによって取得するステップを含む
    ことを特徴とする請求項1又は2に記載の画像分割方法。
  4. 前記第1の分割結果及び前記第2の分割結果に基づいて、前記分割対象画像における前記縦隔、前記動脈、前記静脈及び前記背景の分割結果を取得する前記ステップは、
    前記第1の分割結果における前記動脈及び前記静脈と、前記第2の分割結果における前記血管とに基づいて、領域拡張アルゴリズムによって、前記分割対象画像における前記縦隔、前記動脈、前記静脈及び前記背景の分割結果を取得するステップを含む
    ことを特徴とする請求項1ないしのいずれか一項に記載の画像分割方法。
  5. 前記第1の分割結果における前記動脈及び前記静脈と、前記第2の分割結果における前記血管とに基づいて、領域拡張アルゴリズムによって、前記分割対象画像における前記縦隔、前記動脈、前記静脈及び前記背景の分割結果を取得する前記ステップは、
    前記第1の分割結果における前記動脈及び前記静脈を始点として、前記第1の分割結果における前記動脈及び前記静脈を、前記第2の分割結果における前記血管に沿って、予め設定された血管生長長さに基づいて領域拡張を行うことによって、前記分割対象画像における前記縦隔、前記動脈、前記静脈及び前記背景の分割結果を取得するステップを含む
    ことを特徴とする請求項に記載の画像分割方法。
  6. 画像分割モデルのトレーニング方法であって、
    縦隔領域における縦隔、背景、動脈及び静脈の第1のラベルと、外延領域における背景及び血管の第2のラベルとを含むサンプル画像を確定するステップであって、前記外延領域は、前記縦隔領域以外の、血管を有する領域であるステップと、
    前記縦隔領域に対して切り分け作業を行うことによって、複数のブロック画像を取得するステップであって、前記複数のブロック画像はいずれも前記縦隔を含むステップと、
    前記複数のブロック画像に基づいてニューラルネットワークを訓練して、前記縦隔領域における前記縦隔、前記背景、前記動脈及び前記静脈の第1の分割結果を取得するためのネットワークモデルを生成するステップと、
    前記サンプル画像に基づいてカスケードニューラルネットワークを訓練して、前記外延領域における前記背景及び前記血管の第2の分割結果を取得するための分割モデルを生成するステップと、を含み、
    前記ニューラルネットワークは3Dニューラルネットワークであり、
    前記カスケードニューラルネットワークは、特徴抽出に用いられる第1のニューラルネットワークと、前記第2の分割結果を生成する第2のニューラルネットワークとを含む
    ことを特徴とするトレーニング方法。
  7. 前記サンプル画像に基づいてカスケードニューラルネットワークを訓練して、前記外延領域における前記背景及び前記血管の第2の分割結果を取得するための分割モデルを生成する前記ステップは、
    前記第1のニューラルネットワークを用いて前記サンプル画像に対してダウンサンプリング作業を行うことによって、複数の第1の特徴図を取得するステップと、
    前記第2のニューラルネットワークを用いて前記複数の第1の特徴図に対してアップサンプリング及び融合作業を行うことによって、第2の特徴図を取得するステップと、
    分類器を用いて前記第2の特徴図を活性化して、前記外延領域における前記背景及び前記血管の第2の分割結果を取得するステップと、
    前記第2の分割結果及び前記第2のラベルに基づいて、前記カスケードニューラルネットワークの損失関数値を取得するステップと、
    前記損失関数値に基づいて前記カスケードニューラルネットワークのパラメータを更新するステップと、を含み、
    前記第1のニューラルネットワークは深層残差ネットワークであり、前記第2のニューラルネットワークは特徴ピラミッドネットワークである
    ことを特徴とする請求項に記載のトレーニング方法。
  8. 前記第2のラベル中の血管の所在領域に対して最大プーリング作業を行うことによって、前記第2のラベル中の血管の所在領域が膨張された後の前記サンプル画像における目標領域を取得するステップを更に含み、
    前記第2の分割結果及び前記第2のラベルに基づいて、前記カスケードニューラルネットワークの損失関数値を取得する前記ステップは、
    前記目標領域に対応する第2の分割結果及び前記第2のラベルに基づいて、前記カスケードニューラルネットワークの損失関数値を取得するステップを含む
    ことを特徴とする請求項に記載のトレーニング方法。
  9. 画像分割装置であって、第1の入力モジュール、第1の分割モジュール、第2の分割モジュール及び取得モジュールを備え、
    前記第1の入力モジュールは、分割対象画像の縦隔領域に対して切り分け作業を行うことによって複数のブロック画像を取得し、前記複数のブロック画像をネットワークモデルに入力するように構成され、前記分割対象画像は背景、縦隔、動脈及び静脈を含み、前記複数のブロック画像はいずれも前記縦隔を含み、
    前記第1の分割モジュールは、前記複数のブロック画像に対応する前記縦隔領域における前記縦隔、前記動脈、前記静脈及び前記背景の複数のサブ分割結果を前記ネットワークモデルによって取得し、ガウシアンぼかし処理によって前記複数のサブ分割結果を組合せて、組合せられた分割結果を取得し、前記組合せられた分割結果に対して連結領域アルゴリズムによって後処理を行って、前記縦隔領域における前記縦隔、前記動脈、前記静脈及び前記背景の第1の分割結果を取得するように構成され、
    前記第2の分割モジュールは、前記分割対象画像に基づいて、前記分割対象画像の外延領域における血管及び前記背景の第2の分割結果を取得するように構成され、前記外延領域は、前記縦隔領域以外の、血管を有する領域であり、
    前記取得モジュールは、前記第1の分割結果及び前記第2の分割結果に基づいて、前記分割対象画像における前記縦隔、前記動脈、前記静脈及び前記背景の分割結果を取得するように構成される
    ことを特徴とする画像分割装置。
  10. 画像分割モデルのトレーニング装置であって、確定モジュール、切り分けモジュール、第1のトレーニングモジュール及び第2のトレーニングモジュールを備え、
    前記確定モジュールはサンプル画像を確定するように構成され、前記サンプル画像は縦隔領域における縦隔、背景、動脈及び静脈の第1のラベルと、外延領域における背景及び血管の第2のラベルとを含み、前記外延領域は、前記縦隔領域以外の、血管を有する領域であり、
    前記切り分けモジュールは、前記縦隔領域に対して切り分け作業を行うことによって複数のブロック画像を取得するように構成され、前記複数のブロック画像はいずれも前記縦隔を含み、
    前記第1のトレーニングモジュールは、前記複数のブロック画像に基づいてニューラルネットワークを訓練して、前記縦隔領域における前記縦隔、前記背景、前記動脈及び前記静脈の第1の分割結果を取得するためのネットワークモデルを生成するように構成され、前記ニューラルネットワークは3Dニューラルネットワークであり、
    前記第2のトレーニングモジュールは、前記サンプル画像に基づいてカスケードニューラルネットワークを訓練して、前記外延領域における前記背景及び前記血管の第2の分割結果を取得するための分割モデルを生成するように構成され、
    前記カスケードニューラルネットワークは、特徴抽出に用いられる第1のニューラルネットワークと、前記第2の分割結果を生成する第2のニューラルネットワークとを含む
    ことを特徴とするトレーニング装置。
  11. プロセッサと、前記プロセッサにより実行可能な命令を記憶するように構成されるメモリと、を備え、
    前記プロセッサは請求項1ないしのいずれか一項に記載の方法を実行するように構成される
    ことを特徴とする電子デバイス。
  12. コンピュータプログラムが記憶されており、
    前記コンピュータプログラムは請求項1ないしのいずれか一項に記載の方法を実行するように構成される
    ことを特徴とするコンピュータ読取可能な記憶媒体。
JP2021560144A 2020-07-30 2021-04-20 画像分割方法及び装置、画像分割モデルのトレーニング方法及び装置 Active JP7250166B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010752149.0A CN111899245B (zh) 2020-07-30 2020-07-30 图像分割、模型的训练方法及装置,电子设备及存储介质
CN202010752149.0 2020-07-30
PCT/CN2021/088407 WO2022021955A1 (zh) 2020-07-30 2021-04-20 图像分割方法及装置、图像分割模型的训练方法及装置

Publications (2)

Publication Number Publication Date
JP2022546149A JP2022546149A (ja) 2022-11-04
JP7250166B2 true JP7250166B2 (ja) 2023-03-31

Family

ID=80003150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021560144A Active JP7250166B2 (ja) 2020-07-30 2021-04-20 画像分割方法及び装置、画像分割モデルのトレーニング方法及び装置

Country Status (3)

Country Link
US (1) US11972571B2 (ja)
EP (1) EP3975117A4 (ja)
JP (1) JP7250166B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418171B2 (ja) * 2019-08-30 2024-01-19 キヤノン株式会社 画像処理装置、放射線撮影システム、画像処理方法及びプログラム
KR102436512B1 (ko) * 2019-10-29 2022-08-25 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
US20230138779A1 (en) * 2021-11-03 2023-05-04 Apple Inc. Linear transform of undistorted image for fusion
CN115170912B (zh) * 2022-09-08 2023-01-17 北京鹰瞳科技发展股份有限公司 图像处理模型训练的方法、生成图像的方法及相关产品
CN115457038B (zh) * 2022-11-11 2023-08-22 北京鹰瞳科技发展股份有限公司 分级预测模型的训练方法、分级预测的方法及相关产品
CN116580133B (zh) * 2023-07-14 2023-09-22 北京大学 图像合成方法、装置、电子设备和存储介质
CN116993762B (zh) * 2023-09-26 2024-01-19 腾讯科技(深圳)有限公司 图像分割方法、装置、电子设备及存储介质
CN118674811A (zh) * 2024-07-17 2024-09-20 深圳莫廷医疗科技股份有限公司 一种生成去噪血管网图像的方法及相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130083983A1 (en) 2011-10-04 2013-04-04 Siemens Aktiengesellschaft Method and System for Segmentation and Removal of Pulmonary Arteries, Veins, Left Atrial Appendage
CN110648350A (zh) 2019-09-26 2020-01-03 联想(北京)有限公司 一种肝脏血管分割方法、装置及电子设备
CN111028248A (zh) 2019-12-19 2020-04-17 杭州健培科技有限公司 一种基于ct图像的静动脉分离方法及装置
CN111091573A (zh) 2019-12-20 2020-05-01 广州柏视医疗科技有限公司 基于深度学习的ct影像肺血管的分割方法及系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6843638B2 (en) * 2002-12-10 2005-01-18 Honeywell International Inc. Vane radial mounting apparatus
US8934686B2 (en) * 2009-11-26 2015-01-13 Algotec Systems Ltd. User interface for selecting paths in an image
KR101625955B1 (ko) * 2014-11-03 2016-06-01 재단법인 아산사회복지재단 장기의 동맥 및 정맥의 구분 방법
DE112016003687T5 (de) * 2015-09-09 2018-05-03 Fujifilm Corporation Zuordnungsbild-anzeigesteuervorrichtung, -verfahren und -programm
EP3373247A1 (en) 2017-03-09 2018-09-12 Koninklijke Philips N.V. Image segmentation and prediction of segmentation
JP6983573B2 (ja) * 2017-08-09 2021-12-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN109785337B (zh) 2018-12-25 2021-07-06 哈尔滨工程大学 一种基于实例分割算法的栏内哺乳动物清点方法
CN109919012A (zh) 2019-01-28 2019-06-21 北控水务(中国)投资有限公司 一种基于卷积神经网络的污水处理指示性微生物图像识别方法
CN109934816B (zh) 2019-03-21 2021-05-11 数坤(北京)网络科技有限公司 一种互补模型的方法、设备及计算机可读存储介质
CN109949322B (zh) 2019-03-27 2023-06-23 中山大学 一种基于磁共振t1增强图像的脑血管图像分割方法
CN110443280B (zh) 2019-07-05 2022-06-03 北京达佳互联信息技术有限公司 图像检测模型的训练方法、装置及存储介质
CN110516535A (zh) 2019-07-12 2019-11-29 杭州电子科技大学 一种基于深度学习的老鼠活跃度检测方法和系统、及卫生评估方法
CN110428004B (zh) 2019-07-31 2021-02-05 中南大学 数据失衡下基于深度学习的机械零部件故障诊断方法
CN110807764A (zh) 2019-09-20 2020-02-18 成都智能迭迦科技合伙企业(有限合伙) 一种基于神经网络的肺癌筛查方法
CN111000563B (zh) 2019-11-22 2020-12-11 北京理工大学 一种视网膜动脉静脉直径比自动测量方法及装置
CN111325759B (zh) 2020-03-13 2024-04-16 上海联影智能医疗科技有限公司 血管分割方法、装置、计算机设备及可读存储介质
CN111462086B (zh) 2020-03-31 2024-04-26 推想医疗科技股份有限公司 图像分割方法及装置、神经网络模型的训练方法及装置
CN111899245B (zh) 2020-07-30 2021-03-09 推想医疗科技股份有限公司 图像分割、模型的训练方法及装置,电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130083983A1 (en) 2011-10-04 2013-04-04 Siemens Aktiengesellschaft Method and System for Segmentation and Removal of Pulmonary Arteries, Veins, Left Atrial Appendage
CN110648350A (zh) 2019-09-26 2020-01-03 联想(北京)有限公司 一种肝脏血管分割方法、装置及电子设备
CN111028248A (zh) 2019-12-19 2020-04-17 杭州健培科技有限公司 一种基于ct图像的静动脉分离方法及装置
CN111091573A (zh) 2019-12-20 2020-05-01 广州柏视医疗科技有限公司 基于深度学习的ct影像肺血管的分割方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
北村嘉郎他,高階エネルギー最小化による医用画像セグメンテーション,電子情報通信学会論文誌D,2018年,Vol. J101-D, No. 1,pp. 3-26

Also Published As

Publication number Publication date
JP2022546149A (ja) 2022-11-04
EP3975117A1 (en) 2022-03-30
US11972571B2 (en) 2024-04-30
US20220036561A1 (en) 2022-02-03
EP3975117A4 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
JP7250166B2 (ja) 画像分割方法及び装置、画像分割モデルのトレーニング方法及び装置
WO2022021955A1 (zh) 图像分割方法及装置、图像分割模型的训练方法及装置
WO2020215984A1 (zh) 基于深度学习的医学图像检测方法及相关设备
Altaf et al. Going deep in medical image analysis: concepts, methods, challenges, and future directions
Xue et al. Segan: Adversarial network with multi-scale l 1 loss for medical image segmentation
US10706333B2 (en) Medical image analysis method, medical image analysis system and storage medium
Zhao et al. Segmentation of blood vessels using rule-based and machine-learning-based methods: a review
Khened et al. Densely connected fully convolutional network for short-axis cardiac cine MR image segmentation and heart diagnosis using random forest
Shamrat et al. High-precision multiclass classification of lung disease through customized MobileNetV2 from chest X-ray images
CN110443813B (zh) 血管、眼底图像的分割方法、装置、设备及可读存储介质
Jiang et al. Medical image semantic segmentation based on deep learning
Tareef et al. Optimizing the cervix cytological examination based on deep learning and dynamic shape modeling
Wang et al. Automated interpretation of congenital heart disease from multi-view echocardiograms
WO2021244661A1 (zh) 确定图像中血管信息的方法和系统
CN111899244B (zh) 图像分割、网络模型的训练方法及装置,及电子设备
Chang et al. Automatic cardiac MRI segmentation and permutation-invariant pathology classification using deep neural networks and point clouds
Xie et al. Optic disc and cup image segmentation utilizing contour-based transformation and sequence labeling networks
CN110570394A (zh) 医学图像分割方法、装置、设备及存储介质
Wang et al. Learning to recognize thoracic disease in chest x-rays with knowledge-guided deep zoom neural networks
Tsivgoulis et al. An improved SqueezeNet model for the diagnosis of lung cancer in CT scans
Sirjani et al. Automatic cardiac evaluations using a deep video object segmentation network
Guo CSGNet: Cascade semantic guided net for retinal vessel segmentation
JP2023506107A (ja) 冠状動脈の分割方法、装置、電子デバイス及びコンピュータ読取可能な記憶媒体
Barrowclough et al. Binary segmentation of medical images using implicit spline representations and deep learning
Shahroudnejad et al. TUN-Det: a novel network for thyroid ultrasound nodule detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7250166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150