JP2021069793A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2021069793A
JP2021069793A JP2019199101A JP2019199101A JP2021069793A JP 2021069793 A JP2021069793 A JP 2021069793A JP 2019199101 A JP2019199101 A JP 2019199101A JP 2019199101 A JP2019199101 A JP 2019199101A JP 2021069793 A JP2021069793 A JP 2021069793A
Authority
JP
Japan
Prior art keywords
image
region
classifier
unit
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019199101A
Other languages
English (en)
Other versions
JP2021069793A5 (ja
JP7410619B2 (ja
Inventor
深 山嵜
Fukashi Yamazaki
深 山嵜
大介 古川
Daisuke Furukawa
大介 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019199101A priority Critical patent/JP7410619B2/ja
Priority to US17/077,909 priority patent/US11417000B2/en
Publication of JP2021069793A publication Critical patent/JP2021069793A/ja
Publication of JP2021069793A5 publication Critical patent/JP2021069793A5/ja
Application granted granted Critical
Publication of JP7410619B2 publication Critical patent/JP7410619B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】 注目領域の抽出が失敗しやすい領域においても、注目領域の抽出精度を向上させる画像処理装置を提供することを目的とする。【解決手段】 本発明の一態様に係る画像処理装置は、三次元医用画像を構成する複数の画素のそれぞれを、第一の注目領域を表すクラスを含む複数のクラスを機械学習に基づく第一の分類器を用いて分類する第一の分類部と、第一の分類結果に基づいて、三次元医用画像から第一の注目領域と、第二の注目領域とを含む画像領域を決定する決定部と、決定された画像領域に含まれる複数の画素のそれぞれを、第一の注目領域を表すクラスと第二の注目領域を表すクラスのうち、少なくとも一方を含む複数のクラスを分類する機械学習に基づく第二の分類器を用いて分類する第二の分類部と、第一の分類結果と第二の分類結果とを統合して第三の分類結果を取得する統合部と、を有する。【選択図】 図1

Description

本発明は、機械学習に基づいて注目領域の抽出を行う画像処理装置、画像処理方法およびプログラムに関する。
画像処理技術の一つとして、セグメンテーションがある。セグメンテーションとは、画像中に存在する注目領域と注目領域以外の領域を区別する処理のことであり、領域抽出、領域分割、画像分割などとも呼ばれる。これまでに、多くのセグメンテーション手法が提案されており、近年では非特許文献1に開示されているような機械学習に基づく手法が注目されている。
機械学習に基づく手法では、教示データと呼ばれる学習画像と正解画像の組による分類器の学習が必要である。ここで、学習画像とは実空間中に存在する注目物体を撮像装置で撮影することで得られる画像のことであり、学習画像には注目物体の像が描出されている。学習画像中に描出されている注目物体の像を注目領域と呼ぶ。正解画像とは学習画像に対応して存在している画像である。正解画像には正解領域が描画されている。正解領域は、対応する学習画像のどの位置に注目領域が描出されているかを示す。
しかしながら、画像によって注目物体とともに写りこんでいる物体が異なるため、機械学習に基づく単一の分類器では、注目領域の抽出を失敗しやすい領域が存在する。
本発明に係る画像処理装置は、三次元医用画像を取得する取得部と、取得部により取得された三次元医用画像を構成する複数の画素のそれぞれを、第一の注目領域を表すクラスを含む複数のクラスを分類するように学習した機械学習に基づく第一の分類器を用いて分類し、第一の分類結果を取得する第一の分類部と、第一の分類結果に基づいて、三次元医用画像から少なくとも第一の注目領域と、第二の注目領域とを含む画像領域を分類対象とする画像領域として決定する決定部と、決定部により決定された画像領域に含まれる複数の画素のそれぞれを、第一の注目領域を表すクラスと第二の注目領域を表すクラスのうち、少なくとも一方を含む複数のクラスを分類するように学習した機械学習に基づく第二の分類器を用いて分類し、第二の分類結果を取得する第二の分類部と、第一の分類結果と第二の分類結果とを統合して第三の分類結果を取得する統合部と、を有する。
を備える。
本発明の開示によれば、注目領域の抽出が失敗しやすい領域においても、注目領域の抽出精度を向上させることができる。
第一の実施形態に係る画像処理装置の機能構成の一例を示す図。 第一の実施形態に係る画像処理装置のハードウェア構成の一例を示す図。 第一の実施形態に係る画像処理装置の処理手順の一例を示すフローチャート。 第一の実施形態に係る画像の一例を説明する図。 第一の実施形態に係る画像処理装置の学習に関する機能構成の一例を示す図。 第一の実施形態に係る画像処理装置の学習に関する処理手順の一例を示す図。 第一の実施形態に係る教示データの一例を説明する図。 第一の実施形態に係る画像処理装置の出力の一例を示す図。 第三の実施形態に係る画像処理装置の処理手順の一例を示す図。 第三の実施形態に係る画像の一例を説明する図。
以下、図面を参照して本明細書に開示の画像処理装置の好ましい実施形態について説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面では適宜、構成要素、部材、処理の一部は省略して表示する。以下では、画像に含まれる画素のそれぞれにラベルまたはラベルに準ずる値(尤度など)を割り当てることを領域抽出として説明を行う。
以下では、X線コンピュータ断層像(X線CT)装置で撮影された三次元断層画像をセグメンテーションの対象画像とし、三次元断層画像中に描出されている肝臓をセグメンテーションにおける注目物体として例に挙げ、説明する。
肝臓は人体において複数の臓器と隣接している。肝臓と隣接する複数の臓器の中には、三次元断層画像上で肝臓と類似する濃度値を有する臓器が含まれている。
そのため、機械学習に基づく分類器により肝臓に対応する領域を抽出すると、肝臓に隣接する臓器との境界付近で領域の抽出が失敗することがある。
例えば、心臓は肝臓と隣接する臓器であり、撮像条件によっては肝臓と類似する濃度値を持つ臓器である。実際には、肝臓と心臓の間には横隔膜が存在するが、横隔膜はX線CT装置で撮像された三次元断層画像において視認することが難しいため、ここでは肝臓と心臓は隣接していると表現する。肝臓と心臓が隣接している場合に、機械学習に基づく分類器は肝臓と心臓の境界付近で、肝臓領域の抽出不足が生じたり、あるいは心臓領域を肝臓領域として誤って抽出したりすることがある。
したがって、三次元断層画像中に描出される肝臓領域の抽出は、本明細書に開示する画像処理装置を適用するのに好適な事例の一つである。すなわち、以下より、三次元医用画像の一例を三次元断層画像とし、三次元断層画像中に描出されている肝臓と心臓をそれぞれ第一の注目領域と第二の注目領域(第一の注目領域に隣接する注目領域)の一例として扱う。即ち、第一の注目領域と第二の注目領域が互いに隣接した領域であることを特徴とする。以降では、注目領域以外の領域をその他の領域と表現する。
なお、本明細書に開示の画像処理装置は、人体のあらゆる構造物に対して適用可能である。また、画像の種類についても同様であり、核磁気共鳴画像(MRI)装置、ポジトロン断層撮像(PET)装置、三次元超音波撮像装置などで撮像された三次元医用画像にも適用可能である。
以下では、機械学習に基づく分類器として、Convolutional Neural Network(CNN)を例にあげて、各実施形態を説明する。また、以下では画像に含まれる複数の画素のそれぞれに所定のラベル値あるいはそれに準ずる数値を付与することを領域抽出と呼ぶ。
また、分類器を学習させる際に用いる教示データのうち、正解画像が表す対象をクラスと呼ぶ。例えば、肝臓と肝臓以外を分類させる場合には、肝臓を表すクラスと肝臓以外を表すクラスのそれぞれに対応する正解画像を与え、分類器を学習する。学習した分類器は、入力された三次元医用画像を構成する複数の画素のそれぞれが、肝臓を表すクラスか、肝臓以外を表すクラスかを分類結果として出力する。即ち、当該教示データを学習させることで作成された分類器は、三次元医用画像が入力されると、三次元医用画像を構成する複数の画素のそれぞれを学習したクラスのいずれかに分類をする。
<第一の実施形態>
本実施形態では、まず第一の分類器により、三次元断層画像を構成する複数の画素のそれぞれを肝臓(第一の注目物体)、心臓(第一の注目物体に隣接する第二の注目物体)、その他に分類する。すなわち、三次元断層画像から、肝臓領域と心臓領域を抽出する。次に、第一の分類器による抽出結果に基づいて、肝臓と心臓がともに存在する体軸断層画像を特定する。ここで、体軸断層画像とは、三次元断層画像を構成する二次元断層画像である。体軸断層画像は、スライス画像やアキシャル断面画像とも呼ばれる。次に、特定した体軸断層画像を基準として、第二の分類器の分類対象となる画像領域を決定する。そして、第二の分類器によって分類対象の画像領域から肝臓領域を抽出する。最後に、第一の分類器によって抽出した肝臓領域と、第二の分類器によって抽出した肝臓領域とを統合して、統合後の肝臓領域の抽出結果を生成する。上述の通り、第一の分類器および第二の分類器は、画像から注目領域を抽出するCNNである。本実施形態では、第一の分類器は非特許文献1に記載のU−Netを利用し、第二の分類器はU−Netを三次元に拡張したネットワークを利用する。便宜上、以下では前者を2D−U−Netと呼び、後者を3D−U−Netと呼ぶ。即ち、画像処理装置100における第一の分類器および第二の分類器は深層学習に基づいて学習された分類器である。
ここで第一の分類器と第二の分類器の各々の性質を述べる。第一の分類器は、三次元断層画像を構成する体軸断層画像の夫々から肝臓領域を抽出できるように学習されている。しかし、第一の分類器による領域の抽出は、肝臓と心臓の境界付近の画素において、誤分類が生じることがある。ここでは、第一の分類器は肝臓、心臓、肝臓と心臓以外のその他の領域を表す3つのクラスを分類するように学習させているものとする。
例えば、肝臓であるはずの画素を心臓(あるいは肝臓と心臓以外のその他の領域)として誤分類する(以下、抽出不足)、あるいは心臓であるはずの画素を肝臓として誤分類(以下、誤抽出)することがある。一方で、第二の分類器は、三次元断層画像内における特定の局所的な範囲から肝臓領域を抽出できるように学習されている。局所的な範囲とは、肝臓と心臓がともに描出されている画像領域である。すなわち、第二の分類器は、肝臓と心臓が両者ともに写りこんでいる画像に対して特化した分類器であり、第一の分類器に比べて当該画像領域における肝臓と心臓の分類精度が高い。
以上のように、第一の分類器と第二の分類器はそれぞれ異なる性質を持っている。故に、統合部160は第一の分類器と第二の分類器のそれぞれの性質を考慮し、第一の分類器による肝臓領域の抽出結果と第二の分類器による肝臓領域の抽出結果とを統合する。具体的には、第二の分類器の分類対象となる画像領域には第二の分類器による肝臓領域の抽出結果を用い、その他の画像領域には第一の分類器による肝臓領域の抽出結果を用いる。
本実施形態において、本明細書で開示される発明は画像処理装置100、画像処理装置500を用いて実現される。なお、画像処理装置100内に、画像処理装置500の構成を有していても、それぞれの画像処理装置が異なる装置から構成されてもよい。
画像処理装置100では、三次元医用画像が入力されると、二つの識別器(第一の分類器と第二の分類器)を該三次元医用画像に適用して、該三次元医用画像中に描出されている注目領域を取得する。画像処理装置500では、画像処理装置100を構成する第一の分類器と第二の分類器の学習を行う。以下では、画像処理装置100により注目領域を取得する工程を推論工程と呼び、画像処理装置500により第一の分類器と第二の分類器を学習する工程を学習工程と呼ぶ。なお、それぞれの画像処理装置における工程は同一の画像処理装置内で実施されるものであってもよいし、異なる画像処理装置で実施されてもよい。
[推論工程]
まず、本実施形態に係る画像処理装置100の構成について説明する。
以下、図1を参照して本実施形態に係る画像処理装置100の機能構成について説明する。同図に示すように、画像処理装置100は、三次元断層画像および、分類器のパラメータを取得する取得部110、三次元断層画像を分類する第一の分類部120、肝臓および心臓の領域が含まれる体軸断層画像を特定する特定部130を有する。さらに画像処理装置100は、第二の分類器で分類をする画像領域を決定する決定部140、当該画像領域を分類する第二の分類部150、第一の分類部120による分類結果および第二の分類部150による分類結果を統合する統合部160で構成される。また、本実施形態に係る画像処理装置100は外部に記憶装置70を具備する。
記憶装置70はコンピュータ読み取り記憶媒体の一例であり、ハードディスクドライブ(HDD)やソリッドステイトドライブ(SSD)に代表される大容量情報記憶装置である。記憶装置70は、少なくとも1つ以上の三次元断層画像と、第一の分類部120における分類器である第一の分類器のパラメータ、第二の分類部150における分類器である第二の分類器のパラメータを保持している。
取得部110は、記憶装置70から、肝臓領域の抽出を行う対象である三次元断層画像と、第一の分類部120における第一の分類器のパラメータ、第二の分類部150における第二の分類器のパラメータを取得する。分類器のパラメータとは、分類器を機械学習に基づく学習を行い生成されたパラメータである。なお、分類器のパラメータの生成については、後述の学習工程で述べる。そして、取得部110は、取得した三次元断層画像を第一の分類部120および第二の分類部150に送信する。また、第一の分類部120における第一の分類器のパラメータを第一の分類部120に送信し、第二の分類部150における第二の分類器のパラメータを第二の分類部150に送信する。
ここで、図4を参照して三次元断層画像について説明する。図4は、第一の実施形態に係る画像処理装置100における三次元断層画像を構成する2つの断層画像を示している。図4(a)は体軸断層画像410であり、図4(b)は冠状断層画像420である。三次元断層画像には、肝臓450と心臓460が描出されている。
第一の分類部120は、取得部110から三次元断層画像と、第一の分類器のパラメータを取得する。次に、第一の分類部120は取得部110から取得した第一の分類器のパラメータに基づいて、第一の分類器を構成する。第一の分類部120における第一の分類器は2D−U−Netであるため、取得される第一の分類器のパラメータはネットワークの重みである。次に、2D−U−Netを利用することで三次元断層画像に対応する注目領域の抽出結果として第一の分類結果を得る。そして、第一の分類部120による第一の分類結果を特定部130、決定部140、統合部160に送信する。
本実施形態において、第一の分類結果は、複数の画素の夫々が注目領域に属する尤度を0以上1以下の画素値で表現した尤度画像である。例えば、当該注目領域らしい画素には1に近い値を、当該注目領域らしくない画素には0に近い値が割り当てられている。尤度画像は三次元断層画像と同じ画像サイズである。
なお、第一の分類結果は、注目領域らしさを表現できる画像であればいかなる画像であっても構わない。例えば、当該注目領域に属するか否かを二値の画素値で表現した二値マスク画像であってもよいし、各注目領域に関連付けられたラベル値を画素に割り当てた多値マスク画像であってもよいし、各注目領域を異なる範囲の画素値で表現した回帰画像であってもよい。回帰画像の場合、例えば第一の注目領域を1以上2未満、第二の注目領域を2以上3未満、その他の領域を0以上1未満の画素値で表現する。また、注目領域の抽出結果は、上述のように三次元断層画像と同じ画像サイズであってもよいし、異なる画像サイズであってもよい。即ち、第一の分類部120における第一の分類器は、第一の注目領域を表すクラスと、第二の注目領域を表すクラスとを少なくとも含む複数のクラスを分類するように学習した機械学習に基づく分類器であることを特徴とする。
本実施形態において、第一の分類部120における2D−U−Netは、三次元断層画像を構成する体軸断層画像のそれぞれを入力とし、入力された体軸断層画像の複数の画素のそれぞれを肝臓、心臓、その他の領域を表すクラスに分類する。第一の分類部120における2D−U−Netは、体軸断層画像に対応する肝臓領域の二次元尤度画像と心臓領域の二次元尤度画像を生成する。そして、第一の分類部120は三次元断層画像を構成する体軸断層画像の夫々に対応する注目領域(肝臓領域、心臓領域)の二次元尤度画像を積層することで、三次元断層画像に対応する注目領域の尤度画像を生成する。
特定部130は、第一の分類部120から注目領域の抽出結果である第一の分類結果を取得する。上述の通り、第一の分類結果は、肝臓領域を表す尤度画像と、心臓領域を表す尤度画像である。特定部130は、肝臓領域を表す尤度画像と心臓領域を表す尤度画像に基づいて、三次元断層画像のうち肝臓と心臓がともに描出されている一枚以上の体軸断層画像を特定する。そして、特定した体軸断層画像の情報である特定情報を決定部140に送信する。本実施形態において、特定情報は、三次元断層画像における当該体軸断層画像のスライスインデックスである。なお、特定情報は、断層画像の位置を特定できるものであればどのような情報でもよいため、例えば肝臓領域や心臓領域に含まれる画素の座標値などでもよい。決定部140は、特定部130から特定情報であるスライスインデックスを取得する。次に、スライスインデックスに基づいて、第二の分類部150の分類対象となる画像領域を決定する。そして、分類対象となる画像領域を示す情報を第二の分類部150と統合部160に送信する。本実施形態において、分類対象となる画像領域は、肝臓と心臓の境界を含むバウンディングボックスである。バウンディングボックスは複数の画素の座標値で表現されている。
また、特定部130から送信される特定情報は、断層画像を必ずしも特定する必要はない。例えば後述する第一の注目領域と第二の注目領域との相対位置や、第一の分類部120による分類結果に基づいて、第二の分類部150による分類対象とする画像領域が決定されればよい。即ち、画像領域は、第二の分類部150による分類対象とされる画像領域である第一の注目領域と第二の注目領域とを含む断層画像に基づいて、決定部140は分類対象とする画像領域を決定する。
第二の分類部150は、取得部110から三次元断層画像と、第二の分類器のパラメータを受信し、決定部140から分類対象となる画像領域を受信する。次に、第二の分類部150は取得部110から受信した第二の分類器のパラメータに基づいて、第二の分類器を構成する。第二の分類部150における第二の分類器は3D−U−Netである。そのため、第二の分類器のパラメータはネットワークの重みである。次に、三次元断層画像内の分類対象となる画像領域に対して3D−U−Netを利用することで、注目領域の抽出結果として第二の分類結果を得る。そして、注目領域の抽出結果を統合部160に送信する。ここで、第二の分類部150による注目領域の抽出結果である第二の分類結果は、上述した第一の分類部120による注目領域の抽出結果である第一の分類結果と同様の性質を持つ画像である。本実施形態において、第二の分類部150が抽出する注目領域は、肝臓領域である。すなわち、第二の分類部150は肝臓領域を注目領域として表す尤度画像を生成し、統合部160に送信する。また、尤度画像は分類対象となる画像領域と同じ画像サイズである。なお、尤度画像の画像サイズは、上述のように画像領域と同じ画像サイズであってもよいし、三次元断層画像と同じ画像サイズであってもよいし、その他の画像サイズであってもよい。
即ち、第一の分類部120における第一の分類器および第二の分類部150における第二の分類器は、分類結果を尤度で出力することを特徴とする。
統合部160は、決定部140から取得した画像領域を示す情報に基づいて、第一の分類部120から受信した尤度画像(第一の分類結果)と、第二の分類部150から受信する尤度画像(第二の分類結果)とを統合する。そして統合部160は、新たな尤度画像(第三の分類結果)を生成する。本実施形態では、セグメンテーションの注目物体が肝臓である。故に統合部160は、第一の分類部120から受信した第一の分類結果における肝臓領域の尤度画像と、第二の分類部150から受信した第二の分類結果における肝臓領域の尤度画像を統合する。そして統合部160は第三の分類結果として肝臓領域の新たな尤度画像を生成する。統合部160は、尤度に基づいた統合処理を行うことを特徴とする。即ち、本実施形態に記載の画像処理装置100は、三次元医用画像を取得する取得部110と、取得部110により取得された三次元医用画像を構成する複数の画素のそれぞれを、第一の注目領域を表すクラスを含む複数のクラスを分類するように学習した機械学習に基づく第一の分類器を用いて分類し、第一の分類結果を取得する第一の分類部120を有する。また画像処理装置100は、三次元医用画像から少なくとも第一の注目領域と第二の注目領域とを含む画像領域を分類対象とする画像領域として決定する決定部140を有する。画像処理装置100はさらに、決定部140によって決定された画像領域に含まれる複数の画素のそれぞれを、第一の注目領域を表すクラスと第二の注目領域を表すクラスのうち、少なくとも一方を含む複数のクラスを分類するように学習した機械学習に基づく第二の分類器を用いて分類し、第二の分類結果を取得する第二の分類部と、第一の分類結果と第二の分類結果とを統合して第三の分類結果を取得する統合部と、を有する。
また、第一の分類結果に基づいて、三次元医用画像から少なくとも第一の注目領域と、第二の注目領域とを含む断層画像を特定する特定部130を有し、決定部140は、特定部130によって特定された断層画像に基づいて分類対象とする画像領域を決定することを特徴とする。
以降では説明を簡易化するために、第一の分類部120によって得られた尤度画像をグローバル尤度画像と呼ぶ。また、第二の分類部150によって得られた尤度画像をローカル尤度画像と呼ぶ。さらに、統合部160で得られる統合後の尤度画像を統合尤度画像と呼ぶ。
なお、図1に示した画像処理装置100の各部の少なくとも一部は独立した装置として実現してもよい。また、夫々の機能を実現するソフトウェアとして実現してもよい。本実施形態では、各部は夫々ソフトウェアにより実現されているものとする。
(ハードウェア構成)
図2は画像処理装置100における推論時のハードウェア構成の一例を示す図である。CPU(Central Processing Unit)201は、主として各構成要素の動作を制御する。主メモリ202は、CPU201が実行する制御プログラムを格納したり、CPU201によるプログラム実行時の作業領域を提供したりする。磁気ディスク203は、OS(Operating System)、周辺機器のデバイスドライバ、後述する処理等を行うためのプログラムを含む各種アプリケーションソフトを実現するためのプログラムを格納する。CPU201が主メモリ202、磁気ディスク203等に格納されているプログラムを実行することにより、図1に示した画像処理装置100の機能(ソフトウェア)及び後述するフローチャートにおける処理が実現される。
表示メモリ204は、表示用データを一時記憶する。モニタ205は、例えばCRTモニタや液晶モニタ等であり、表示メモリ204からのデータに基づいて画像やテキスト等の表示を行う。マウス206及びキーボード207は、ユーザによるポインティング入力及び文字等の入力を夫々行う。上記各構成要素は、共通バス208により互いに通信可能に接続されている。
CPU201はプロセッサの一例に相当する。画像処理装置100は、CPU201に加えて、GPU(Graphics Processing Unit)やFPGA(Field−Programmable Gate Array)の少なくともいずれかを有していてもよい。また、CPU201に代えて、GPUやFPGAの少なくともいずれかを有していてもよい。主メモリ202、磁気ディスク203はメモリの一例に相当する。
(処理手順)
次に、本実施形態における画像処理装置100の処理手順について、図3を用いて一連のフローを説明する。
(ステップS310)
ステップS310において、取得部110は、記憶装置70から三次元断層画像と、第一の分類器のパラメータと、第二の分類器のパラメータを取得する。そして、取得部110は、取得した三次元断層画像を第一の分類部および第二の分類部に送信する。また、第一の分類器のパラメータを第一の分類部120に送信し、第二の分類器のパラメータを第二の分類部150に送信する。
(ステップS320)
ステップS320において、第一の分類部120は、取得部110から三次元断層画像と、第一の分類器のパラメータである2D−U−Netのネットワークの重みを取得する。次に、取得したネットワークの重みに基づいて、第一の分類器である2D−U−Netを構成する。次に、2D−U−Netを利用することで三次元断層画像から肝臓領域と心臓領域を抽出し、第一の分類結果として、肝臓領域のグローバル尤度画像と心臓領域のグローバル尤度画像を生成する。そして、グローバル尤度画像を特定部130、決定部140、統合部160に送信する。
本実施形態における2D−U−Netは、入力を受け取る入力層、入力から特徴を抽出するConvolution層やPooling層などの複数の中間層、抽出された特徴に基づいて画素ごとに領域を分類する出力層を連結することで構成される。取得部110から受信した2D−U−Netのネットワークの重みは、Convolution層におけるフィルタの値などが保持されており、これを用いて構成することで入力から特徴を抽出して所望の出力を得られるようになる。ここで、2D−U−Netの入力は二次元の画像である。そのため、ステップS320では、三次元断層画像を構成する体軸断層画像を1枚ずつ2D−U−Netに入力する。図4における体軸断層画像410は、2D−U−Netへの入力の一例を示している。次に、複数の中間層により入力である体軸断層画像に対する特徴を抽出して、特徴マップを生成する。そして、出力層により、特徴マップに対してSoftmax関数を適用することで、体軸断層画像410における複数の画素の夫々を肝臓、心臓、その他のクラスに分類し、肝臓領域と心臓領域の抽出結果を得る。すなわち、第一の分類部120における2D−U−Netにより体軸断層画像410に描出されている肝臓450のクラスに対する二次元尤度画像と、心臓460のクラスに対する二次元尤度画像を得る。上記の処理を第一の分類部120における2D−U−Netは、三次元断層画像を構成する体軸断層画像の夫々に対して実行する。そして、第一の分類部120はすべての体軸断層画像に対応する二次元尤度画像を積層することで、三次元断層画像に対応するグローバル尤度画像を生成する。
ここで、図8を参照して、第一の分類部120による注目領域である肝臓の抽出結果について説明する。図8(a)は第一の分類部120による肝臓領域のグローバル尤度画像の体軸断面の一例(肝臓領域のグローバル体軸尤度画像811)を表しており、図4(a)の体軸断層画像410に対応した肝臓領域の尤度画像である。同様に、図8(b)は第一の分類部120による肝臓領域のグローバル尤度画像の冠状断面の一例(肝臓領域のグローバル冠状尤度画像821)を表しており、図4(b)の冠状断層画像420に対応した肝臓領域の尤度画像である。同図は、肝臓領域の尤度が高い部分を淡色で表し、肝臓領域の尤度が低い部分を濃色で表している。同図において、点線860は真の心臓領域の境界を表している。ここで、注目すべきは心臓を誤抽出している領域871が存在することである。上述の通り、第一の分類部120は肝臓と心臓の境界付近において、画素を誤分類しやすい。図8はこの現象を表しており、第一の分類部120は、本来は心臓であるはずの画素を肝臓として誤分類している。このように、第一の分類部120は、三次元断層画像を構成する体軸断層画像の夫々から肝臓領域を抽出することができるが、肝臓と心臓の境界付近の体軸断層画像における肝臓領域の抽出精度が充分でないという特性を持つ。
なお、本実施形態において、第一の分類部120の分類器(第一の分類器)は2D−U−Netであったが、機械学習に基づく分類器であれば何でもよい。機械学習に基づく分類器には、例えば、上述したU−Net以外のCNNや他の深層学習技術、Support Vector Machne、AdaBoostなどがある。
例えば第一の分類器がSupport Vector Machineである場合、分類器のパラメータは識別関数の重みベクトルの値、およびカーネルトリックを用いる場合はカーネル関数のパラメータである。第一の分類器がAdaBoostである場合、分類器のパラメータは学習アルゴリズムにより選択された弱識別器、弱識別器のパラメータ、弱識別器に付与される重みである。これらの分類器を利用する場合、第一の分類部120は公知の方法で三次元断層画像から特徴を抽出し、抽出した特徴を分類器に入力することで、注目領域を抽出する。
分類器がCNNである場合、分類器のパラメータはネットワークの重みである。U−Netのように画像の形状を維持して出力するCNN(Fully Convolutional Networkに属するネットワーク)であれば、上述の2D−U−Netと同様の処理をすればよい。全結合層やGlobal Average Pooling層により画像の形状を維持しないCNNであれば、Support Vector Machineなどと同様に、三次元断層画像から公知の方法で特徴を抽出し、抽出した特徴をCNNに入力することで、注目領域を抽出する。
なお、第一の分類部120の入力となる画像に対して、画像サイズや解像度の変更や濃度値の正規化などの任意の前処理を行ってもよい。機械学習に基づく分類器では、入力となる画像に対して、学習時と同様の前処理を行った方が高精度な抽出結果が得られやすい。そのため、例えば、学習時に濃度値を平均0、分散1になるように正規化を行っていた場合は第一の分類部120の入力となる画像に対して同様の濃度値の正規化を行ってから、第一の分類部120に入力する。また、画像サイズについても、例えば、画像の幅w、高さhを[w、h]=[256、256]として分類器を学習していたならば、第一の分類部120の入力となる画像を、同様の画像サイズに変更してから第一の分類部120に入力する。
以上のように、第一の分類部120は、2D−U−Netを利用することで、第一の分類結果として、三次元断層画像に対応する肝臓領域と心臓領域のグローバル尤度画像を生成する。
(ステップS330)
ステップS330において、特定部130は、第一の分類部120から、第一の分類結果である三次元断層画像に対応する肝臓領域と心臓領域のグローバル尤度画像を受信する。そして、特定部130は、肝臓領域と心臓領域のグローバル尤度画像をもとに、肝臓領域と心臓領域がともに存在している体軸断層画像を特定することで、肝臓と心臓が描出されている可能性がある体軸断層画像を特定する。そして、特定した体軸断層画像のスライスインデックスを特定情報として決定部140に送信する。
ここで、ステップS330において肝臓と心臓がともに存在している体軸断層画像を特定する工程について説明をする。
まず、特定部130は、肝臓領域のグローバル尤度画像と心臓領域のグローバル尤度画像に対して、しきい値tを用いてしきい値処理をすることで、肝臓の一時的な領域マスクと心臓の一時的な領域マスクを生成する。例えば、しきい値t=0.5を用いて、注目領域の尤度が高い画素を1、注目領域の尤度が低い画素を0とすることで、夫々の注目領域を表す一時的な領域マスク画像を生成する。一時的な領域マスクには、孤立したノイズ領域が存在する可能性があり、肝臓領域と心臓領域がともに存在する体軸断層画像の特定精度が低下することがある。この場合、一時的な領域マスク内において、注目物体である肝臓領域や心臓領域は最大の領域成分として抽出されていると考えられるため、一時的な領域マスクの最大連結領域成分を取得することで、孤立したノイズ領域を削除する。
得られた肝臓の一時的な領域マスクと心臓の一時的な領域マスクについて、それぞれの一時的な領域マスクのスライスを体軸方向に走査し、肝臓領域と心臓領域がともに存在する1つ以上のスライスのインデックスを特定する。本実施形態では、肝臓領域と心臓領域がともに存在するすべてのスライスインデックスの集合を特定情報とする。以降では、スライスインデックスの集合によって示されている範囲を特定範囲と呼ぶ。以上のように、特定部130は、第一の分類部120から得た第一の注目領域である肝臓領域と第二の注目領域である心臓領域の抽出結果をもとに、2つの注目領域が同時に存在する体軸断層画像を特定する。
(ステップS340)
ステップS340において、決定部140は、第一の分類部120からグローバル尤度画像を受信する。また、特定部130から、特定情報である体軸断層画像のスライスインデックスの集合を受信する。そして、受信したスライスインデックスの集合に基づいて、第二の分類部150の分類対象となる画像領域を表現するバウンディングボックスを決定する。そして、バウンディングボックスを第二の分類部150に送信する。
本実施形態において、スライスインデックスの集合は、特定部130により肝臓領域と心臓領域がともに存在すると判定されたすべての体軸断層画像のスライスインデックスである。決定部140は、スライスインデックスの集合によって示される三次元断層画像中の範囲である特定範囲から第二の分類部150の分類対象となる画像領域を決定する。まず、決定部140は、肝臓領域のグローバル尤度画像と心臓領域のグローバル尤度画像における特定範囲の内部を対象として、肝臓領域と心臓領域を囲う最小のバウンディングボックスを決定する。バウンディングボックスは複数の座標値で表現されており、例えば[(x_0、y_0、z_0)、(x_1、y_1、z_1)]のように、バウンディングボックスを定義する直方体の対角を成す2つの頂点の座標値を持っている。さらに、第一の分類部120による注目領域の抽出結果(第一の分類結果)は、肝臓領域あるいは心臓領域が抽出不足となっている可能性もあるため、肝臓領域と心臓領域を囲う最小のバウンディングボックスに対して所定の余白を与えたバウンディングボックスを決定する。決定部140は、例えばx_0、x_1、y_0、y_1に物理空間における10mm分の画素を余白として与え、z_0、z_1に物理空間における15mm分の画素を余白として与える。このように、決定部140は、各々の座標値に対して所定の値による余白を与える。図8におけるバウンディングボックス730は、決定部140が決定した第二の分類部150の分類対象となる画像領域の一例である。
即ち、決定部140は、特定部130によって特定された断層画像に対して、第一の注目領域および第二の注目領域をすくなくとも含むバウンディングボックスを決定し、決定したバウンディングボックスに基づいて分類対象とする画像領域を決定することを特徴とする。以上のように、決定部140は、第二の分類部150の分類対象となる画像領域を示すバウンディングボックスを決定する。
(ステップS350)
ステップS350において、第二の分類部150は、取得部110から、三次元断層画像と第二の分類器のパラメータを受信する。そして、受信したパラメータに基づいて、第二の分類器を構成する。また、決定部140から、第二の分類部150の分類対象となる画像領域を表現するバウンディングボックスを受信する。次に、第二の分類器を利用することで、三次元断層画像における第二の分類部150の分類対象となる画像領域から注目領域として肝臓領域を抽出し、第二の分類結果として、肝臓領域のローカル尤度画像を生成する。そして、第二の分類部150により生成された肝臓領域のローカル尤度画像を統合部160に送信する。
本実施形態において、第二の分類部150で用いる第二の分類器は、3D−U−Netである。3D−U−Netは、上述の2D−U−Netと類似した構成となっている。相違点は、入力層が三次元画像を受け取ること、入力から特徴を抽出する中間層の処理の一部またはすべてが三次元処理により特徴抽出を行うことである。また、出力層の出力は入力された三次元画像に対応する三次元尤度画像である。
本実施形態において、決定部140から受信した画像領域は、バウンディングボックスを表現する複数の座標値である。そのため、第二の分類部150の入力となる画像の画像サイズに適合するように、三次元断層画像からバウンディングボックスで指定された画像領域を切り出して部分的な三次元断層画像を生成し、部分的な三次元断層画像の画像サイズを変更する。画像サイズの変更は、バイリニア補間やニアレストネイバー補間などの公知の画像補間方法を用いればよい。このようにして得られた画像サイズ変更後の部分的な三次元断層画像を3D−U−Netに入力する。次に、複数の中間層により入力である画像サイズ変更後の部分的な三次元断層画像に対する特徴を抽出して、特徴マップを生成する。そして、出力層により、特徴マップに対してSigmoid関数を適用することで、特徴マップの各画素を0〜1に正規化し、肝臓領域の抽出結果を得る。すなわち、画像サイズの変更後の部分的な三次元断層画像における肝臓領域の部分的な三次元尤度画像を得る。このようにして得られた肝臓領域の部分的な三次元尤度画像は、三次元断層画像とは異なる空間の尤度画像になっている。そのため、三次元断層画像と同一の空間になるように後処理を行う。具体的には、まず画像サイズ変更前の部分的な三次元断層画像と同じ画像サイズとなるように、部分的な三次元尤度画像の画像サイズを変更する。そして、三次元断層画像と同一サイズとなるように、部分的な三次元尤度画像の外側に画素をパディングし、肝臓領域のローカル尤度画像を生成する。パディングする画素の画素値は、例えば0にすればよい。
ここで、図8を参照して、第二の分類部150による肝臓の抽出結果について説明する。図8(c)は第二の分類部150による肝臓領域のローカル尤度画像の体軸断面の一例(肝臓領域のローカル体軸尤度画像812)を表しており、図4(a)の体軸断層画像410に対応した肝臓領域の尤度画像である。同様に、図8(d)は第二の分類部150による肝臓領域のローカル尤度画像の冠状断面の一例(肝臓領域のローカル冠状尤度画像822)を表しており、図4(b)の冠状断層画像420に対応した肝臓領域の尤度画像である。同図の通り、第二の分類部150は、バウンディングボックス730で示した画像領域の内側のみ抽出結果が得られる。第一の分類部120による抽出結果を示している図8(a)、図8(b)と比べると、第二の分類部150による抽出結果は、領域871のような真の心臓領域(点線860)への誤抽出が少ない(この図の例では、存在しない)ことがわかる。上述の通り、第二の分類部150は、バウンディングボックス730で示したような画像領域においては、第一の分類部120よりも肝臓領域の抽出精度が高い傾向にあるという特性を持つ。
なお、本実施形態において、第二の分類部150の分類器(第二の分類器)は3D−U−Netであったが、第一の分類部120と同様に、機械学習に基づく分類器であれば何でもよい。また、第二の分類部150の入力となる画像に対して、第一の分類部120と同様に、画像サイズの変更や濃度値の正規化などの任意の前処理を行ってもよい。
以上のように、第二の分類部150は、3D−U−Netを利用することで、第二の分類部150の分類対象となる画像領域から、第二の分類結果として、肝臓領域のローカル尤度画像を生成する。
(ステップS360)
ステップS360において、統合部160は、第一の分類部120から第一の分類結果であるグローバル尤度画像を受信する。また、第二の分類部150から、第二の分類結果であるローカル尤度画像を受信する。そして、決定部140から、第二の分類部150の分類対象となる画像領域を受信する。そして、統合部160は、決定部140から取得した第二の分類部150の分類対象となる画像領域に基づいて、グローバル尤度画像とローカル尤度画像を統合することで、第三の分類結果である統合尤度画像を生成する。本実施形態に係る画像処理装置は、肝臓を注目物体としているため、統合尤度画像は、肝臓領域の抽出結果である。そして、統合部160は、生成した統合尤度画像を記憶装置70に出力する。
本実施形態において、統合部160が第一の分類部120から受信するグローバル尤度画像は肝臓領域のグローバル尤度画像と心臓領域のグローバル尤度画像である。また、統合部160が第二の分類部150から受信するローカル尤度画像は、肝臓領域のローカル尤度画像である。統合部160では、これらの尤度画像を統合し、肝臓領域の統合尤度画像を生成する。上述の通り、第一の分類部120による肝臓のグローバル尤度画像は、肝臓と心臓の境界付近の領域の抽出精度が低い。つまり、第二の分類部150の分類対象となる画像領域における領域の抽出精度が低い。そのため、統合部160は当該画像領域に含まれる画素については、第二の分類部150による肝臓領域のローカル尤度画像の画素値(尤度)を用いる。また、統合部160は第二の分類部150の分類対象となる画像領域外の画素については、肝臓領域のグローバル尤度画像の画素値を用いることで、2つの尤度画像を統合する。即ち、統合部160は、三次元医用画像のうち画像領域に含まれる画素について第二の分類結果を用い、三次元医用画像のうち画像領域に含まれない領域には第一の分類結果を用いた統合を行い第三の分類結果を得ることを特徴とする。
肝臓領域のグローバル尤度画像の画素値をp_global^liver(i)、肝臓領域のローカル尤度画像の画素値をp_local^liver(i)、統合後の肝臓領域の尤度画像の画素値をp_merge_liver(i)としたとき、上記の統合方法は数1のように表される。
Figure 2021069793
ここで、Ω_localは第二の分類部150の分類対象である画像領域を表している。
以上のように、統合部160は、第一の分類部120で生成した第一の分類結果であるグローバル尤度画像と、第二の分類部150で生成した第二の分類結果であるローカル尤度画像を統合し、第三の分類結果である統合後の肝臓領域の尤度画像を生成する。
ここで、図8を参照して、統合部160で得られる肝臓領域の抽出結果について説明する。図8(e)は統合部160による肝臓領域の統合尤度画像の体軸断面の一例(肝臓領域の体軸断面の統合尤度画像813)を表しており、図4(a)の体軸断層画像410に対応した肝臓領域の尤度画像である。同様に、図8(f)は統合部160による肝臓領域の統合尤度画像の冠状断面の一例(肝臓領域の冠状断面の統合尤度画像823)を表しており、図4(b)の冠状断層画像420に対応した肝臓領域の尤度画像である。同図に示される肝臓領域の統合尤度画像は、図8(a)、図8(b)に示される肝臓領域のグローバル尤度画像と同様に肝臓領域の全体が抽出されている。ただし、バウンディングボックス730内は、図8(c)、図8(d)に示される肝臓領域のローカル尤度画像の画素値が反映されているため、領域871のような真の心臓領域(点線860)への誤抽出が少ない(この図の例では存在しない)。
以上の手順にしたがい、第一の実施形態に係る画像処理装置100は、三次元断層画像から肝臓領域を抽出する。
[学習工程]
次に、本実施形態に係る画像処理装置500の構成について説明する。
以下、図5を参照して本実施形態に係る画像処理装置500の機能構成について説明する。同図に示すように、画像処理装置500は、教示データ取得部510、第一の学習部520、第二の学習部530で構成される。また、本実施形態に係る分類器の学習を行う画像処理システムは、画像処理装置500の外部に記憶装置70を具備する。
教示データ取得部510は、記憶装置70から1つ以上の教示データを取得する。そして、教示データ取得部510は取得した教示データを第一の学習部520と第二の学習部530に送信する。以降では、教示データ取得部510が記憶装置70から取得した1つ以上の教示データを、教示データセットのマスターと呼ぶ。本実施形態において、教示データを構成する学習画像は学習用の三次元医用画像である三次元断層画像であり、正解画像は三次元断層画像に対応する注目領域を表すマスク画像である。図7を参照して、教示データについて説明する。図7(a)は、学習用の三次元医用画像(三次元断層画像)を構成する1つの断面(体軸断層画像710)を示している。また、図7(b)、図7(c)、図7(d)はそれぞれ、学習用の三次元医用画像内の体軸断層画像710に対応する肝臓領域の二次元の正解画像711、心臓領域の二次元の正解画像712、その他の領域の二次元の正解画像713を表している。肝臓領域の二次元の正解画像711には体軸断層画像710内に存在する肝臓750に対応する肝臓領域751が存在し、同様に心臓領域の二次元の正解画像713には心臓760に対応する心臓領域761が存在する。これらの正解画像は、2値画像であり、それぞれの正解画像間で重複した領域が存在しない。すなわち、肝臓領域の正解画像におけるある画素の画素値が1である場合に、心臓領域の正解画像およびその他の領域の正解画像の当該画素は必ず画素値が0となる。このような性質を持つため、その他の領域については、肝臓領域と心臓領域以外のすべての領域として表すことができるため、教示データ取得部510で取得しなくてもよい。第一の学習部520は、教示データ取得部510から教示データセットのマスターを受信する。次に、教示データセットのマスターを構成する教示データに対して、第一の学習範囲を設定し、第一の学習範囲にしたがって各教示データを前処理することで、第一の教示データセットを生成する。そして、第一の学習部520は第一の教示データセットを用いて第一の分類器を学習し、学習によって得られた第一の分類器のパラメータを記憶装置70に記録する。即ち、第一の分類部120における第一の分類器は、学習用の三次元医用画像に基づく第一の教示データセットによって学習された分類器から構成されることを特徴とする。
第一の学習範囲とは、教示データを構成する学習用の三次元医用画像において、第一の分類器の学習対象となる画像領域である。本実施形態では、学習用の三次元医用画像を構成する体軸断層画像のうち、肝臓領域と心臓領域のうち少なくとも一方が描出されている体軸断層画像を第一の学習範囲とする。画像処理装置500における第一の学習部520において学習を行う第一の分類器は、画像処理装置100における第一の分類部120における第一の分類器と同一の構成である。すなわち、第一の学習部520が学習する分類器は、2D−U−Netである。第一の学習部520は、2D−U−Netを学習することで、第一の分類器のパラメータである2D−U−Netのネットワークの重みを得る。
第二の学習部530は、教示データ取得部510から教示データセットのマスターを受信する。次に、教示データセットのマスターを構成する教示データに対して、第二の学習範囲を設定し、第二の学習範囲にしたがって各教示データを前処理することで、第二の教示データセットを生成する。そして、第二の教示データセットを用いて第二の分類器を学習し、学習によって得られた第二の分類器のパラメータを記憶装置70に記録する。即ち、第二の分類部150における第二の分類器は、学習用の三次元医用画像に基づく第二の教示データセットによって学習された分類器から構成されることを特徴とする。第二の学習範囲とは、第一の学習範囲と同様に、教示データを構成する学習用の三次元医用画像において、第二の分類器の学習対象となる画像領域である。本実施形態では、学習用の三次元医用画像内の肝臓領域と心臓領域の境界付近の局所的な画像領域を第二の学習範囲とする。故に、肝臓領域と心臓領域のうち少なくとも一方が描出されている体軸断層画像を対象とする第一の学習範囲に比べて、肝臓領域と心臓領域の境界付近の局所的な画像領域である第二の学習範囲は、学習用の三次元医用画像を構成する体軸断層画像における範囲が狭い。即ち、第一の教示データセットと、第二の教示データセットは、学習用の三次元医用画像における異なる学習範囲を対象とした教示データセットであることを特徴とする。また第二の教示データセットの学習範囲は、第一の教示データセットの学習範囲よりも狭い範囲を対象とした学習範囲であることを特徴とする。画像処理装置500における第二の学習部530が学習する第二の分類器は、画像処理装置100における第二の分類部150における第二の分類器と同一の構成である。すなわち、第二の学習部530が学習する分類器は、3D−U−Netである。第二の学習部530は、3D−U−Netを学習することで、第二の分類器のパラメータである3D−U−Netのネットワークの重みを得る。なお、図5に示した画像処理装置500の各部の少なくとも一部は独立した装置として実現してもよい。また、夫々の機能を実現するソフトウェアとして実現してもよい。本実施形態では、各部は夫々ソフトウェアにより実現されているものとする。
画像処理装置500におけるハードウェア構成は、図2に示した推論時のハードウェア構成と同様であるため、説明を省略する。
(処理手順)
次に、本実施形態における画像処理装置500の処理手順について、図6を用いて説明する。
(ステップS610)
ステップS610において、教示データ取得部510は記憶装置70から1つ以上の教示データを受信することで、教示データセットのマスターを構成する。そして、教示データセットのマスターを第一の学習部520と第二の学習部530に送信する。
(ステップS620)
ステップS620において、第一の学習部520は、教示データ取得部510から教示データセットのマスターを受信する。次に、教示データセットのマスターを構成する教示データである学習用の三次元医用画像対して第一の学習範囲を設定し、第一の学習範囲にしたがって各教示データセットを前処理することで、第一の教示データセットを生成する。そして、第一の教示データセットを用いて第一の分類器を学習し、学習によって得られた第一の分類器のパラメータを記憶装置70に記録する。
以下では、図6(b)を用いて、ステップS620の詳細を説明する。
(ステップS621)
ステップS621において、第一の学習部520は、第一の分類器である2D−U−Netの学習対象となる第一の学習範囲を設定する。
本実施形態において第一の学習範囲は、教示データを構成する学習用の三次元医用画像において、肝臓領域と心臓領域のうち少なくとも一方が描出されている体軸断層画像である。そのため、本ステップでは、教示データを構成する肝臓領域の正解画像と心臓領域の正解画像をそれぞれ体軸断層画像ごとに走査し、肝臓の正解領域または心臓の正解領域が存在する体軸断層画像のスライスインデックスの集合を得る。このスライスインデックスの集合を2D−U−Netの学習対象となる第一の学習範囲として設定する。すべての教示データについて、同様の処理を行い、教示データごとに第一の学習範囲を設定する。
(ステップS622)
ステップS622において、第一の学習部520は、ステップS621で設定した第一の学習範囲に基づいて、教示データセットのマスターから第一の教示データセットを生成する。
ここで、第一の学習部520はステップS621において、教示データセットのマスターに含まれる教示データである学習用の三次元医用画像ごとに第一の学習範囲を設定した。そのため、本ステップでは、教示データごとに第一の学習範囲に含まれる体軸断層画像と、体軸断層画像に対応する二次元の正解画像とを抜き出すことでそれぞれの部分画像を生成し、これを新たな教示データとすることで、第一の教示データセットを構成する。したがって、第一の教示データセットは、肝臓領域と心臓領域のうち少なくとも一方が存在する画像のみで構成される。
(ステップS623)
ステップS623において、第一の学習部520は、第一の教示データセットを用いて、第一の分類器を学習する。そして、学習によって得られた第一の分類器のパラメータを、記憶装置70に記録する。
本実施形態において、第一の学習部520で学習をする第一の分類器は2D−U−Netであり、第一の分類器のパラメータは2D−U−Netのネットワークの重みである。
そのため、本ステップでは2D−U−Netに対して教示データを体軸断層画像ごとに入力し、公知の方法である誤差逆伝播法により、ネットワークの重みを更新する。この更新処理を、第一の教示データに含まれるすべてまたは一部の教示データを用いて1回以上行うことで、三次元断層画像から肝臓領域と心臓領域を抽出する2D−U−Netのネットワークの重みが得られる。
なお、第一の分類器がSupport Vector MachineやAdaBoostなどの場合においても、第一の教示データセットを用いて、公知の方法で分類器のパラメータを決定すればよい。各々の分類器のパラメータは上述の通りである。
以上のように、第一の学習部520は、教示データセットを用いて第一の分類器である2D−U−Netを学習し、学習によって得られた2D−U−Netのネットワークの重みを記憶装置70に記録する。
なお、以上の説明では、第一の学習範囲を、肝臓領域と心臓領域のうち、少なくとも一方が存在する体軸断層画像としたが、これに限らない。例えば、学習用の三次元医用画像を構成するすべての体軸断層画像を第一の学習範囲としてもよい。つまり、教示データセットのマスターと第一の教示データセットは同一となる。このように第一の学習範囲を設定した場合、肝臓領域と心臓領域の少なくとも一方が存在する範囲だけで学習するよりも、肝臓領域と心臓領域が存在しない体軸断層画像において、孤立したノイズ領域を抽出することが低減される。その他、三次元断層画像から肝臓領域の全体を抽出できるような学習範囲であれば、いかなる学習範囲を設定してもよい。
(ステップS630)
ステップS630において、第二の学習部530は、教示データ取得部510から教示データセットのマスターを受信する。次に、教示データセットのマスターを構成する教示データに対して第二の学習範囲を設定し、第二の学習範囲にしたがって各教示データセットを前処理することで、第二の教示データセットを生成する。そして、第二の教示データセットを用いて第二の分類器を学習し、学習によって得られた第二の分類器のパラメータを記憶装置70に記録する。
以下では、図6(c)を用いて、ステップS630の詳細を説明する。
(ステップS631)
ステップS631において、第二の学習部530は、第二の分類器である3D−U−Netの学習対象となる第二の学習範囲を設定する。本実施形態において第二の学習範囲は、教示データを構成する学習用の三次元医用画像において、肝臓領域と心臓領域の境界付近の局所的な画像領域である。第一の学習範囲は肝臓領域と心臓領域の少なくとも一方が存在する体軸断層画像であったため、学習用の三次元医用画像における第二の学習範囲は第一の学習範囲よりも狭い。そのため、本ステップでは、まず教示データを構成する肝臓領域の正解画像と心臓領域の正解画像をそれぞれ体軸断層画像ごとに走査し、肝臓の正解領域または心臓の正解領域が同時に存在する複数の体軸断層画像を得る。その後、肝臓の正解領域と心臓の正解領域が同時に存在する複数の体軸断層画像について、肝臓の正解領域と心臓の正解領域を囲う最小のバウンディングボックスを決定する。この肝臓の正解領域と心臓の正解領域を囲う最小のバウンディングボックスが第二の学習範囲である。すべての教示データについて、同様の処理を行い、教示データごとに第二の学習範囲を設定する。
(ステップS632)
ステップS632において、第二の学習部530は、ステップS631で設定した第二の学習範囲に基づいて、教示データセットのマスターから第二の教示データセットを生成する。
ここで、ステップS631において、教示データセットのマスターに含まれる教示データごとに第二の学習範囲を設定した。そのため、本ステップでは、教示データごとに第二の学習範囲に含まれる画素を抜き出すことで学習用の三次元医用画像と正解画像の部分画像を生成し、これを新たな教示データとすることで、第二の教示データセットを構成する。これにより、肝臓と心臓の境界付近の部分画像で構成される第二の教示データセットが得られる。
図7におけるバウンディングボックス730は、本ステップで生成される部分画像を表す画像領域である。バウンディングボックス730の内部には肝臓と心臓が描出されており、2つの臓器の境界が存在する。
(ステップS633)
ステップS633において、第二の学習部530は、第二の教示データセットを用いて、第二の分類器を学習する。そして、学習によって得られた第二の分類器のパラメータを、記憶装置70に記録する。
本実施形態において、第二の分類器は3D−U−Netであり、第二の分類器のパラメータは3D−U−Netのネットワークの重みである。学習についてはステップS623と同様である。
以上のように、第二の学習部530は、教示データセットを用いて3D−U−Netを学習し、学習によって得られた3D−U−Netのネットワークの重みを記憶装置70に記録する。
なお、ステップ632において、第二の学習範囲に含まれる画素のみから部分画像を1つ生成したが、第二の学習範囲に余白を追加して、部分画像を生成してもよい。例えば、第二の学習範囲を[(x_0、y_0、z_0)、(x_1、y_1、z_1)]としたときに、x_0、x_1、y_0、y_1に対して物理空間における0〜10mm分の画素、z_0、z_1に対して物理空間における0〜15mm分の画素の余白をランダムに与えてもよい。もちろん各座標に対して固定値の余白を与えてもよい。また、余白を変更して複数の部分画像を生成してもよい。これにより、教示データを水増しすることができるため、分類器のロバスト性を向上させることができる。以上の手順にしたがい、第一の実施形態に係る画像処理装置500は、画像処理装置100における第一の分類部120の第一の分類器と、第二の分類部150の第二の分類器の、それぞれの分類器のパラメータを生成する。
(第一の分類器のバリエーション)
上述のように、本実施形態に係る第一の分類部120は、三次元医用画像に含まれる複数の画素のそれぞれを肝臓(第一の注目領域)、心臓(第二の注目領域)、その他に分類する3クラスの分類器であった。しかしながら、第一の分類部120の構成はこれに限らない。例えば、三次元医用画像を構成する複数の画素のそれぞれを肝臓かその他に分類する2クラスの分類器と、三次元医用画像を構成する複数画素のそれぞれを心臓かその他に分類する2クラスの分類器とを組み合わせるなど、第一の分類部120における第一の分類器は複数の分類器で構成されてもよい。それ以外にも、複数の画素のそれぞれを肝臓、心臓、肺、その他に分類するような3クラス以上の分類器を用いてもよい。また、第一の分類部120が分類するクラスは、上記に例示したクラスでなくてもよい。
上述のように、本実施形態に係る第一の分類部120における第一の分類器は、二次元画像の一例である体軸断層画像を入力として、入力された体軸断層画像に対応する注目領域の抽出結果を出力する分類器であった。しかしながら、第一の分類部120の入出力はこれに限らない。例えば、三次元断層画像を入力として、三次元断層画像に対応する注目領域の抽出結果を出力する分類器でもよい。また、第一の分類部120における第一の分類器は三次元断層画像を構成する部分的な三次元断層画像を入力として、部分的な三次元断層画像に対応する注目領域の抽出結果を出力する分類器であってもよい。また、上記のような体軸断層画像を入力とする分類器ではなく、冠状断層画像や矢状断層画像などの任意の断面の断層画像を入力とする分類器であってもよい。
(第二の分類器のバリエーション)
上述のように、本実施形態に係る第二の分類部150における第二の分類器は、三次元医用画像に含まれる複数の画素のそれぞれを肝臓(第一の注目領域)かその他に分類する2クラスの分類器であった。しかしながら、第二の分類部150の構成はこれに限らない。例えば第二の分類部150における第二の分類器は、三次元医用画像を構成する複数の画素のそれぞれを心臓(第二の注目領域)かその他に分類する2クラスの分類器であってもよい。この場合、統合部160は、第一の分類部120により得られた肝臓領域のグローバル尤度画像と、第二の分類部150により得られた心臓領域のローカル尤度画像を統合する。統合方法は、例えば、数2で統合すればよい。
Figure 2021069793
ここで、p_local^heart(i)は心臓領域のローカル尤度画像の画素値であり、sは画素値に対するしきい値である。この数式は、画像領域内のある画素について、第二の分類部150が心臓領域の尤度が高いと推定した場合に、第二の分類部150が推定した心臓領域の尤度から肝臓領域の尤度を算出することを意味している。
また、第二の分類部150は、複数の画素のそれぞれを肝臓、心臓、その他のクラスに分類する2クラス以上の分類器で構成してもよいし、肝臓かその他のクラスに分類する2クラスの分類器と、心臓かその他に分類する2クラスの分類器とを組み合わせるなど、複数の分類器で構成してもよい。即ち、第二の分類部150における複数の分類器は、少なくとも第一の注目領域を表すクラスを含む複数のクラスを分類するように学習した機械学習に基づく分類器と、第二の注目領域を表すクラスを含む複数のクラスを分類するように学習した機械学習に基づく分類器を含むことを特徴とする。これらの場合、統合部160は、セグメンテーションの注目物体である肝臓の領域の抽出結果が得られるような統合方法であればいかなる方法であってもよい。例えば、第一の分類器による肝臓領域のグローバル尤度画像と、第二の分類器による肝臓領域のローカル尤度画像のみを用いて統合してもよいし、肝臓領域のグローバル尤度画像と心臓領域のローカル尤度画像のみを用いて、数2で統合してもよい。また、第二の分類部150が分類するクラスは、上記に例示したクラスでなくてもよい。即ち、画像処理装置100における第二の分類部150は、複数の分類器から構成されることを特徴とする。
上述のように、本実施形態に係る第二の分類部150における第二の分類器は、三次元断層画像における部分的な三次元断層画像を入力として、注目領域の抽出結果を出力する分類器であった。しかしながら、第二の分類部150の入出力はこれに限らない。例えば、第二の分類部150における第二の分類器は三次元断層画像あるいは部分的な三次元断層画像を構成する二次元断層画像を入力として、二次元断層画像に対応する注目領域の抽出結果を出力する分類器でもよい。この場合は、二次元断層画像に対応する注目領域の抽出結果を積層することで、三次元断層画像に対する注目領域の抽出結果を生成する。
また、第一の分類部120が、第一の注目領域と、第一の注目領域に隣接する複数の注目領域を抽出する場合、第二の分類部150は隣接する注目領域ごとに異なる複数の分類器で構成されていてもよい。例えば、第一の分類部120が第一の注目領域(肝臓)、第一の注目領域に隣接する第二の注目領域(心臓)、第二の注目領域とは異なる第一の注目領域に隣接する第三の注目領域(小腸)を抽出する場合を例に挙げる。この場合、特定部130は、夫々の組み合わせ(肝臓と心臓、肝臓と小腸)について、第一の分類結果に基づき、夫々の臓器が同時に描出されている可能性がある体軸断層画像を特定する。また、決定部140は、夫々の組み合わせ(肝臓と心臓、肝臓と小腸)について、第二の分類部150の分類対象となる画像領域を決定する。そして、第二の分類部150は、第一の注目領域と第二の注目領域を分類する分類器と、第一の注目領域と第三の注目領域を分類する分類器で構成されており、夫々が分類対象とする画像領域に対して第二の分類を実行する。これにより、誤分類が生じやすい隣接物体が複数存在する場合にも、高精度に抽出できるようになる。
(決定部のバリエーション)
上述のように、本実施形態に係る決定部140は、特定範囲内の肝臓領域と心臓領域を囲う最小のバウンディングボックスに対して、定数の余白を与えることで、第二の分類部150の分類対象となる画像領域を決定したが、これに限らない。例えば、第一の分類部120における肝臓領域の抽出結果が、心臓領域を誤抽出する傾向にあるのであれば、決定部140は特定範囲内の肝臓領域と心臓領域を囲う最小のバウンディングボックスに対して余白を与えなくてもよい。その他にも、第二の分類部150の入力となる画像サイズに適合するように、バウンディングボックスを決定してもよい。この場合は、第二の分類部150において、画像サイズの変更は行わなくてもよい。また、定数の余白を与える場合、分類器を学習する際に用いた余白を考慮して、余白の値を設定してもよい。例えば、第二の学習部530において、第二の学習範囲[(x_0、y_0、z_0)、(x_1、y_1、z_1)]に対して、x_0、x_1、y_0、y_1は物理空間における0〜10mm分の画素の余白をランダムに与えたとする。この場合、例えば余白の平均値である5mmを用いてもよいし、最大値である10mmをもちいてもよい。このようにすることで、学習時における分類器の学習範囲と、推論時における分類器の分類対象となる画像領域を合わせることができるため、分類器が持つ性能を発揮することができる。
(統合部のバリエーション)
上述のように、本実施形態に係る統合部160は、第二の分類部150の分類対象となる画像領域について、第二の分類部150で得られた尤度画像のみを用いて統合したが、第一の分類部120で得られた尤度画像も用いて統合してもよい。例えば、第二の分類部150の分類対象となる画像領域の端の画素は第一の分類部120により得られた尤度画像の画素値を用い、画像領域の内部は第二の分類部150により得られた尤度画像の画素値を用いてもよい。このようにすることで、第二の分類部150の分類器が、画像領域の端の抽出精度が低い場合に、良好な結果が得られるように統合することができる。また、第二の分類部150の分類対象となる画像領域に含まれる画素に対して、第一の分類部120で得られた尤度画像の画素値と、第二の分類部150で得られた尤度画像の画素値を重み付き平均して統合(重み付き平均値統合)してもよい。この場合、例えば第二の分類部150で得られた肝臓領域の尤度画像の画素値への重みを0.75、第一の分類部120で得られた肝臓領域の尤度画像の画素値への重みを0.25とする。このようにすると、当該画像領域について、第二の分類部150により得られる肝臓領域の抽出結果をより重視することができる。その他にも、当該画像領域の各画素について、第一の分類部120で得られた肝臓領域の尤度画像の画素値と、第二の分類部150で得られた肝臓領域の尤度画像の画素値を比較し、最大値(または最小値)を選択する最大値統合(最小値統合)を行ってもよい。また、第一の分類部120で得られた肝臓領域の尤度画像と、第二の分類部150で得られた肝臓領域の尤度画像を、それぞれしきい値処理することでマスク画像を生成し、当該画像領域に含まれる画素に対して、論理積(または論理和)を取ることで統合してもよい。第一の分類部120が誤抽出する傾向にある場合、論理積で統合することで、誤抽出を抑制できる。逆に、第一の分類部120が抽出不足の傾向にある場合、論理和で統合することで抽出不足を抑制できる。
即ち、統合部160は三次元医用画像のうち画像領域に含まれる画素について、第一の分類結果と第二の分類結果とを、重み付き平均値統合、最大値統合、論理和統合、論理積統合のうち、いずれかの統合手段により第三の分類結果を取得することを特徴とする。
(画像処理装置のバリエーション)
上述のように、本実施形態に係る画像処理装置100は、特定部130において、肝臓領域と心臓領域がともに存在する体軸断層画像を特定するが、当該体軸断層画像が特定できない場合は、処理を終了し、第一の分類部120の抽出結果を最終出力としてもよい。
上述のように、本実施形態に係る第一の分類部120、第二の分類部150、統合部160は、注目領域の抽出結果として尤度画像を出力するが、これに限らない。例えば、尤度画像に対してしきい値処理することで、注目領域のマスク画像を生成し、これを注目領域の抽出結果として出力してもよい。さらに、注目領域のマスク画像に対して、最大連結領域成分を取得することで、孤立するノイズ領域を削除してもよい。また、各部の処理の後に公知の画像処理手段により各領域を精緻化してもよい。例えば、注目領域の抽出結果が三次元断層画像における輪郭に沿うように、グラフカット法やLevel Set法を後処理に加えてもよい。グラフカット法の場合、例えば注目領域の抽出結果である尤度画像をもとに、前景領域、背景領域、未確定領域によって表現されるトライマップを生成する。そして、グラフを構築し、グラフを構成する各エッジに対してエネルギーを付与し、公知の方法で最小カットを行うことで、領域を分割する。Level Set法の場合、尤度画像に対してしきい値処理を行い、初期領域を定義する。そして、エネルギーを定義し、公知の方法によりエネルギーを最小化することで領域を分割する。これにより、より輪郭に沿った注目領域の抽出結果が得られる。
以上に示したように、三次元断層画像から注目物体(肝臓)の領域を抽出できる第一の分類器と、第一の分類器が領域抽出を失敗しやすい特定範囲に特化した第二の分類器とを利用することで、高精度に注目領域を抽出することができる。
<第二の実施形態>
第一の実施形態では、第一の分類部において、第一の注目領域と第二の注目領域を抽出し、2つ注目領域の抽出結果に基づいて、2つの注目領域が同時に存在する二次元断層画像を特定することで、誤分類しやすい画像領域を決定した。しかし、人体の構造物のように、第一の注目領域と第二の注目領域の位置関係が概ね決まっている場合には、2つの注目領域の相対位置に関する事前情報に基づいて、誤分類が生じやすい箇所を特定することができる。例えば、肝臓領域(第一の注目領域)は、心臓領域(第二の注目領域)の下部に接している。このような相対位置に関する事前情報を用いると、第一の分類部120が第一の注目領域しか抽出しない場合でも、特定部130は第一の注目領域と第二の注目領域がともに描出されている可能性がある体軸断層画像を特定することができる。本実施形態では、上記のように注目領域間の相対位置に関する事前情報と、第一の分類部120による第一の注目領域の抽出結果を用いることで、特定部130が第一の注目領域と第二の注目領域がともに描出されている可能性がある体軸断層画像を特定でき、特定部130による特定情報に基づいて、決定部140は第二の分類部の分類対象となる画像領域を決定する例を説明する。即ち、画像処理装置100において、取得部110は、第一の注目領域と、第二の注目領域との相対位置に関する事前情報をさらに取得し、特定部130は、第一の分類結果と、相対位置に関する事前情報に基づいて、第一の注目領域と第二の注目領域とを含む断層画像を特定することを特徴とする。
本実施形態では、最初に第一の分類部120における第一の分類器により、三次元断層画像から肝臓領域を抽出する。次に、特定部130は、第一の分類部120によって抽出された肝臓領域と、相対位置に関する事前情報に基づいて、肝臓と心臓がともに存在する可能性がある体軸断層画像を特定する。さらに、決定部140は特定部130が特定した体軸断層画像を基準として、第二の分類器の入力となる画像領域を決定し、第二の分類部150における第二の分類器によって画像領域から肝臓領域を抽出する。そして、最後に第一の分類器によって抽出した肝臓領域と、第二の分類器によって抽出した肝臓領域とを統合して、統合後の肝臓領域の抽出結果を生成する。
本実施形態では、第一の分類部120における第一の分類器と第二の分類部150における第二の分類器は2D−U−Netを用いる。これらは、それぞれ異なるネットワークの重みによって構成される。
以降では、三次元断層画像内の相対位置を指す際に、人体の頭側を上、人体の脚側を下と表現する。
本実施形態に係る画像処理装置の構成は、第一の実施形態に係る画像処理装置100と同じである。以下では、図1を参照して、本実施形態に係る画像処理装置の機能構成について、第一の実施形態に係る画像処理装置との重複部分を省略して説明する。
以下では、画像処理装置100を構成する各部について説明する。
取得部110が行う処理は、第一の実施形態における取得部110と同様である。
第一の分類部120は、第一の実施形態における第一の分類部120と概ね同様であるが、次の点で異なる。本実施形態において、第一の分類部120が抽出する注目領域は、肝臓領域のみである。すなわち、第一の分類部120は、第一の分類結果として、肝臓領域を表す尤度画像を生成する。
特定部130は、第一の分類部120から、第一の分類結果である肝臓領域の尤度画像を受信し、記憶装置から肝臓と心臓の相対位置に関する情報を受信する。そして、肝臓(第一の注目領域)と心臓(第二の注目領域)との相対位置に関する事前情報と、第一の分類部120から受信した肝臓領域の尤度画像とに基づいて、肝臓と心臓がともに描出されている可能性がある1枚以上の体軸断層画像を特定する。そして、特定した体軸断層画像の情報である特定情報を決定部140に送信する。本実施形態において、特定情報は肝臓領域の上端が存在する1枚の体軸断層画像のスライスインデックスである。
決定部140は、特定部130から特定情報であるスライスインデックスを受信する。次に、受信したスライスインデックスと、肝臓と心臓との相対位置に関する事前情報とに基づいて、第二の分類部150の分類対象となる画像領域を決定する。そして、分類対象となる画像領域を第二の分類部150と統合部160に送信する。本実施形態において、第二の分類部150の分類対象となる画像領域は、三次元断層画像を構成する複数枚の体軸断層画像を表すスライスインデックスである。すなわち、決定部140は、特定部130が特定した肝臓領域の上端が存在する体軸断層画像を基準に、肝臓領域と心臓領域が同時に存在する可能性がある複数の体軸断層画像を選択し、選択した複数の体軸断層画像のスライスインデックスを画像領域として決定する。
第二の分類部150は、取得部110から三次元断層画像と、第二の分類器のパラメータを受信し、決定部140から第二の分類部150による分類対象となる画像領域である複数枚の体軸断層画像のスライスインデックスを受信する。次に、第二の分類部150は、第二の分類器のパラメータであるネットワークの重みに基づいて2D−U−Netを構成する。そして、2D−U−Netを利用して、複数枚の体軸断層画像から注目領域である肝臓領域を抽出し、第二の分類結果として、肝臓領域のローカル尤度画像を生成する。最後に、肝臓領域のローカル尤度画像を統合部160に送信する。
統合部160が行う処理は、第一の実施形態における統合部160と同様である。
(処理手順)
次に、本実施形態における画像処理装置100の処理手順について、図3を用いて説明する。なお、本処理手順では上述した図3のステップと同様のステップにおいては、説明を省略し、異なる点においてのみ説明する。
(ステップS310)
ステップS310の処理は、第一の実施形態におけるステップS310と同一の処理であるため、説明を省略する。
(ステップS320)
ステップS320の処理は、第一の実施形態におけるステップS320と次の点で異なる。本実施形態における第一の分類部120は、三次元断層画像から第一の注目領域である肝臓領域を抽出する。つまり、心臓領域は抽出しない。
第一の分類部120で利用する第一の分類器である2D−U−Netは、三次元断層画像を構成する二次元断層画像から、肝臓領域を抽出するように学習したネットワークの重みによって構成される。第一の分類部120で利用する第一の分類器のパラメータであるネットワークの重みは、三次元断層画像から肝臓領域を抽出するように学習することによって得られたものである。
(ステップS330)
ステップS330において、特定部130は、第一の分類部120から肝臓領域の抽出結果である肝臓領域のグローバル尤度画像を受信する。そして、肝臓領域のグローバル尤度画像と、肝臓領域と心臓領域の相対的な位置関係に関する事前情報をもとに、肝臓領域と心臓領域がともに存在している可能性がある体軸断層画像を特定する。これにより、肝臓と心臓が描出されている可能性がある体軸断層画像を特定する。そして、特定した体軸断層画像のスライスインデックスを、特定情報として決定部140に送信する。
本実施形態において、相対的な位置関係に関する事前情報は、肝臓の上に心臓が存在しているという人体内部における上下の関係である。そのため、肝臓の上端が存在する体軸断層画像を特定することで、肝臓と心臓が同時に存在する体軸断層画像を特定することができる。したがって、特定部130は、肝臓領域の抽出結果を利用することで、肝臓の上端が存在する体軸断層画像を特定する。
本実施形態において、肝臓領域の抽出結果は、肝臓領域の尤度画像である。そのため、まず、特定部130は、これらの尤度画像に対して、しきい値t=0.5を用いてしきい値処理をすることで、肝臓の一時的な領域マスクを生成する。これらの一時的な領域マスクには、孤立したノイズ領域が存在する可能性があるため、肝臓領域の上端を特定する精度が低下することがある。この場合は、一時的な領域マスクの最大連結領域成分を取得することで、孤立したノイズ領域を削除してもよい。
以上のように、特定部130は、第一の注目領域と、第一の注目領域と第二の注目領域の位置関係に関する事前情報とを利用することで、2つの注目領域が同時に存在し得る体軸断層画像を特定する。
(ステップS340)
ステップS340において、決定部140は、特定部130から特定情報であるスライスインデックスを受信する。次に、スライスインデックスと、肝臓と心臓との相対位置に関する事前情報とに基づいて、第二の分類部150の分類対象となる画像領域を決定する。そして、分類対象となる画像領域を第二の分類部150と統合部160に送信する。
本実施形態において、特定部130から得られる特定情報は、第一の分類部120が抽出した肝臓領域の上端を表すスライスインデックスである。本来、肝臓と心臓が接している境界は、肝臓の上端よりも下のスライスに存在するはずである。そのため、本実施形態では、決定部140はこの事前情報を利用して第二の分類部150の分類対象の画像領域を決定する。しかし、第一の分類器による第一の分類結果は肝臓領域の上端が抽出不足になっている可能性がある。そのため、肝臓領域の上端の体軸断層画像を基準として、特定部130で特定した肝臓領域の上端の誤差を考慮した所定の範囲にあるすべての体軸断層画像を第二の分類部150の分類対象の画像領域として決定部140が決定をしてもよい。所定の範囲は、例えば物理空間において頭側に25mm、脚側に75mmのように設定する。決定部140は、上述の処理によって決定した複数の体軸断層画像のスライスインデックスを画像領域として決定する。
以上のように、決定部140は第二の分類部150の分類対象となる体軸断層画像のスライスインデックスを画像領域として決定する。
(ステップS350)
ステップS350において第二の分類部150は、取得部110から三次元断層画像と第二の分類器のパラメータを受信する。また、決定部140から第二の分類部による分類対象となる画像領域である複数枚の体軸断層画像のスライスインデックスを受信する。次に、第二の分類部150は、第二の分類器のパラメータであるネットワークの重みに基づいて2D−U−Netを構成する。この分類器のパラメータは、第一の分類部120における第一の分類器のパラメータとは異なり、肝臓と心臓の境界付近の画像領域を用いて学習した結果である。そのため、第一の分類部120の2D−U−Netよりも、当該画像領域における注目領域の抽出精度が高くなることが期待できる。そして、第二の分類部150は、第二の分類器としてこの2D−U−Netを利用して、複数枚の体軸断層画像から注目領域である肝臓領域を抽出し、第二の分類結果として、肝臓領域のローカル尤度画像を生成する。最後に、肝臓領域のローカル尤度画像を統合部160に送信する。注目領域の抽出処理は、ステップS350と同様である。すなわち、分類対象となる画像領域に含まれる各体軸断層画像を2D−U−Netに入力することで、第二の分類部150による分類対象となる画像領域における注目領域のローカル尤度画像を生成する。
(ステップS360)
ステップS360の処理は、第一の実施形態におけるステップS360と同一の処理であるため、説明を省略する。
以上の手順にしたがい、第二の実施形態に係る画像処理装置100は、三次元断層画像から肝臓領域を抽出する。
なお、第一の分類部120および第二の分類部150における夫々の分類器の学習については、第一の実施形態と同様に、画像処理装置500の第一の学習部520および第二の学習部530により、各々の学習範囲に基づいて各々の教示データセットを生成し、各々の分類器を学習すればよい。
すなわち、第一の分類部120の第一の分類器は、第一の実施形態における第一の学習部520と同一の分類器に対して肝臓領域を対象とした教示データを用いた学習処理をすることで、第一の分類器のパラメータを得る。一方、第二の分類部150の第二の分類器は、第二の学習部530において、教示データを構成する肝臓の正解領域に基づいて、肝臓の上端が存在する体軸断層画像を特定し、特定された体軸断層画像を基準として第二の学習範囲を設定する。そして、第二の学習部530において、第二の学習範囲に基づいて第二の教示データセットを生成し、所定の方法で第二の分類部150の分類器を学習する。なお、本実施形態において、第二の分類部150は2D−U−Netであるため、本実施形態における第二の分類部150の分類器は、第一の実施形態における第一の分類部120と同様に、体軸断層画像ごとに入力して学習する。
(分類器のバリエーション)
上述のように、本実施形態に係る第一の分類部120は、画像に含まれる複数の画素のそれぞれを肝臓(第一の注目領域)か否かを分類する2クラスの分類器であった。しかしながら、第一の分類部120における第一の分類器の構成はこれに限らない。例えば、第一の実施形態における第一の分類部120における第一の分類器のように3クラス以上を分類する分類器を用いてもよい。
なお、本発明を実施する際の分類器の組み合わせは、いかなる組み合わせでもよい。例えば、第一の実施形態のように、第一の分類部120の第一の分類器は二次元処理により注目領域を抽出し、第二の分類部150の第二の分類器は三次元処理により注目領域を抽出してもよい。また、第二の実施形態のように、第一の分類部120の第一の分類器および第二の分類部150の第二の分類器は、両者ともに二次元処理により注目領域を抽出する分類器であってもよい。その他にも、第一の分類部120の第一の分類器および第二の分類部150の第二の分類器を、両者ともに三次元処理をする分類器としたものでもよいし、それ以外の組み合わせでもよい。
(特定部と決定部のバリエーション)
第一の分類部120が抽出する領域の中に第二の注目領域が含まれている場合、特定部130は第二の注目領域の抽出結果と、第一の注目領域と第二の注目領域の相対位置に関する事前情報とに基づいて、断層画像を特定してもよい。例えば、第一の分類部120が第一の注目領域である肝臓領域と、第二の注目領域である心臓領域を抽出する場合、心臓領域の下部に肝臓領域が存在するという事前情報を用いることで、特定部130は、2つの注目領域が存在する可能性がある断層画像を特定できる。
上述のように、本実施形態に係る特定部130および決定部140は、事前情報として上下の位置関係を用いたが、これに限らない。例えば、第一の分類部120の抽出結果において肝臓における左葉の先端付近(画像の右側)の抽出精度が低い場合、特定部130は第一の分類部120が抽出した肝臓領域の右端を表す矢状断層画像(二次元断層画像のひとつ)を特定する。そして、決定部140は特定部130が特定した矢状断層画像を基準として、第二の分類部150の分類対象となる画像領域を決定する。この場合、第二の分類部150は左葉の先端付近のみに特化した学習済み分類器を用いる。その他にも、第一の分類部120が誤分類しやすい部分を特定できるような相対位置に関する事前情報であればどのような情報を用いてもよい。また、相対位置に関する事前情報以外にも、濃度値などの別の事前情報を用いてもよい。肝臓領域に隣接している臓器として右腎領域を例に挙げる。右腎領域は肝臓領域の下端付近に存在するが、被験者によって右腎領域の位置が異なる。そのため、例えば肝臓領域の下端から所定の距離内に右腎領域が存在するという相対位置に関する事前情報と、右腎領域の濃度値に関する事前情報を用いることで、特定部130は、2つの注目領域が同時に存在する可能性がある断層画像を特定する。その他、第二の注目領域に関する相対位置に関する事前情報以外のいかなる事前情報を用いてもよい。
(第二の実施形態の効果)
以上に示したように、三次元断層画像から注目物体(肝臓)の領域を抽出できる第一の分類部120における第一の分類器と、第一の分類器が領域抽出を失敗しやすい特定範囲に特化した第二の分類部150における第二の分類器とを利用することで、高精度に注目領域を抽出することができる。
<第三の実施形態>
第一の実施形態および第二の実施形態における第二の分類部150における第二の分類器は、三次元断層画像における特定範囲を学習することで得られる分類器のパラメータによって構成される。しかしながら、画像における特定範囲を学習させた分類器を用いて分類を行う場合、特定範囲の端に近い領域の抽出精度が低下することがある。
特定範囲の端に近い領域の抽出精度の低下は、第二の分類部150における第二の分類器を学習するための第二の教示データセットに、特定範囲の端における注目領域の形状のバリエーションが十分に含まれないことにより発生することがある。
例えば、第二の実施形態における第二の分類部150の分類器のように、肝臓の上端が存在する体軸断層画像を基準として第二の学習範囲を設定した場合を考える。第二の学習範囲は、第一の分類部120における第一の分類器で抽出された肝臓領域の上端が存在する体軸断層画像を中心として、物理空間における−25mm〜+75mmの範囲にあるすべての体軸断層画像とする。この場合、第二の学習範囲を設定する上での基準となる肝臓の上端は、必ず教示データセットに含まれるが、例えば肝臓の上端よりも下に存在する左葉の先端などは教示データセットの中に入ることもあれば入らないこともある。つまり、第二の学習範囲の端に表れる可能性がある左葉の先端は、第二の教示データセットに十分に含まれないため、左葉の先端のバリエーションを十分に学習できず、領域の抽出精度が低下することがある。
この例に限らず、第二の分類部150における第二の分類器の第二の学習範囲が、三次元断層画像内の局所的な範囲を対象とする以上、上述のような問題は生じ得る。
上述の問題への対策として、第二の分類部150における第二の分類器に対する第二の学習範囲を拡張することが考えられる。
しかし、学習範囲を拡張していくほど、第一の分類部における分類器と類似した性質になっていき、肝臓領域と心臓領域の境界付近における誤分類が生じやすくなる。また、最適な学習範囲が存在しない場合もしばしばある。上述の問題に対して、本実施形態では、第二の分類部150において異なる学習範囲で学習した複数の分類器を利用して対処する方法を例示する。説明を簡易にするために、本実施形態では、第二の実施形態に係る画像処理装置100をベースとして、本実施形態に係る画像処理装置を構成する。具体的には、第二の分類部150で、肝臓の上端を基準とした学習範囲で学習した分類器a(第二の実施形態における第二の分類部150の第二の分類器と同一)と、分類器aの学習範囲内の最も脚側(以降では、下端)の体軸断層画像を基準とした学習範囲で学習した分類器bを用いる。
つまり、本実施形態に係る画像処理装置は、第二の実施形態に係る画像処理装置100に対して、分類器bを新たに追加した構成となっている。この構成の変更に伴い、決定部140は特定部130が特定した特定情報をもとに、分類器aと分類器bの夫々の分類対象となる画像領域を決定する。便宜上、以降では分類器aと分類器bの分類対象となる画像領域をそれぞれ画像領域aと画像領域bと呼ぶ。ここで、画像領域bは、画像領域aにおける脚側の一部の領域(以降では、下部と呼ぶ)と重複している。すなわち、分類器bは画像領域aの下部付近に存在する画像領域bに特化した分類器である。即ち、第二の分類部150における複数の分類器は、学習用の三次元医用画像におけるそれぞれ異なる学習範囲を対象とした教示データセットによって学習された分類器から構成されることを特徴とする。
本実施形態に係る画像処理装置の構成は、第二の実施形態に係る画像処理装置100と同じである。以下では、図1を参照して、本実施形態に係る画像処理装置の機能構成について、第二の実施形態に係る画像処理装置との重複部分を省略して説明する。以下では、画像処理装置100を構成する各部について説明する。
取得部110は、記憶装置70から三次元断層画像と、第一の分類部120における第一の分類器のパラメータ、第二の分類部150における分類器aと分類器bのそれぞれのパラメータを取得する。そして、取得部110は、取得した三次元断層画像を第一の分類部120および第二の分類部150に送信する。また、第一の分類部120における分類器のパラメータを第一の分類部120に送信し、第二の分類部150における分類器のパラメータを第二の分類部150に送信する。
第一の分類部120が行う処理は、第二の実施形態における第一の分類部120と同様である。
特定部130が行う処理は、第二の実施形態における特定部130と同様である。
決定部140は、特定部130から特定情報であるスライスインデックスを受信する。次に、受信したスライスインデックスと、肝臓と心臓との相対位置に関する事前情報とに基づいて、第二の分類部150における分類器aの分類対象となる画像領域aを決定する。
さらに、画像領域aに基づいて分類器bの分類対象となる画像領域bを決定する。そして、分類器aおよび分類器bの夫々の分類対象となる画像領域aおよび画像領域bを第二の分類部150と統合部160に送信する。
本実施形態において、第二の分類部150によって分類対象となる画像領域は、三次元断層画像を構成する複数枚の体軸断層画像を表すスライスインデックスである。すなわち、決定部140は、特定部130が特定した肝臓領域の上端が存在する体軸断層画像を基準に、肝臓領域と心臓領域とが同時に存在する可能性がある複数の体軸断層画像を選択し、複数の体軸断層画像のスライスインデックスを画像領域aとして決定する。そして、画像領域aの下端に存在する体軸断層画像を基準に、複数枚の体軸断層画像を選択し、決定した複数枚の体軸断層画像を表すスライスインデックスを画像領域bとして決定する。
第二の分類部150は、取得部110から三次元断層画像と、分類器aと分類器bのパラメータを受信し、決定部140から分類器aと分類器bの分類対象となる画像領域を受信する。次に、第二の分類部150は、取得部110から受信した分類器aと分類器bのパラメータに基づいて、分類器aと分類器bをそれぞれ構成する。第二の分類部150における2つの分類器は2D−U−Netである。そのため、それぞれの分類器のパラメータはネットワークの重みである。次に、画像領域aに対して、分類器aの2D−U−Netを利用して注目領域を抽出し、肝臓領域のローカル尤度画像を生成する。同様に画像領域bに対して、分類器bの2D−U−Netを利用して注目領域を抽出し、肝臓領域のローカル尤度画像を生成する。そして、2つの分類器の肝臓領域のローカル尤度画像を統合部160に送信する。
ここで、図10を参照して、画像領域aと画像領域bについて説明する。図10は三次元断層画像を構成する冠状断層画像1020を示している。分類器aの分類対象となる画像領域a1030と、分類器bの分類対象となる画像領域b1040は重複した画像領域(画像領域c1070)が存在している。上述の通り、画像領域a1030は、第一の分類部120による肝臓領域の抽出結果の上端が存在する体軸断層画像を基準に決定されている。また、画像領域b1040は、画像領域a1030の下端に存在する体軸断層画像を基準に決定されている。本実施形態において、第二の分類部150における分類器aおよび分類器bが抽出する注目領域は肝臓領域であり、それぞれの分類器は肝臓領域のローカル尤度画像を生成する。第二の分類部150における分類器aは、画像領域aと同等の範囲で学習して得られた分類器のパラメータによって構成されている。第二の分類部150における分類器bは、画像領域b1040同等の学習範囲で学習して得られた分類器のパラメータによって構成されている。
統合部160は、決定部140から受信した画像領域aと画像領域bに基づいて、第一の分類部120における分類器が生成したグローバル尤度画像と、第二の分類部150における三次元医用画像において異なる学習範囲で学習した分類器aと分類器bがそれぞれ生成したローカル尤度画像とを統合し、統合尤度画像を生成する。本実施形態では、セグメンテーションの対象となる注目物体が肝臓である。そのため、統合部160は第一の分類部120における分類器が生成した肝臓領域のグローバル尤度画像と、第二の分類部150における分類器aおよび分類器bがそれぞれ生成した肝臓領域のローカル尤度画像とを統合することで、肝臓領域の統合尤度画像を生成する。即ち、統合部160は分類器の学習範囲に応じた統合処理を行うことを特徴とする。
(処理手順)
次に、本実施形態における画像処理装置100の処理手順について、図9を用いて説明する。
(ステップS910)
ステップS910において、取得部110は記憶装置70から三次元断層画像と、第一の分類部120における分類器のパラメータと、第二の分類部150における分類器aと分類器bのそれぞれのパラメータを取得する。
(ステップS920)
ステップS920の処理は、第二の実施形態におけるステップS320と同一の処理であるため、説明を省略する。
(ステップS930)
ステップS930の処理は、第二の実施形態におけるステップS330と同一の処理であるため、説明を省略する。
(ステップS940)
ステップS940において、決定部140は、特定部130から特定情報としてスライスインデックスを受信する。次に、受信したスライスインデックスと、肝臓と心臓との相対位置に関する事前情報とに基づいて、第二の分類部150における分類器aの分類対象となる画像領域aを決定する。さらに、画像領域aに基づいて分類器bの分類対象となる画像領域bを決定する。そして、分類器aおよび分類器bの夫々の分類対象となる画像領域aおよび画像領域bを第二の分類部150と統合部160に送信する。
本実施形態において第二の分類部150の分類器aは、第二の実施形態における第二の分類部150の分類器と同一である。そのため、画像領域aは第二の実施形態における決定部140の処理と同一の処理で決定する。つまり、肝臓の上端を基準として、頭側に25mm、脚側に75mmの範囲にあるすべて体軸断層画像のスライスインデックスを画像領域aとして決定する。次に、画像領域aに基づいて、画像領域bを決定する。本実施形態は、画像領域aの下端に表れる肝臓領域(左葉の先端など)の抽出精度の低さの改善を目的として分類器bを利用するため、画像領域aの下端に存在する体軸断層画像を基準として画像領域bを決定する。具体的には、まず決定部140は画像領域aの下端に存在する体軸断層画像を取得する。次に、この体軸断層画像を中心として所定の範囲に含まれるすべての体軸断層画像を選択し、選択したすべての体軸断層画像のスライスインデックスを画像領域bとして決定する。所定の範囲は、例えば頭側に50mm、脚側に50mmのように設定する。以上のように、決定部140は第二の分類部150における分類器aおよび分類器bのそれぞれの分類対象となる画像領域aおよび画像領域bを決定する。
(ステップS950)
ステップS950において、第二の分類部150は、取得部110から三次元断層画像と、分類器aと分類器bのパラメータを受信し、決定部140から分類器aと分類器bの分類対象となる画像領域aおよび画像領域bを受信する。次に、取得部110から受信した分類器aと分類器bのパラメータに基づいて、分類器aと分類器bをそれぞれ構成する。次に、画像領域aに対して、分類器aを利用して肝臓領域を抽出し、画像領域aに対する肝臓のローカル尤度画像を生成する。同様に画像領域bに対して、分類器bを利用して注目領域を抽出し、画像領域bに対する肝臓のローカル尤度画像を生成する。そして、2つの分類器で得られた肝臓領域のローカル尤度画像を統合部160に送信する。本実施形態において、第二の分類部150における分類器aおよび分類器bは2D−U−Netである。そのため、本ステップでは第二の実施形態における第二の分類部150と同様の処理手順により、第二の分類部150における分類器aおよび分類器bを利用して、画像領域aおよび画像領域bからそれぞれ肝臓領域を抽出し、肝臓のローカル尤度画像を生成する。ここで、分類器aと分類器bの特性を述べる。分類器aのパラメータは、肝臓と心臓の境界付近の画像領域を学習範囲(画像領域aと同等の範囲)として設定し、学習した結果であるため、第一の分類部120の第一の分類器である2D−U−Netよりも、当該画像領域における注目領域の抽出精度が高いことが期待できる。しかし、分類器aは、画像領域aの下端付近に表れる肝臓領域の抽出精度が低いことがある。一方で、分類器bのパラメータは、分類器aの学習範囲の下端を中心とした学習範囲(画像領域bと同等の範囲)で学習した結果であるため、画像領域aの下端付近における注目領域に対する抽出精度が高いことが期待できる。
以上のように、第二の分類部150は、分類器a(2D−U−Net)を利用することで、画像領域aに対応する肝臓領域のローカル尤度画像を生成する。同様に、分類器b(2D−U−Net)を利用することで、画像領域bに対応する肝臓領域のローカル尤度画像を生成する。
(ステップS960)
ステップS960において、統合部160は決定部140から受信した画像領域aと画像領域bに基づき、第一の分類部120が生成した肝臓領域グローバル尤度画像と、第二の分類部150が生成した肝臓領域のローカル尤度画像とを統合する。そして、統合後の肝臓領域の尤度画像を生成する。
本実施形態において、統合部160は、まず画像領域aについて、第二の分類部150の分類器aと分類器bで得られたそれぞれのローカル尤度画像を用いて画素ごとに重み付き平均値統合する。上述の通り、分類器aは、画像領域aの下端付近の注目領域の抽出精度が低い。そのため、例えば、画像領域aの下端付近では、分類器aで得られたローカル尤度画像の画素値への重みを相対的に小さくすることで、分類器bで得られたローカル尤度画像の画素値(尤度)をより重視する。ただし、画像領域a内の画像領域bと重複していない画像領域については、分類器aで得られたローカル尤度画像の画素値のみを用いる。次に、画像領域b内の画像領域aと重複していない画像領域について、分類器bで得られたローカル尤度画像と第一の分類部120で得られたグローバル尤度画像を用いて画素ごとに重み付き平均値統合する。分類器aと同様に、分類器bも画像領域bの端付近の注目領域の抽出精度が低くなることが考えられる。そのため、例えば、画像領域bの下端付近では、分類器bで得られたローカル尤度画像の画素値への重みを相対的に小さくすることで、第一の分類部120で得られたグローバル尤度画像の画素値をより重視する。最後に、残りの画像領域(画像領域aと画像領域b以外の画像領域)について、第一の分類部120で得られたグローバル尤度画像の画素値のみを用いて統合する。このような処理を行うことで、夫々の尤度画像を統合し、統合尤度画像を生成する。なお、統合部160による統合方法は、上述の方法に限らず、第一の実施形態に記載した統合方法のいずれを用いてもよい。また、複数の統合方法を組み合わせて統合してもよい。例えば、ある画像領域(画像領域a)では重み付き平均値統合を用い、別の画像領域(画像領域b内の画像領域aと重複していない画像領域)では論理和統合を用いるなどが考えられる。その他、各分類器の学習範囲や特性を考慮した統合方法であれば、いかなる方法であってもよい。
以上のように、統合部160は、第一の分類部120の第一の分類器が生成した肝臓領域のグローバル尤度画像と、第二の分類部150の分類器aおよび分類器bが生成した肝臓領域のローカル尤度画像を統合して、肝臓領域の統合尤度画像を生成する。
以上の手順にしたがい、第三の実施形態に係る画像処理装置100は三次元断層画像から肝臓領域を抽出する。
第一の分類部120の第一の分類器および第二の分類部150の分類器aの学習は、第二の実施形態と同様である。第二の分類部150の分類器bの学習は、第二の分類部150の分類器aの学習範囲の下端を中心とした学習範囲(画像領域bと同等の局所的な範囲)を設定し、分類器b用の教示データセットを生成し、所定の方法で分類器を学習すればよい。
以上に示したように、三次元断層画像から注目物体(肝臓)の領域を抽出できる第一の分類器と、第一の分類器が領域抽出を失敗しやすい特定範囲に特化した複数の第二の分類器とを利用することで、高精度に注目領域を抽出することができる。
100 画像処理装置
110 取得部
120 第一の分類部
130 特定部
140 決定部
150 第二の分類部
160 統合部

Claims (20)

  1. 三次元医用画像を取得する取得部と、
    前記取得部により取得された前記三次元医用画像を構成する複数の画素のそれぞれを、第一の注目領域を表すクラスを含む複数のクラスを分類するように学習した機械学習に基づく第一の分類器を用いて分類し、第一の分類結果を取得する第一の分類部と、
    前記第一の分類結果に基づいて、前記三次元医用画像から少なくとも前記第一の注目領域と、第二の注目領域とを含む画像領域を分類対象とする画像領域として決定する決定部と、
    前記決定部により決定された前記画像領域に含まれる複数の画素のそれぞれを、前記第一の注目領域を表すクラスと前記第二の注目領域を表すクラスのうち、少なくとも一方を含む複数のクラスを分類するように学習した機械学習に基づく第二の分類器を用いて分類し、第二の分類結果を取得する第二の分類部と、
    前記第一の分類結果と前記第二の分類結果とを統合して第三の分類結果を取得する統合部と、
    を有することを特徴とする画像処理装置。
  2. 前記第一の分類結果に基づいて、前記三次元医用画像から少なくとも前記第一の注目領域と、前記第二の注目領域とを含む断層画像を特定する特定部を有し、
    前記決定部は、特定部によって特定された断層画像に基づいて、前記分類対象とする画像領域を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第一の分類器および前記第二の分類器は深層学習に基づいて学習された分類器であることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第一の分類部における前記第一の分類器および前記第二の分類部における前記第二の分類器は分類結果を尤度で出力することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記第一の注目領域と、前記第二の注目領域が互いに隣接した領域であることを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。
  6. 前記第一の分類部における第一の分類器は、前記第一の注目領域を表すクラスと、前記第二の注目領域を表すクラスとを少なくとも含む複数のクラスを分類するように学習した機械学習に基づく分類器であることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記取得部は、前記第一の注目領域と、前記第二の注目領域との相対位置に関する事前情報をさらに取得し、
    前記特定部は、前記第一の分類結果と、前記相対位置に関する事前情報に基づいて、前記第一の注目領域と前記第二の注目領域とを含む断層画像を特定することを特徴とする請求項2に記載の画像処理装置。
  8. 前記第一の分類部における前記第一の分類器は、学習用の三次元医用画像に基づく第一の教示データセットによって学習された分類器から構成され、
    前記第二の分類部における前記第二の分類器は、前記学習用の三次元医用画像に基づく第二の教示データセットによって学習された分類器から構成されることを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
  9. 前記第一の教示データセットと、前記第二の教示データセットは前記学習用の三次元医用画像における異なる学習範囲を対象とした教示データセットであることを特徴とする請求項8に記載の画像処理装置。
  10. 前記第二の分類部は複数の分類器から構成されることを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。
  11. 前記第二の分類部における複数の分類器は、少なくとも前記第一の注目領域を表すクラスを含む複数のクラスを分類するように学習した機械学習に基づく分類器と、前記第二の注目領域を表すクラスを含む複数のクラスを分類するように学習した機械学習に基づく分類器を含むことを特徴とする請求項10に記載の画像処理装置。
  12. 前記第二の分類部における複数の分類器は、学習用の三次元医用画像におけるそれぞれ異なる学習範囲を対象とした教示データセットによって学習された分類器から構成されることを特徴とする請求項10に記載の画像処理装置。
  13. 前記第二の教示データセットの学習範囲は、前記第一の教示データセットの学習範囲よりも狭い範囲を対象とした学習範囲であることを特徴とする請求項9に記載の画像処理装置。
  14. 前記統合部は、前記尤度に基づいた統合処理を行うことを特徴とする請求項4に記載の画像処理装置。
  15. 前記統合部は、前記分類器の学習範囲に応じた統合処理を行うことを特徴とする請求項9または12に記載の画像処理装置。
  16. 前記統合部は、前記三次元医用画像のうち前記分類対象とする画像領域に含まれる画素について前記第二の分類結果を用い、前記三次元医用画像のうち前記分類対象とする画像領域に含まれない領域には前記第一の分類結果を用いて統合を行い、前記第三の分類結果を取得することを特徴とする請求項1乃至15のいずれか一項に記載の画像処理装置。
  17. 前記統合部は、前記三次元医用画像のうち前記分類対象とする画像領域に含まれる画素について、前記第一の分類結果と前記第二の分類結果とを、重み付き平均値統合、最大値統合、論理和統合、論理積統合のうち、いずれかの統合手段により前記第三の分類結果を取得することを特徴とする請求項1乃至15のいずれか一項に記載の画像処理装置。
  18. 前記決定部は、前記特定部によって特定された前記断層画像に対して、前記第一の注目領域および前記第二の注目領域をすくなくとも含むバウンディングボックスを決定し、決定したバウンディングボックスに基づいて前記分類対象とする画像領域を決定することを特徴とする請求項1乃至17のいずれか一項に記載の画像処理装置。
  19. 三次元医用画像を取得する取得ステップと、
    前記三次元医用画像を構成する複数の画素のそれぞれを、第一の注目領域を表すクラスを含む複数のクラスを分類するように学習した機械学習に基づく第一の分類器を用いて分類し、第一の分類結果を取得する第一の分類ステップと、
    前記第一の分類結果に基づいて、前記三次元医用画像から少なくとも第一の注目領域と第二の注目領域とを含む画像領域を分類対象とする画像領域として決定する決定ステップと、
    前記決定ステップにより決定された前記画像領域に含まれる複数の画素のそれぞれを、前記第一の注目領域を表すクラスと前記第二の注目領域を表すクラスのうち、少なくとも一方を含む複数のクラスを分類するように学習した機械学習に基づく第二の分類器を用いて分類し、第二の分類結果を取得する第二の分類ステップと、
    前記第一の分類結果と前記第二の分類結果とを統合して第三の分類結果を取得する統合ステップと、
    を有することを特徴とする画像処理方法。
  20. 請求項19に記載の画像処理方法をコンピュータで実行するためのプログラム。
JP2019199101A 2019-10-31 2019-10-31 画像処理装置、画像処理方法およびプログラム Active JP7410619B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019199101A JP7410619B2 (ja) 2019-10-31 2019-10-31 画像処理装置、画像処理方法およびプログラム
US17/077,909 US11417000B2 (en) 2019-10-31 2020-10-22 Image processing system, image processing method, and non-transitory storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019199101A JP7410619B2 (ja) 2019-10-31 2019-10-31 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2021069793A true JP2021069793A (ja) 2021-05-06
JP2021069793A5 JP2021069793A5 (ja) 2022-10-27
JP7410619B2 JP7410619B2 (ja) 2024-01-10

Family

ID=75687503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019199101A Active JP7410619B2 (ja) 2019-10-31 2019-10-31 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US11417000B2 (ja)
JP (1) JP7410619B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023146141A1 (ko) * 2022-01-27 2023-08-03 한국과학기술연구원 인공 지능을 이용하여 의료 영상에서 병변을 판단하는 방법, 이를 수행하는 인공 지능 신경망 시스템 및 이를 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11144748B2 (en) * 2018-12-07 2021-10-12 IOT Technology, LLC. Classification system
JP6716765B1 (ja) * 2018-12-28 2020-07-01 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、プログラム
CN110276408B (zh) * 2019-06-27 2022-11-22 腾讯科技(深圳)有限公司 3d图像的分类方法、装置、设备及存储介质
JP7486349B2 (ja) * 2020-05-28 2024-05-17 キヤノン株式会社 ニューラルネットワーク、ニューラルネットワークの学習方法、プログラム、画像処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015036123A (ja) * 2013-08-09 2015-02-23 株式会社東芝 医用画像処理装置、医用画像処理方法及び分類器トレーニング方法
JP2018175343A (ja) * 2017-04-12 2018-11-15 富士フイルム株式会社 医用画像処理装置および方法並びにプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680307B2 (en) * 2005-04-05 2010-03-16 Scimed Life Systems, Inc. Systems and methods for image segmentation with a multi-stage classifier
JP2010166238A (ja) * 2009-01-14 2010-07-29 Seiko Epson Corp 画像形成装置、画像形成方法、及び印刷データ生成プログラム
US9161041B2 (en) * 2011-01-09 2015-10-13 Mediatek Inc. Apparatus and method of efficient sample adaptive offset
WO2013103893A1 (en) * 2012-01-05 2013-07-11 General Instrument Corporation Devices and methods for multipass sample adaptive offset coding
US10413253B2 (en) * 2014-11-21 2019-09-17 Samsung Electronics Co., Ltd. Method and apparatus for processing medical image
WO2017165538A1 (en) * 2016-03-22 2017-09-28 Uru, Inc. Apparatus, systems, and methods for integrating digital media content into other digital media content
US10432972B2 (en) * 2016-10-19 2019-10-01 Google Llc Guided offset correction for loop restoration in video coding
JP6657132B2 (ja) 2017-02-27 2020-03-04 富士フイルム株式会社 画像分類装置、方法およびプログラム
JP2018175227A (ja) * 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
JP6906347B2 (ja) * 2017-04-10 2021-07-21 富士フイルム株式会社 医用画像分類装置、方法およびプログラム
US20190122104A1 (en) * 2017-10-19 2019-04-25 General Electric Company Building a binary neural network architecture
US10592779B2 (en) * 2017-12-21 2020-03-17 International Business Machines Corporation Generative adversarial network medical image generation for training of a classifier
CN110335269A (zh) * 2018-05-16 2019-10-15 腾讯医疗健康(深圳)有限公司 眼底图像的类别识别方法和装置
CN109410220B (zh) * 2018-10-16 2019-12-24 腾讯科技(深圳)有限公司 图像分割方法、装置、计算机设备及存储介质
JP6716765B1 (ja) * 2018-12-28 2020-07-01 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、プログラム
CN112639865B (zh) * 2019-01-15 2024-05-14 奥林巴斯株式会社 图像处理系统、学习完毕模型和图像处理方法
JP2020170408A (ja) * 2019-04-04 2020-10-15 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
US20210012162A1 (en) * 2019-07-09 2021-01-14 Shenzhen Malong Technologies Co., Ltd. 3d image synthesis system and methods
US11151407B2 (en) * 2019-08-27 2021-10-19 Aidoc Medical Ltd System for detecting an adapted image
CN110827195B (zh) * 2019-10-31 2023-09-22 北京达佳互联信息技术有限公司 虚拟物品添加方法、装置、电子设备及存储介质
US11276166B2 (en) * 2019-12-30 2022-03-15 GE Precision Healthcare LLC Systems and methods for patient structure estimation during medical imaging
US20220059221A1 (en) * 2020-08-24 2022-02-24 Nvidia Corporation Machine-learning techniques for oxygen therapy prediction using medical imaging data and clinical metadata

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015036123A (ja) * 2013-08-09 2015-02-23 株式会社東芝 医用画像処理装置、医用画像処理方法及び分類器トレーニング方法
JP2018175343A (ja) * 2017-04-12 2018-11-15 富士フイルム株式会社 医用画像処理装置および方法並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023146141A1 (ko) * 2022-01-27 2023-08-03 한국과학기술연구원 인공 지능을 이용하여 의료 영상에서 병변을 판단하는 방법, 이를 수행하는 인공 지능 신경망 시스템 및 이를 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체

Also Published As

Publication number Publication date
US20210133977A1 (en) 2021-05-06
JP7410619B2 (ja) 2024-01-10
US11417000B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
JP7410619B2 (ja) 画像処理装置、画像処理方法およびプログラム
Huang et al. Fast and fully-automated detection and segmentation of pulmonary nodules in thoracic CT scans using deep convolutional neural networks
AU2018225145B2 (en) Detection of prostate cancer in multi-parametric MRI using random forest with instance weighting and MR prostate segmentation by deep learning with holistically-nested networks
US11593943B2 (en) RECIST assessment of tumour progression
US9931790B2 (en) Method and system for advanced transcatheter aortic valve implantation planning
US20200265632A1 (en) System and method for real-time rendering of complex data
JP6333265B2 (ja) 3dコンピュータ断層撮影のための複数の骨のセグメンテーションの方法
JP5868231B2 (ja) 医用画像診断支援装置、医用画像診断支援方法ならびにコンピュータプログラム
KR101835873B1 (ko) 의료 이미지들의 분할 불확실성의 계산 및 시각화를 위한 시스템들 및 방법들
JP2021002338A (ja) 画像セグメンテーション及び識別のための方法及びシステム
JP6716765B1 (ja) 画像処理装置、画像処理システム、画像処理方法、プログラム
JP2011526508A (ja) 医療用画像の領域分割
JP2020166809A (ja) モデル学習用のシステム、装置、及び学習方法
JP2006034585A (ja) 画像表示装置、画像表示方法およびそのプログラム
JP2007530088A (ja) オブジェクト特有のセグメンテーション
Ravichandran et al. 3D inception U-Net for aorta segmentation using computed tomography cardiac angiography
JP6041781B2 (ja) 医用画像処理装置およびその作動方法並びに医用画像処理プログラム
KR20220001985A (ko) 진단 영상에서 심층신경망을 이용한 국소종양진행을 진단하기 위한 장치 및 이를 위한 방법
Admane et al. Multi-stage Lung Cancer Detection and Prediction using Image Processing Techniques
Hatt et al. A Convolutional Neural Network Approach to Automated Lung Bounding Box Estimation from Computed Tomography Scans
JP2024025980A (ja) プログラム、情報処理装置、情報処理方法、情報処理システム及び学習モデルの生成方法
Militzer Boosting Methods for Automatic Segmentation of Focal Liver Lesions
Othman Intelligent Medical Image Segmentation Using Evolving Fuzzy Sets
JP2018027302A (ja) 画像処理装置、磁気共鳴イメージング装置及び画像処理プログラム
El-Baz et al. Research Article Automatic Detection of 2D and 3D Lung Nodules in Chest Spiral CT Scans

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R151 Written notification of patent or utility model registration

Ref document number: 7410619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151