JP2020170408A - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
JP2020170408A
JP2020170408A JP2019072302A JP2019072302A JP2020170408A JP 2020170408 A JP2020170408 A JP 2020170408A JP 2019072302 A JP2019072302 A JP 2019072302A JP 2019072302 A JP2019072302 A JP 2019072302A JP 2020170408 A JP2020170408 A JP 2020170408A
Authority
JP
Japan
Prior art keywords
image
unit
region
classifier
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019072302A
Other languages
English (en)
Inventor
大介 古川
Daisuke Furukawa
大介 古川
深 山嵜
Fukashi Yamazaki
深 山嵜
啓太 中込
Keita Nakagome
啓太 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019072302A priority Critical patent/JP2020170408A/ja
Priority to US16/835,026 priority patent/US11455730B2/en
Publication of JP2020170408A publication Critical patent/JP2020170408A/ja
Priority to JP2023130562A priority patent/JP2023159216A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20156Automatic seed setting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】 本発明は、識別器の学習に利用する教示データを効率的に生成することのできる画像処理装置を提供することを目的とする。【解決手段】 本発明に係る画像処理装置は、教示データに基づいて、識別器の学習をする学習部130と、前記学習部130により学習された前記識別器により、画像から第一の注目領域の抽出を行う第一の抽出部140と、前記第一の注目領域を含む第一の抽出結果に基づいて、グラフカット・セグメンテーション法に用いられる領域情報を設定する設定部150と、前記設定された領域情報に基づいて、前記グラフカット・セグメンテーション法により、第二の注目領域の抽出を行う第二の抽出部160と、前記第二の抽出領域を含む第二の抽出結果に基づいて、前記画像に対応する正解画像を生成する生成部170と、を備える。【選択図】 図1

Description

本発明は、撮像装置で撮影された画像中に描出されている注目領域を指示する正解画像を作成する画像処理装置、画像処理方法およびプログラムに関する。
画像処理技術の中の重要な技術の一つとして、セグメンテーションがある。セグメンテーションとは画像中に存在する注目領域と注目領域以外の領域を区別する処理のことであり、領域抽出、領域分割、画像分割とも呼ばれる。これまでに多くのセグメンテーション手法が提案されているが、近年では非特許文献1に開示されているような機械学習に基づく手法が注目されている。
しかしながら、機械学習の精度は、学習画像と正解画像の組による教示データに依存する。正解画像の作成は労力を要する作業であるため、正解画像を大量に作成することは難しいという課題があった。本発明は労力を軽減しながら、正解画像を作成することのできる画像処理装置を提供することを目的とする。
本発明に係る画像処理装置は、以下の構成を備える。すなわち、教示データに基づいて、識別器の学習をする学習部と、学習部により学習された識別器により、画像から第一の注目領域の抽出を行う第一の抽出部と、第一の注目領域を含む第一の抽出結果に基づいて、グラフカット・セグメンテーション法に用いられる領域情報を設定する設定部と、設定された領域情報に基づいて、グラフカット・セグメンテーション法により、第二の注目領域の抽出を行う第二の抽出部と、第二の抽出領域を含む第二の抽出結果に基づいて、画像に対応する正解画像を生成する生成部と、を備える。
本発明によれば、労力を軽減しながら、正解画像を作成することができる。
第一の実施形態に係る画像処理装置の構成を示す図。 第一の実施形態に係る画像処理装置の処理手順を示すフローチャート。 第一の実施形態に係る画像処理装置の教示データの一例を示す図。 前景シードと背景シードの設定方法を説明する図。 第二の実施形態に係る画像処理装置の構成を示す図。 第二の実施形態に係る画像処理装置の処理手順を示すフローチャート。
以下、図面を参照して本発明の実施形態を説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において構成要素、部材、処理の一部は省略して表示する。
また以下では、X線コンピュータ断層撮像(X線CT)装置で撮影された腹部CT画像中に描出されている肝臓を例に挙げて、本発明について説明する。本発明において、人体の腹部に存在する肝臓が注目物体であり、腹部を撮影した腹部CT画像が学習画像である。そして、腹部X線CT画像中に描出されている肝臓が注目領域である。ここで正解画像とは、学習画像に対応しており、学習画像に対して注目物体の位置情報を示した画像を指す。
なお、本発明は他の臓器のみならず、骨や、筋肉など人体のあらゆる構造物に対して適用可能である。本発明は、核磁気共鳴画像撮像装置(MRI)装置、ポジトロン断層撮像(PET)装置、超音波撮像装置で撮像された断層画像や、カメラで撮影された通常の画像に対しても適用可能である。また、2次元画像でも3次元画像にも適用可能である。さらに、本発明は一般物体を撮影した実画像に対しても適用可能である。なお、本発明の実施形態は以下の実施形態に限定されるものではない。
<第一の実施形態>
以下では図1を参照して、実施形態に係る画像処理装置の構成について説明する。本発明にかかる画像処理装置100は、最初に識別器101を用いて画像中に描出されている注目領域を抽出する。次に、グラフカット・セグメンテーション部102にて公知のグラフカット・セグメンテーション法を用いて、再度、画像中の注目領域を抽出する。画像処理装置はこの際、識別器による注目領域の抽出結果に基づいて、グラフカット・セグメンテーション部102で利用されるグラフを構築する。最後に、画像処理装置100はグラフカット・セグメンテーション部102による注目領域の抽出結果を修正して、画像についての正解画像を生成する。
一般に少数の学習画像と少数の正解画像で学習された識別器を用いて注目領域の抽出を行う場合であっても、注目領域の中心付近の領域は比較的高い精度で抽出される。しかしながら、識別器への教示データが不十分であると注目領域の境界付近の領域が注目領域として正しく抽出されないことがある。それにより、たとえば注目領域が抽出不足になったり、注目領域より外側の領域が注目領域として誤って抽出されたりする場合がある。
一方、公知のグラフカット・セグメンテーション法では、設定部によりグラフ構築が適切になされた場合、注目領域の中心付近と境界付近の両方の領域を非常に高い精度で抽出することができる。ここで、設定部がグラフを適切に構築するためには、領域情報の設定が必要である。領域情報とは前景シードと背景シードの2種類の情報から構成される。前景シードとは、画像中の領域のうち、注目領域である領域うち少なくとも一部の領域を示す情報である。一方、背景シードとは、注目領域でない領域のうち少なくとも一部の領域を示す情報である。設定部によりこれら2種類の情報に基づいたグラフが構築されると、グラフカット・セグメンテーション法により注目領域を抽出することができる。
以上の点に注目して、本発明にかかる画像処理装置100は、まず識別器101を用いて注目領域の抽出を行う。次に、設定部150が識別器で抽出された領域のうち、境界付近の領域を削除する。設定部150はさらに抽出領域のうち削除されずに残った領域に基づいて、グラフの前景シードと背景シードを設定する。そして設定された前景シードと背景シードを用い、設定部150がグラフを構築する。最後に構築されたグラフに基づいてグラフカット・セグメンテーション法を実行する。このような方法により、画像中の注目領域を高い精度で抽出する。そして抽出された領域を正解領域と見なす。なお正解領域は正解画像における注目物体の位置情報である。
画像処理装置100は、学習画像と正解画像の組である教示データを取得する第一の取得部110、画像を取得する第二の取得部120、識別器101の学習を行う学習部130を持つ。また学習された識別器101により注目領域の抽出を行う第一の抽出部140、第一の抽出部の抽出結果から領域情報を設定する設定部150、設定された領域情報を基に注目領域の抽出を行う第二の抽出部160、抽出結果から正解画像を生成する生成部170を有する。そして結果を出力する出力部180から構成される。さらに、画像処理装置100への入力となるデータ、および画像処理装置100が出力するデータを保存するためのデータサーバ200が存在する。データサーバ200はコンピュータ記憶媒体の一例であり、ハードディスクドライブ(HDD)やソリッドステイトドライブ(SSD)に代表される大容量情報記憶装置である。データサーバ200は、画像処理装置100内に保持されていてもよいし、画像処理装置100外に別途設けられネットワークを介して通信可能に構成されていてもよい。ここで、学習部130と第一の抽出部140は識別器101を含み、第二の抽出部160はグラフカット・セグメンテーション部102を含み、それぞれが対応関係にある。
第一の取得部110はデータサーバ200から教示データを取得する。そして、第一の取得部110は取得した教示データを学習部130に送信する。
ここで、図3を参照して教示データについて説明する。図3は、第一の実施形態にかかる画像処理装置100における教示データの一例を示している。本実施形態にかかる画像処理装置において、教示データは少なくとも一つの学習画像および正解画像を含む。図3の学習画像310、学習画像330、学習画像350が学習画像の一例である。学習画像310、学習画像330、学習画像350はそれぞれ、異なる複数の患者の腹部を撮影して得られた3次元腹部CT画像の一つの断面(横断面)である。学習画像310のうち領域311が肝臓である。同様に、学習画像330の領域331と領域332も肝臓である。また、学習画像350の領域351も肝臓である。よって図3において領域311、領域331、領域332、領域351が注目領域である。
次に正解画像について説明する。学習画像には少なくとも一つの正解画像が対応して存在する。図3に示す教示データの例では、正解画像320が学習画像310に対応する正解画像である。同様に、正解画像340が学習画像330に対応する正解画像であり、正解画像360が学習画像350に対応する正解画像である。学習画像の各画素には、対応する正解画像の少なくとも一つの画素が対応する。学習画像310と正解画像320の組の例では、学習画像310の各画素と正解画像320の各画素が1対1の関係になっている。学習画像330と正解画像340の組、学習画像350と正解画像360の組も同様である。正解画像の各画素の画素値は、学習画像の対応画素が注目領域に属する画素か否かを示す。正解画像320の例では、対応画素が注目領域に属する画素である場合は白色で、対応画素が注目領域に属さない場合は黒色で示されている。正解画像320の領域321、正解画像340の領域341と領域342、正解画像360の領域361を正解領域と呼ぶ。
生成部170により、正解画像の各画素に割り当てられる画素値は、学習部130と第一の抽出部140で使用する識別器101(後述)に応じて、二値、または多値である。正解画像320、正解画像340、正解画像360は、二値画像の一例である。
学習画像において注目物体の領域を表す画素とそれ以外の画素が識別可能であれば、対応する正解画像の画素値はどのような値であっても構わない。例えば、生成部170により生成される正解画像の画素値が1または2のいずれか一方であってもよい。また、生成部170による正解画像の画素値は注目物体の領域を表す画素とそれ以外の画素に、それぞれ互いに異なる複数の値の中の任意の一つが与えられたものでもよい。なお本実施形態では注目物体である肝臓と、それ以外の2クラスを識別する識別器による処理を説明したが、肝臓と腎臓、その他などクラスの数は問わない。またクラスの数が複数存在した場合においても、生成部170により生成される正解画像の画素のそれぞれに割り振られる画素値は二値でも多値でもよい。
なお、図3では注目領域が描出されている学習画像の例を示した。しかしながら、第一の実施形態にかかる画像処理装置100が扱う教示データに、注目物体が描出されていない学習画像が含まれていてもよい。この時、対応する正解画像には正解領域は存在しない。
ふたたび、図1を参照して本実施形態に係る画像処理装置の機能構成について説明する。第二の取得部120はデータサーバ200から画像を取得する。以下では、第二の取得部120がデータサーバ200から取得する画像のことをターゲット画像と記述する。第二の取得部120は、取得したターゲット画像を第一の抽出部140、設定部150、第二の抽出部160、生成部170に送信する。
第二の取得部120が取得するターゲット画像は、対応する正解画像が存在している画像であってもよいし、対応する正解画像が存在していない画像であってもよい。また、教示データに学習画像として含まれている画像であってもよい。さらに、ターゲット画像中に注目領域が描出されている画像でもよいし、注目領域が描出されていない画像でもよい。
学習部130は、第一の取得部110から教示データを受け取る。そして、受け取った教示データを使って識別器101の学習を行う。学習部130は、識別器101の学習を行うことで学習の結果(識別器のパラメータ)を取得する。学習部130は、識別器101のパラメータを第一の抽出部140に送信する。なお学習部は画像処理装置100内に設けられていなくともよい。たとえばクラウド上に識別器101を設けクラウド上で学習を行っても、異なる画像処理装置より学習された識別器101によるパラメータを第一の抽出部140に送信してもよい。
ここで、学習部130と第一の抽出部140で使用する識別器101について説明する。第一の実施形態にかかる画像処理装置100において識別器とは、画像中の複数の画素のそれぞれについて、その画素が注目領域に属する画素であるか否かを出力する。すなわちセグメンテーションを行う画像処理手段を意味する。このような識別器101の一例が、機械学習に基づく画像処理手段である。機械学習に基づく画像処理手段には、例えば、Support Vector Machine、AdaBoost、Neural Networkが含まれる。
また、異なる種類の画像処理手段として、しきい値処理、領域拡張、Level Set法のように機械学習に基づかない方法も存在する。第一の実施形態にかかる画像処理装置100では、上述の機械学習に基づく画像処理手段と、機械学習に基づかない画像処理手段のどちらの画像処理手段でも利用可能である。なお画像処理手段は、複数の画像処理手段を組み合わせたものでもよい。また、それが機械学習に基づく手法でも、機械学習の基づかない手法でも、両者を組み合わせた手法でもよい。なお機械学習に基づく画像処理手段であっても、機械学習に基づかない画像処理手段であっても、学習部130と第一の抽出部140では同一の識別器101を利用する。
次に、学習部130が学習により取得する識別器101のパラメータについて説明する。学習部130と第一の抽出部140で用いる識別器101に応じて、識別器101のパラメータは異なる。例えば、識別器101としてSupport Vector Machineを用いる場合、識別関数の重みベクトルの値、およびカーネルトリックを用いる場合はカーネル関数のパラメータが識別器101のパラメータとなる。識別器101としてAdaBoostを用いる場合は、AdaBoostの学習アルゴリズムにより選択された弱識別器、弱識別器のパラメータ、弱識別器に付与される重みが識別器101のパラメータとなる。識別器101としてNeural Networkを用いる場合は、ネットワークの重みが識別器のパラメータとなる。
識別器101が機械学習に基づかない画像処理手段である場合、識別器101のパラメータとは識別器101の動作を規定するパラメータのことである。例えば、識別器101としてしきい値処理を用いる場合、識別器101のパラメータはしきい値である。また、領域拡張処理の場合は、識別器101のパラメータは拡張条件と終了条件で利用されるパラメータである。Level Set法の場合は、速度関数のパラメータである。
ふたたび、図1を参照して本実施形態に係る画像処理装置の機能構成について説明する。第一の抽出部140は第二の取得部120からターゲット画像を取得する。また、第一の抽出部140は学習部130から識別器101のパラメータを取得する。次に第一の抽出部140は、ターゲット画像に対して所定の識別器101を適用し、ターゲット画像中の注目領域の抽出を行う。最後に、第一の抽出部140は抽出した領域(第一の抽出結果)を設定部150に送信する。
ここで、第一の抽出結果について説明する。学習部130と第一の抽出部140で用いられる識別器の種類に応じて、識別器101によって複数の画素のそれぞれに割り当てられる画素値は二値である場合と、多値である場合がある。第一の抽出結果が二値の画素値から構成される二値画像である場合、ターゲット画像中の画素のうち、識別器が注目領域に属する画素であると判定した画素には、第一の画素値が設定される。そして、識別器が注目領域に属さない画素であると判定した画素には、第一の画素値とは異なる画素値が設定される。
第一の抽出結果が多値の画素から構成される多値画像である場合、第一の抽出結果の画素値は、その画素が注目領域に属する確からしさである尤度を表す。例えば、尤度を表す画素値が高い値を持つ場合、その画素は注目領域に属する可能性が高い画素であることを意味する。また、尤度を表す画素値が低い値を持つ場合、その画素は注目領域に属する可能性が低いことを意味する。以下では、注目領域に属する画素であると判定された画素の集合、もしくは注目領域に属する可能性がわずかでもある画素の集合を第一の抽出領域とする。
設定部150は第二の取得部120からターゲット画像を取得する。また、設定部150は第一の抽出部140から注目領域の抽出結果(第一の抽出結果)を取得する。次に、設定部150はターゲット画像と注目領域の抽出結果を参照して、公知のグラフカット・セグメンテーション部102で利用するグラフを構築するために必要な情報(領域情報)を設定する。この情報には、少なくとも前景シード、背景シードの情報を含む。また領域情報として前景シード、背景シードの情報に加え、エッジ(t−link)へ付与するエネルギー値を含んでいてもよい。以下では、設定部150で設定される情報をグラフ情報と記述する。設定部150はグラフ情報を第二の抽出部160に送信する。
第二の抽出部160は第二の取得部120からターゲット画像を取得する。また、第二の抽出部160は設定部150からグラフ情報を取得する。次に、第二の抽出部160は画像に対して公知のグラフカット・セグメンテーション法を適用し、ターゲット画像中の注目領域を抽出する。第二の抽出部160は抽出した領域(第二の抽出結果)を生成部170に送信する。
生成部170は第二の取得部120からターゲット画像を取得する。また、生成部170は第二の抽出部160から第二の抽出結果を取得する。次に、生成部170は第二の抽出結果に基づき、ターゲット画像に対応する正解画像を生成する。最後に、生成部170は生成した正解画像を出力部180に送信する。以下では、生成部170が生成する正解画像をターゲット画像に対応する正解画像と記述する。
出力部180は、生成部170からターゲット画像に対応する正解画像を取得する。そして、出力部180はターゲット画像に対応する正解画像をデータサーバ200に保存する。なお、出力部180は、ターゲット画像に対応する正解画像をターゲット画像と対応付けてデータサーバ200に保存してもよい。この場合、出力部180は第二の取得部120からターゲット画像を取得する。そして、出力部180はターゲット画像に対応する正解画像とターゲット画像を一つの組としてデータサーバ200に保存する。
出力部180は、ターゲット画像に対応する正解画像を図1には不図示の表示部に出力してもよい。表示部に含まれる表示装置の一例は、ディスプレイである。表示部は、ターゲット画像に対応する正解画像のみを表示してもよい。また、表示部はターゲット画像に対応する正解画像とターゲット画像を同時に表示してもよい。
次に図2を参照して、第一の実施形態にかかる画像処理装置100の処理手順を説明する。
(S1010)
ステップS1010において、第一の取得部110はデータサーバ200から教示データを取得する。そして、第一の取得部110は取得した教示データを学習部130に送信する。
(S1020)
ステップS1020において、学習部130は第一の取得部110から教示データを取得する。そして、学習部130において所定の識別器101の学習を行う。
識別器101が機械学習に基づく画像処理手段である場合、学習部130は公知の学習アルゴリズムを用いて識別器101の学習を行う。それぞれの識別器には、その識別器に適した公知の学習アルゴリズムが存在する。そのため、学習部130は、学習部130と第一の抽出部140で選択されている識別器101に応じて、公知の学習アルゴリズムを用いて識別器101の学習を行う。なお学習部130による学習は画像処理装置100で行われなくとも、クラウド上でも、異なる画像処理装置で行われてもよい。
一方で識別器101が機械学習に基づかない画像処理手段である場合、学習部130は識別器101の動作を規定するパラメータの最適化を行う。例えば識別器101としてしきい値処理を用いる場合、学習とはしきい値を決定する処理のことである。また、領域拡張処理の場合は、拡張条件と終了条件で利用されるパラメータを決定する処理のことである。
最後に、ステップS1020において、学習部130は上述の学習で得られた識別器101のパラメータを第一の抽出部140に送信する。
(S1030)
ステップS1030において、第二の取得部120はデータサーバ200からターゲット画像を取得する。そして、第二の取得部120は取得したターゲット画像を第一の抽出部140、設定部150、第二の抽出部160、生成部170に送信する。
(S1040)
ステップS1040において、第一の抽出部140は第二の取得部120からターゲット画像を取得する。次に、第一の抽出部140は学習部130から識別器のパラメータを取得する。そして、第一の抽出部140は所定の識別器101を用いてターゲット画像から注目領域を抽出する。
ステップS1040において行う処理は、識別器101として選択されている画像処理手段により異なる。識別器101が機械学習の一手法であるSupport Vector Machineである場合、第一の抽出部140は識別器のパラメータに格納されている識別関数の重みベクトルやカーネル関数のパラメータを使って、識別関数を構築する。次に、第一の抽出部140はターゲット画像の複数の画素のそれぞれを順次、構築された識別関数に入力し、識別関数の計算を実行する。そして、識別関数の計算結果を第一の抽出結果に格納する。
識別器101がAdaBoostである場合、第一の抽出部140は識別器101のパラメータに格納されている弱識別器の種類や弱識別器のパラメータを用いて強識別器を構築する。次に、第一の抽出部140はターゲット画像の複数の画素のそれぞれを順次、構築された強識別器に入力し、強識別器の計算を実行する。そして、強識別器の計算結果を第一の抽出結果に格納する。
識別器101がNeural Networkである場合、第一の抽出部140は識別器のパラメータに格納されているネットワークの重みを用いてネットワークを構築する。次に、第一の抽出部140はターゲット画像の複数の画素のそれぞれの値をネットワークの入力層にセットする。その後、第一の抽出部140はネットワークの重み層の計算を行い、最後に出力層の計算を行う。最後に、出力層の計算結果を第一の抽出結果に格納する。
識別器が機械学習に基づかない画像処理手段である場合も同様である。例えば、識別器がしきい値処理である場合は、第一の抽出部140は識別器のパラメータに格納されているしきい値を使って、ターゲット画像に対してしきい値処理を適用する。また、識別器が領域拡張である場合、第一の抽出部140は識別器のパラメータに格納されている拡張条件と終了条件のパラメータを使って、ターゲット画像に対して領域拡張処理を適用する。また、識別器がLevel Set法の場合、第一の抽出部140は識別器のパラメータに格納されている速度関数のパラメータを使って、ターゲット画像に対して領域拡張処理を適用する。これらの画像処理手段を実行した後、第一の抽出部140は計算結果を第一の抽出結果に格納する。
以上の処理を終えた後、第一の抽出部140は第一の抽出結果を設定部150に送信する。
(S1050)
ステップS1050において、設定部150は第二の取得部120からターゲット画像を取得する。次に、設定部150は第一の抽出部140から第一の抽出結果を取得する。そして、設定部150は公知のグラフカット・セグメンテーション法で利用される前景シードと背景シードの設定を行う。
図4を参照して、前景シードと背景シードの設定方法について説明する。ステップS1050において設定部150は、ステップS1040で取得される第一の抽出結果が二値である場合と多値である場合とで異なる処理を行う。最初に、第一の抽出結果が二値画像である場合の処理について説明する。
図4の画像410は、ステップS1030において第二の取得部120が取得したターゲット画像である。ターゲット画像410における領域411と領域412が、注目領域である肝臓である。図4の画像420は、ステップS1040において第一の抽出部140が出力した第一の抽出結果である。第一の抽出結果420における領域420と領域421は、識別器101により注目領域として識別された領域(第一の抽出領域)である。注目領域411と第一の抽出領域421を比較すると分かる通り、識別器101は注目領域411の中心部分をおおむね正しく抽出しているが、注目領域411の境界付近では正しく識別できていない個所がある。これは、注目領域412と第一の抽出領域422についても同様である。
以上で述べた注目領域と第一の抽出領域の関係に注目し、設定部150は領域情報として、注目領域411と注目領域412の輪郭を三次元的に挟むように前景シードと背景シードを設定する。言い換えると、設定部150は第一の抽出領域の内部に前景シードを設定する。また、設定部150は第一の抽出領域以外の領域(第一の抽出領域の外部)に背景シードを設定する。
具体的な処理は次の通りである。前景シードを設定するために、設定部150は第一の抽出結果420中の第一の抽出領域421と第一の抽出領域422に対してモルフォロジー演算の一つである縮小処理を適用する。この縮小処理で得られる領域を前景シードとする。画像430中の領域431と領域432が前景シードの一例である。画像430は、第一の抽出結果420に対して縮小処理を適用した結果である。縮小処理は、第一の抽出領域421と第一の抽出領域422を三次元的に縮小させる処理である。そのため、たとえ第一の抽出領域421および第一の抽出領域422が注目領域411および注目領域412に正確に一致していなくても、第一の抽出領域421と第一の抽出領域422を縮小して得られる領域(領域431と領域432)は注目領域411と注目領域412の内側に留まることが期待される。そのため、領域431と領域432を前景シードとする。
次に、背景シードを設定するために、設定部150は、第一の抽出結果420の第一の抽出領域421および第一の抽出領域422以外の領域である領域423に対してモルフォロジー演算の一つである縮小処理を適用する。この縮小処理で得られる領域を背景シードとする。画像440中の領域441が背景シードの一例である。画像440は、第一の抽出結果420における領域423に対して縮小処理を適用した結果である。領域441は、縮小処理の結果、注目領域411と注目領域412以外の領域を覆っている可能性が非常に高い。そのため、領域441を背景シードとする。
設定部150は、以上の処理で得られた画像430と画像440を、第一の抽出結果が二値画像である場合の前景シードと背景シードとする。
次に、第一の抽出結果が多値画像である場合に、設定部150が領域情報である前景シードと背景シードを設定する処理について説明する。今、ステップS1040において第一の抽出部140がターゲット画像410を処理したとする。図4の画像450が、第一の抽出部140により出力された第一の抽出結果である。第一の抽出結果450は多値画像であり、領域451と領域452は識別器により注目領域411および注目領域412に属する可能性があると判定された領域(第一の抽出領域)である。また、領域453は注目領域ではないと判定された領域である。
第一の抽出結果450を見ると分かる通り、注目領域411、注目領域412の中心部に対応する領域452において、注目領域への尤度を示す画素値が高くなっている。一方、注目領域411、注目領域412の辺縁部に対応する領域451において、注目領域への尤度を示す画素値が低くなっている。一般に、第一の抽出領域は注目領域の中心部で高い値を有する。逆に、第一の抽出領域は注目領域の辺縁部で低い値を有する。
以上で述べた注目領域と第一の抽出領域の関係に注目し、設定部150は注目領域411と注目領域412の輪郭を三次元的に挟むように前景シードと背景シードを設定する。言い換えると、設定部150は第一の抽出領域の内部に前景シードを設定する。また、設定部150は第一の抽出領域以外の領域(第一の抽出領域の外部)に背景シードを設定する。
具体的な処理は次の通りである。前景シードを設定するために、設定部150は第一の抽出結果450に対してしきい値処理を適用する。画像460の領域461と領域462は、しきい値処理で得られた領域である。領域461と領域462は、注目領域411と注目領域412に含まれている可能性が高い。そこで、領域461と領域462を前景シードとする。
次に、背景シードを設定するために、設定部150は、画像460の前景シード461と前景シード462以外の領域、領域463に対して縮小処理を適用する。そして、この縮小処理で得られる領域を背景シードとする。画像470における領域471は、画像460における領域463に対して縮小処理を適用して得られる領域である。領域471は、注目領域411および注目領域412以外の領域を覆っている可能性が非常に高い。そこで、領域471を背景シードとする。
設定部150は、以上の処理で得られた画像460と画像470を、第一の抽出結果が多値画像である場合の前景シードと背景シードとする。
以上で設定部150が前景シードと背景シードを設定する処理の説明を終える。上述の処理の要諦は、第一の抽出領域の内部に前景シードを設定すること、および第一の抽出領域の外部に背景シードを設定することである。このような設定を実現するために、設定部150は第一の抽出結果の境界から所定の距離だけ内側に前景シードを配置する。また、設定部150は第一の抽出結果の境界から所定の距離だけ外側に背景シードを配置する。
上述の例では、設定部150はしきい値処理と縮小処理を用いて、前景シードと背景シードを設定したが、同様の設定は距離変換処理を用いても実現できる。例えば、設定部150は画像420に対して距離変換を適用し、距離画像を取得する。この距離画像の画素値は、領域421と領域422の境界までのユークリッド距離値である。そこで、距離画像に対して所定の距離値でしきい値処理を行うことで、前景シード431、前景シード432、背景シード441と同様の前景シード、背景シードを得ることが出来る。また、設定部150は画像460に対して距離変換を適用してもよい。この時、得られる距離画像の距離値は前景シード462と前景シード463の境界からの距離値である。そこで、この距離画像に対して所定の距離値でしきい値処理を行うことで、背景シード471と同様の背景シードを得ることが出来る。また、画像450に対して距離変換としきい値処理を適用することで、前景シード461、前景シード462と同様の前景シードを得ることが出来る。設定部150は引き続き、ステップS1060の処理を行う。
(S1060)
ステップS1060において、設定部150は前景シードまたは背景シードに設定された画素以外の複数の画素のそれぞれについて、公知のグラフカット・セグメンテーション法で利用されるエッジ(t−link)に付与するエネルギーを計算する。エネルギーは、識別器を用いて抽出された領域(第一の抽出結果)に基づいて計算される。
はじめに、設定部150は、前景シードおよび背景シードに設定された画素以外の複数の画素のそれぞれについて、前景シードの境界からの距離を計算する。そして、設定部150は前景シードの境界からの距離に応じたエネルギーの値を計算する。計算の一例は次のとおりである。前景シードの境界に最も近い画素に付与するエネルギー値をL1とする。また、前景シードの境界から最も遠い画素、すなわち背景シードの境界に隣接する画素に付与するエネルギー値をL2とする。ただし、L1とL2はL2<0<L1とする。そして、前景シードから背景シードまでの距離値をD2とする。すると、前景シードと背景シード以外の各画素について、(式1)で示す式でエネルギー値Lを計算し、付与する。
Figure 2020170408
ここで、(式1)中のdは、当該画素の前景シードの境界からの距離である。L1とL2はL2<0<L1を満たせば任意の値でよいが、好適な一例はL1=1、L2=−1とすることである。
ここまででエッジ(t−link)に付与するエネルギー値Lの計算方法の一例について説明したが、エネルギー値の計算方法は以上の例に限定されない。例えば、エネルギー値として一定の値を付与してもよい。好適な一例は、L=0とすることである。
以上で、エッジ(t−link)に付与するエネルギー値Lの計算方法の説明を終える。
最後に、設定部150は、ステップS1050で得られた前景シードと背景シードと、ステップS1060で得られたエッジ(t−link)に付与するエネルギーをグラフ情報として、第二の抽出部160に送信する。
(S1070)
ステップS1070において、第二の抽出部160は公知のグラフカット・セグメンテーション法を用いて、ターゲット画像中の注目領域を抽出する。グラフカット・セグメンテーション法の詳細については、例えば、特許文献US6973212を参照されたい。
グラフカット・セグメンテーション法では、最初にターゲット画像に対応するグラフを作成する。グラフの作成方法は、公知のグラフカット・セグメンテーション法と同じである。
以下、ターゲット画像の各画素に1対1で対応するノードを画素ノードと呼ぶ。注目領域(肝臓)を表す1つのノードをターミナル・ノードF、注目領域以外の領域を表す1つのノードをターミナル・ノードBと呼ぶ。隣接する画素ノード間を結ぶエッジをエッジ(n−link)、各画素ノードと2つのターミナル・ノードとの間を結ぶエッジをエッジ(t−link)と呼ぶ。
次に、ステップS1050とステップS1060において設定部150により生成されたグラフ情報に基づいて、各画素ノードと2つのターミナル・ノードとの間を結ぶエッジ(t−link)にエネルギーを付与する。エッジ(t−link)にエネルギーを付与する処理は、次の3通りの方法に分かれる。
(1)画素ノードに対応する画素が前景シードに含まれる場合
当該画素ノードとターミナル・ノードFとの間のエッジ(t−link)のエネルギーを無限大とする。一方、当該画素ノードとターミナル・ノードBとの間のエッジ(t−link)のエネルギーをゼロとする。
(2)画素ノードに対応する画素が背景シードに含まれる場合
当該画素ノードとターミナル・ノードBとの間のエッジ(t−link)のエネルギーを無限大とする。一方、当該画素ノードとターミナル・ノードFとの間のエッジ(t−link)のエネルギーをゼロとする。
(3)画素ノードに対応する画素が前景シードにも背景シードにも含まれない場合
ステップS1060において設定部150により計算された当該画素のエネルギー値LがL>0である場合、当該画素ノードとターミナル・ノードFとの間のエッジ(t−link)のエネルギーをLとする。一方、当該画素ノードとターミナル・ノードBとの間のエッジ(t−link)のエネルギーをゼロとする。L<0である場合、当該画素ノードとターミナル・ノードBとの間のエッジ(t−link)のエネルギーを−Lとする。一方、当該画素ノードとターミナル・ノードFとの間のエッジ(t−link)のエネルギーをゼロとする。L=0である場合、両方のエッジ(t−link)のエネルギーをゼロとする。
以降は、公知のグラフカット・セグメンテーション法と同様の処理ステップを行う。すなわち、ターゲット画像のすべての隣接画素間で画素値の類似性を表す値(例えば画素値の差の逆数)を計算する。そして、それらの隣接画素に対応する画素ノード間を結ぶエッジ(n−link)に、計算で得られた値を付与する。最後に、グラフ分割アルゴリズム(例えばFord−Fulkerson法)を用いて、グラフを2つの部分グラフに分割する。ここで、部分グラフの一方に少なくともターミナル・ノードFが含まれ、もう一方にターミナル・ノードBが含まれるように、分割を実行する。この時、ターミナル・ノードFが含まれる部分グラフ(部分グラフGF)に、「注目領域(肝臓)に属することが確からしい画素」に対応する画素ノードが含まれる。そして、ターミナル・ノードBが含まれる部分グラフ(部分グラフGB)に、「注目領域外に属することが確からしい画素」に対応する画素ノードが含まれる。そこで、部分グラフGFに含まれる画素ノードに対応する画素を注目領域(肝臓)に属する画素とする。この計算で得られた結果を第二の抽出結果とする。
最後に、第二の抽出部160は第二の抽出結果を生成部170に送信する。
(S1080)
ステップS1080において、生成部170は第二の抽出部160から第二の抽出結果を取得する。そして、第二の抽出結果に基づいて、ターゲット画像に対応する正解画像を生成する。
正解画像を生成する最も単純な方法は、第二の抽出結果に変更を加えることなく、第二の抽出結果をそのまま正解画像とすることである。
生成部170は、第二の抽出結果の抽出精度に関して事前に得られている知見に基づいて、第二の抽出結果に対して所定の画像処理を適用することも可能である。例えば、どのような画像処理装置100がどのようなターゲット画像を処理した場合でも、注目領域が十分に抽出されていない場合、生成部170は第二の抽出結果に対してモルフォロジー演算の一つである膨張処理を適用する。これにより、第二の抽出結果は拡大される。逆に注目領域以外の領域が誤って抽出されている場合、生成部170は第二の抽出結果に対してモルフォロジー演算の一つである縮小処理を適用する。これにより、第二の抽出結果は縮小される。生成部170は、これらの画像処理により修正された第二の抽出結果を正解画像とする。
生成部170は、第二の抽出結果に対して一様重み平滑化フィルタやガウシアンフィルタといった平滑化フィルタを適用し、その結果として得られる画像を正解画像としてもよい。例えば、第二の抽出部160により出力される第二の抽出結果のうち、注目領域(肝臓)に属すると判定された画素の画素値を1、それ以外の画素の画素値を0とする。このような画素値を有する第二の抽出結果に対して平滑化フィルタを適用すると、画素値0を有する領域と画素値1を有する領域の境界付近の画素の画素値が0から1まで連続的に変化する値になる。そこで、この画素値を当該画素が注目領域に属する確からしさを表す尤度と見なす。このような考えに基づき、生成部170は、第二の抽出結果に平滑化フィルタを適用し、その結果として得られる画像を正解画像とする。
生成部170は、画像処理装置100の操作者により入力される画像処理に基づいて、第二の抽出結果を修正してもよい。この場合、操作者は図1には不図示の操作部を使って、注目領域として十分に抽出されていない領域や、注目領域として誤って抽出された領域を指示装置で指定する。生成部170は不図示の操作部から操作者の指示を受け取り、その指示に基づいて、第二の抽出結果に対して膨張処理や縮小処理を適用する。そして、生成部170はこれらの画像処理により修正された第二の抽出結果を正解画像とする。
最後に、生成部170はターゲット画像に対応する正解画像を出力部180に送信する。
(S1090)
ステップS1090において、出力部180は生成部180からターゲット画像に対応する正解画像を取得する。そして、出力部190はターゲット画像に対応する正解画像をデータサーバ200に保存する。
以上の手順に従い、第一の実施形態に係る画像処理装置100はターゲット画像に対応する正解画像を生成する。
第一の実施形態に係る画像処理装置100は、上述の処理によりターゲット画像中の注目領域を高い精度で抽出することが出来る。そして、その抽出結果を正解画像とすることで、ターゲット画像に対応する正解画像を高い精度で、かつ簡便に生成できる。
<第二の実施形態>
図5を参照して、第二の実施形態に係る画像処理装置500について説明する。画像処理装置500は、第一の取得部510、第二の取得部520、学習部530、第一の抽出部140、設定部150、第二の抽出部160、生成部570、更新部580、出力部590から構成される。なお図1と同様に学習部530および第一の抽出部は識別器101を含み、第二の抽出部160はグラフカット・セグメンテーション部102を含む。
第一の抽出部140、設定部150、第二の抽出部160については、第二の取得部520からターゲット画像を取得すること以外、第一の実施形態にかかる画像処理装置100において同じ符号を付与された処理部と同じ処理を行う。そのため、これらの処理部については説明を省略する。
第一の取得部510は、データサーバ200から教示データを取得する。そして、第一の取得部510は取得した教示データを学習部530と更新部580に送信する。
第二の取得部520はデータサーバ200から画像を取得する。そして、第二の取得部520は、取得したターゲット画像を第一の抽出部140、設定部150、第二の抽出部160、生成部570、更新部580に送信する。第二の取得部520が取得するターゲット画像の種類については、第一の実施形態にかかる画像処理装置100の第二の取得部120が取得するターゲット画像の種類と同じである。
学習部530は、第一の取得部510から教示データを受け取る。そして、受け取った教示データを使って識別器101の学習を行う。識別器101の学習の方法については、第一の実施形態にかかる画像処理装置100の学習部130の説明で述べたとおりである。学習部530は、識別器101の学習を行うことで学習の結果(識別器のパラメータ)を取得する。学習部530は、識別器101のパラメータを第一の抽出部140と出力部590に送信する。
生成部570は、第二の取得部520からターゲット画像を取得する。また、生成部570は第二の抽出部160から第二の抽出結果を取得する。次に、生成部570は第二の抽出結果に基づき、ターゲット画像に対応する正解画像を生成する。最後に、生成部170は生成した正解画像を更新部580と出力部590に送信する。
更新部580は、第一の取得部510から教示データを取得する。また、更新部580は第二の取得部520からターゲット画像を取得する。さらに、更新部580は生成部170からターゲット画像に対応する正解画像を取得する。そして、更新部580は取得した教示データを更新する。更新の方法については、後述する。更新部580は、更新された教示データを出力部590に送信する。
出力部590は、学習部530から識別器101のパラメータを取得する。また、出力部590は更新部580から更新された教示データを取得する。そして、出力部590は識別器101のパラメータと更新された教示データをデータサーバ200に保存する。出力部590が実施する処理の詳細については、後述する。
次に図6を参照して、本実施形態の画像処理装置の処理手順を説明する。
(S6010)
ステップS6010において、第一の取得部510はデータサーバ200から教示データを取得する。そして、第一の取得部510は取得した教示データを学習部530と更新部580に送信する。
(S6020)
ステップS6020において、学習部530は第一の取得部510から教示データを取得する。そして、所定の識別器101の学習を行う。学習の方法は、第一の実施形態に係る画像処理装置100の学習部130がステップS1030で実施する処理と同じである。
最後に、ステップS6020において、学習部530は学習で得られた識別器101のパラメータを第一の抽出部140と出力部590に送信する。
(S6030)
ステップS6030において、第二の取得部520はデータサーバ200からターゲット画像を取得する。そして、第二の取得部520は取得したターゲット画像を第一の抽出部140、設定部150、第二の抽出部160、生成部570、更新部580に送信する。
第二の実施形態に係る画像処理装置500は、ステップS6030の処理を実行した後、第一の実施形態に係る画像処理装置100で実行されるステップS1040、ステップS1050、ステップS1060、ステップS1070の処理を実施する。その後、次に述べるステップS6080の処理を実行する。
(S6080)
ステップS6080において、生成部570は第二の抽出部160から第二の抽出結果を取得する。そして、第二の抽出結果に基づいて、ターゲット画像に対応する正解画像を生成する。正解画像の生成処理は、第一の実施形態にかかる画像処理装置100の生成部170がステップS1080で実行する処理と同じである。最後に、生成部570はターゲット画像に対応する正解画像を更新部580と出力部590に送信する。
(S6090)
ステップS6090において、更新部580は第一の取得部510から教示データを取得する。また、更新部580は第二の取得部520からターゲット画像を取得する。さらに、更新部580は生成部170からターゲット画像に対応する正解画像を取得する。そして、更新部580は取得した教示データを更新する。
教示データを更新する方法は2通り存在する。もし、ターゲット画像が教示データに含まれていない場合、ターゲット画像とターゲット画像に対応する正解画像を一つの組として、教示データに追加する。これが一つ目の更新方法である。もし、ターゲット画像が教示データにすでに含まれている場合、当該ターゲット画像に対応する正解画像を生成部170により生成された正解画像に置き換える。これが二つ目の更新方法である。なお、ターゲット画像が教示データにすでに含まれている場合であっても、取得したターゲット画像とターゲット画像に対応する正解画像を一つの組として教示データに追加してもよい。
最後に、更新部580は更新された教示データを出力部590に送信する。
(S6093)
ステップS6093において、出力部590は生成部570からターゲット画像に対応する正解画像を取得する。そして、出力部590はターゲット画像に対応する正解画像をデータサーバ200に保存する。出力部590は、第二の取得部520で取得されたターゲット画像と、生成部570で生成されたターゲット画像に対応する正解画像を対応付けてデータサーバ200に保存してもよい。この場合、図5では不図示であるが、出力部180は第二の取得部520からターゲット画像を取得する。
またステップS6093において、出力部590はターゲット画像に対応する正解画像を図5には不図示の表示部に出力してもよい。表示部に含まれる表示装置の一例は、ディスプレイである。表示部は、ターゲット画像に対応する正解画像のみを表示してもよい。また、表示部はターゲット画像に対応する正解画像とターゲット画像を同時に表示してもよい。
さらにはステップS6093において、出力部590は識別器101のパラメータと更新された教示データをデータサーバ200に保存してもよい。この場合、出力部590は学習部530から識別器101のパラメータを取得する。また、出力部590は更新部580から更新された教示データを取得する。
(S6095)
ステップS6095において、第二の実施形態にかかる画像処理装置500の制御部(図5では不図示)はデータサーバ200に処理対象となるターゲット画像が存在しているか否かを判定する。もし、処理対象となるターゲット画像が存在している場合、ステップS6010に戻って以降の処理を再度実行する。もし、存在していない場合、第二の実施形態にかかる画像処理装置500は処理を終了する。なお、処理対象となるターゲット画像が存在している場合においても、正解画像が生成される度に教示データの更新をしなくともよい。例えば、ターゲット画像が複数存在する場合において、その複数のターゲット画像に対する正解画像の作成は同一の学習器のパラメータにより行う。具体的にはステップS6080により、ターゲット画像に対応する正解画像が作成される。その時点で未処理のターゲット画像を取得するステップS6030に戻って以降の処理を実行してもよい(図6では不図示)。またその際には、ターゲット画像が存在しなくなるまでその処理を繰り返す。
以上の手順に従い、第二の実施形態に係る画像処理装置500はターゲット画像に対応する正解画像を生成する。
第二の実施形態に係る画像処理装置500は、初期の教示データを用いて識別器の学習を行う。そして、学習された識別器、グラフカット・セグメンテーション法、公知の画像処理(膨張や収縮処理。手動による補正を含む)を用いて最初のターゲット画像に対して正解画像を作成する。続いて、作成された正解画像を用いて教示データを更新する。以降、更新された教示データを用いて最初と同様の処理を実施し、次のターゲット画像に対して正解画像を作成する。このような処理を繰り返して実施することで、ターゲット画像中に描出されている注目領域の抽出精度は次第に高くなっていく。結果として、ターゲット画像に対応する正解画像を高い精度で、かつ簡便に生成できるようになる。
(終了条件の判定)
第二の実施形態として、正解画像を作成し、教示データを更新する方法について説明をした。ターゲット画像に対応する正解画像が存在しない場合は、学習画像に対して正解画像を作成する。もしくは、ターゲット画像に対応する正解画像が存在する場合、正解画像の置き換え、もしくは、さらにターゲット画像と正解画像をひとつの組として、教示データに追加する。そして、作成または更新された教示データを用いて識別器を学習し、さらに正解画像を作成することで、注目領域の抽出精度が次第に高くなっていく効果が期待される。
ここで、複数回の学習および正解画像を作成する場合の終了条件について説明する。機械学習に基づく識別器を用いる場合において、同一の画像を基にしたデータ拡張やGAN(Generative Adversarial Network)を用いた画像の水増しにより作成された画像を複数回学習させると、過学習になる問題がある。過学習とは、学習したデータに対しては高い識別能を発揮する一方で、学習データとは異なる画像に対しては精度が劣る問題である。そのために、同一画像を基にした学習において、精度と学習回数のバランスを保つ必要がある。
一般に、識別器の精度は、人手で作成されたような高品位な正解画像と、識別器が抽出した抽出結果とを比較し、両者の画像間の差が小さい場合に、識別器の精度が高いとされ、学習の終了条件とされる。本発明においても、終了条件として、人手で作成されたような高品位の画像と識別器による識別結果とを比較し、終了条件としてもよい。
しかしながら、医用画像のように正解画像の作成が医者のような知見を有した人間によってなされる場合においては、高品位な正解画像を作成することは手間である。高品位な正解画像が存在しない場合においては、上述の終了条件による終了は難しい。
そこで、人手による高品位な正解画像が存在しない場合、教示データによって学習された識別器による抽出結果と、前回以前の教示データ(教示データが更新される前)によって学習された識別器による抽出結果を比較して終了条件としてもよい。以下では前者を最新の識別器による抽出結果、後者を前回以前の識別器による抽出結果とする。
最新の識別器による抽出結果と、前回以前の識別器による抽出結果の比較は、抽出結果が二値画像、多値画像のいずれから構成されているかで異なる。識別器101による抽出結果が二値画像である場合、前回以前の抽出結果と、最新の抽出結果を比較し、注目領域を構成する画素を比較する。機械学習による学習は学習回数を重ねるごとに精度が向上していくため、注目領域を構成する画素のばらつきが小さくなっていく。識別器101による抽出結果のばらつきが所定値以下となることを終了条件とする。
識別器101による抽出結果が尤度から構成される多値画像である場合、機械学習による学習回数を重ねていく毎に、所定値以上の尤度を有する画素数が増加することが期待される。前回以前の抽出結果と、最新の抽出結果を比較し、抽出結果を構成する複数の画素のそれぞれの画素値を比較し、その尤度のばらつきが所定値以下になることを終了条件とする。もしくは、所定値以上の尤度を有する画素を比較し、その画素のばらつきが所定値以下となることを終了条件としてもよい。なお本形態は、識別器101の抽出結果を基にグラフカット・セグメンテーションを行った後の画像を対象に実施されてもよい。
さらに、終了条件として、識別器101による注目領域の抽出結果と、グラフカット・セグメンテーションによる抽出結果が比較されてもよい。具体的には、識別器101により抽出された注目領域を構成する画素と、グラフカット・セグメンテーションにより抽出された注目領域を構成する画素を比較し、その両者の画素の差が所定値以下になった場合にそれを終了条件とする。なお、グラフカット・セグメンテーションの抽出結果は二値画像であるため、識別器101による抽出結果が多値画像である場合は、尤度をしきい値処理し、2値に変換してもよい。終了条件は、上述のいずれかにより判定されても、上述の複数から判定されてもよい。また、単純にユーザが定義した回数を終了条件とするものでも問わない。なお、終了条件で比較をする対象は、識別器による抽出結果(第一の抽出結果)、グラフカット・セグメンテーションによる識別結果(第二の抽出結果)のみならず、生成された正解画像を比較するものでもよい。
上述したような終了条件の判定をする場合、画像処理装置500が別途、終了条件を満たすかの判定をする判定部を有していてもよい。具体的には、判定部は上述の終了条件を満たす場合においては、本処理を終了させ、終了条件を満たさない場合においては正解画像の生成フローを再度実行する。
(パラメータの変更)
複数回の学習と正解画像の作成を行う場合において、注目領域の抽出精度の向上が期待される。識別器は教示データの数と質に依存するため、フローを繰り返すごとに信頼度の高い結果を示す。例えば、多値画像においては注目領域や注目領域以外を示す尤度が高く算出され、二値画像においては画像中における実際の注目領域との重なり部分が大きくなる。
そのため、図4に記載の処理(しきい値処理、モルフォロジー処理)をパラメータの変更をせずに行う場合には、注目領域の過抽出や抽出不足が発生する可能性がある。例えば縮小処理により実際の注目領域との重なり部分が前景シード外に設定がされたり、膨張処理やしきい値処理により実際の注目領域と重なっていない部分が前景シードに設定されたりすることが挙げられる。
そこで学習と正解画像の作成を繰り返し行う場合において、前景シードを設定するためのしきい値を前回以前の学習と正解画像の作成に用いたしきい値よりも高く設定する。または、モルフォロジー処理における縮小処理や膨張処理の割合を小さく設定をすることで識別器の精度の向上に伴う注目領域の抽出が可能になる。
機械学習に基づく識別器は、教示データに基づいて識別に用いられるパラメータを設定する。機械学習の中でも、特にNeural Networkに基づく識別器は高い識別能を発揮する一方で、一からパラメータを探索する場合、より多くの教示データと時間が必要とされる。教示データが十分にない場合、データ拡張やGAN(Generative Adversarial Network)を用いた画像の水増しにより教示データを増加させる方法と、他の教示データにより学習された識別器のパラメータを用いて識別に用いる方法である転移学習がある。転移学習を行う場合、他の教示データと今回の教示データの間に一定の関係性が認められることが望ましい。本発明においては、例えば学習と正解画像の作成を複数回行う場合において、最新の識別器のパラメータの初期値として、前回以前に学習した識別器のパラメータを用いてもよい。前回以前に用いた教示データと、最新の教示データは相関が高く、ファインチューニングに際するコストも低減される効果が期待される。また前回以前に学習した識別器のパラメータを用いる際には、相同性が低い画像を学習した識別器のパラメータよりも、パラメータの質が高い。そのため、最新の教示データを基に学習をした識別器が、前回以前の教示データにより学習された識別器のパラメータに基づく場合、その相同性が高くなるほど、学習の際の学習率を小さくする。正解画像の学習率を小さくすることで、パラメータの更新幅を限定できるため、より正確なパラメータを有する識別器が作成できる効果がある。最新の識別器のパラメータの初期値として、前回以前に学習した識別器のパラメータを用いる場合には、データサーバ200に蓄えられているすべての教示データを使用して識別器の学習を行ってもよい。また、直近の数回の学習で使用した教示データだけを使用して、識別器の学習を行ってもよい。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (18)

  1. 教示データに基づいて、識別器の学習をする学習部と、
    前記学習部により学習された前記識別器により、画像から第一の注目領域の抽出を行う第一の抽出部と、
    前記第一の注目領域を含む第一の抽出結果に基づいて、グラフカット・セグメンテーション法に用いられる領域情報を設定する設定部と、
    前記設定された領域情報に基づいて、前記グラフカット・セグメンテーション法により、第二の注目領域の抽出を行う第二の抽出部と、
    前記第二の抽出領域を含む第二の抽出結果に基づいて、前記画像に対応する正解画像を生成する生成部と、を有することを特徴とする画像処理装置。
  2. 前記設定部は、前記第一の抽出結果に対し、モルフォロジー処理およびしきい値処理、距離変換処理のうち少なくともひとつの処理をする処理部をさらに有し、前記処理部による処理結果に基づいて、前記領域情報を設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記設定部により設定される領域情報が、前景シード、背景シード、エネルギーのうち、少なくとも一つを含むことを特徴とする請求項1または2のいずれか一項に記載の画像処理装置。
  4. 前記設定部は、前記第一の注目領域の内部に前記前景シードを設定し、前記第一の抽出領域の外部に前記背景シードを設定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記設定部における前記エネルギーは、
    Figure 2020170408

    によって設定されることを特徴とする請求項1から3のうちいずれか一項に記載の画像処理装置。
  6. 前記生成部で生成された正解画像に基づいて、前記教示データを更新する更新部と、
    をさらに有することを特徴とする請求項1から4のいずれか一項に記載の画像処理装置。
  7. 前記更新部は、前記教示データの正解画像を前記生成部で生成された正解画像で置き換えることを特徴とする請求項6に記載の画像処理装置。
  8. 前記学習部は前記更新部により更新された教示データに基づいて識別器の学習を行うことを特徴とする請求項6または7のいずれか一項に記載の画像処理装置。
  9. 前記第一の抽出結果または、前記第二の抽出結果、生成された正解画像のいずれかに基づいて前記正解画像の生成の終了を判定する判定部を有することを特徴とする請求項1から8のいずれか一項に記載の画像処理装置。
  10. 前記判定部は、前記第一の抽出結果と、前記第二の抽出結果を構成する画素のばらつきが所定値以下になると前記正解画像の生成の終了と判定をすることを特徴とする請求項9に記載の画像処理装置。
  11. 前記判定部は、前記教示データによって学習された識別器による前記抽出結果と、前記教示データに更新される以前の教示データによって学習された識別器による抽出結果とを構成する画素のばらつきが所定値以下になると前記正解画像の生成の終了と判定をすることを特徴とする請求項9に記載の画像処理装置。
  12. 前記識別器による抽出結果が尤度であることを特徴とする請求項11に記載の画像処理装置。
  13. 前記判定部は、前記尤度の差により正解画像の生成の終了と判定をすることを特徴とする請求項12記載の画像処理装置。
  14. 前記教示データによって学習された識別器による前記抽出結果に対するしきい値が、前記教示データに更新される以前の教示データによって学習された識別器による抽出結果に対するしきい値よりも大きいことを特徴とする請求項2に記載の画像処理装置。
  15. 前記教示データによって学習された識別器による前記抽出結果に対するモルフォロジー処理の割合よりも、
    前記教示データに更新される以前の教示データによって学習された識別器による抽出結果に対するモルフォロジー処理の割合が大きいことを特徴とする請求項2に記載の画像処理装置。
  16. 前記教示データに基づいて学習をする前記識別器の学習率が、前記教示データに更新される以前の教示データに基づいて学習をした識別器の学習率よりも小さいことを特徴とする請求項1記載の画像処理装置。
  17. 教示データに基づいて識別器の学習をするステップと、
    前記学習された識別器により、画像から第一の注目領域の抽出を行うステップと、
    前記第一の注目領域を含む抽出結果に基づいて、グラフカット・セグメンテーション法の領域情報を設定するステップと、
    前記設定された領域情報に基づいて、グラフカット・セグメンテーション法により、第二の注目領域の抽出を行うステップと、
    前記第二の注目領域を含む抽出結果に基づいて、画像に対応する正解画像を生成するステップと、を有することを特徴とする画像処理方法。
  18. 請求項17に記載の画像処理方法をコンピュータに実行させるためのプログラム。
JP2019072302A 2019-04-04 2019-04-04 画像処理装置、画像処理方法、プログラム Pending JP2020170408A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019072302A JP2020170408A (ja) 2019-04-04 2019-04-04 画像処理装置、画像処理方法、プログラム
US16/835,026 US11455730B2 (en) 2019-04-04 2020-03-30 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2023130562A JP2023159216A (ja) 2019-04-04 2023-08-10 画像処理装置、画像処理方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019072302A JP2020170408A (ja) 2019-04-04 2019-04-04 画像処理装置、画像処理方法、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023130562A Division JP2023159216A (ja) 2019-04-04 2023-08-10 画像処理装置、画像処理方法、プログラム

Publications (1)

Publication Number Publication Date
JP2020170408A true JP2020170408A (ja) 2020-10-15

Family

ID=72662435

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019072302A Pending JP2020170408A (ja) 2019-04-04 2019-04-04 画像処理装置、画像処理方法、プログラム
JP2023130562A Pending JP2023159216A (ja) 2019-04-04 2023-08-10 画像処理装置、画像処理方法、プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023130562A Pending JP2023159216A (ja) 2019-04-04 2023-08-10 画像処理装置、画像処理方法、プログラム

Country Status (2)

Country Link
US (1) US11455730B2 (ja)
JP (2) JP2020170408A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032480A1 (ja) * 2021-08-31 2023-03-09 富士フイルム株式会社 医療画像処理装置、肝区域分割方法およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6716765B1 (ja) * 2018-12-28 2020-07-01 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、プログラム
JP7410619B2 (ja) * 2019-10-31 2024-01-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
TWI769435B (zh) * 2020-02-14 2022-07-01 佳世達科技股份有限公司 可改善超音波影像品質之方法和相關超音波探測系統
KR102667231B1 (ko) * 2020-12-21 2024-05-20 주식회사 인피니트헬스케어 딥 러닝 알고리듬과 해부학적 특성에 기반한 의료 영상 셋의 컨투어링 시스템 및 방법
CN112288756B (zh) * 2020-12-28 2021-04-30 湖南新云网科技有限公司 一种图形分割方法、装置、电子设备及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010717A (ja) * 2012-06-29 2014-01-20 Secom Co Ltd 領域分割装置
WO2018048507A1 (en) * 2016-09-06 2018-03-15 Han Xiao Neural network for generating synthetic medical images
WO2018156778A1 (en) * 2017-02-22 2018-08-30 The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Detection of prostate cancer in multi-parametric mri using random forest with instance weighting & mr prostate segmentation by deep learning with holistically-nested networks
JP2019010411A (ja) * 2017-06-30 2019-01-24 富士フイルム株式会社 学習データ生成支援装置および学習データ生成支援装置の作動方法並びに学習データ生成支援プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6973212B2 (en) 2000-09-01 2005-12-06 Siemens Corporate Research, Inc. Graph cuts for binary segmentation of n-dimensional images from object and background seeds
JP5333570B2 (ja) * 2011-12-21 2013-11-06 富士ゼロックス株式会社 画像処理装置、プログラム及び画像処理システム
US9792553B2 (en) * 2013-07-31 2017-10-17 Kadenze, Inc. Feature extraction and machine learning for evaluation of image- or video-type, media-rich coursework
RU2014111792A (ru) * 2014-03-27 2015-10-10 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания лиц на основании преобразования двухмерной решетки
CA2895449A1 (en) * 2014-06-23 2015-12-23 Herbert Yang System and method for frequency-based 3d reconstruction of objects
US9700213B2 (en) * 2014-09-12 2017-07-11 Mayo Foundation For Medical Education And Research System and method for automatic polyp detection using global geometric constraints and local intensity variation patterns
US9552070B2 (en) * 2014-09-23 2017-01-24 Microsoft Technology Licensing, Llc Tracking hand/body pose
WO2017027475A1 (en) * 2015-08-07 2017-02-16 Jianming Liang Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy
US9741125B2 (en) * 2015-10-28 2017-08-22 Intel Corporation Method and system of background-foreground segmentation for image processing
US10841491B2 (en) * 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
CN109690554B (zh) * 2016-07-21 2023-12-05 西门子保健有限责任公司 用于基于人工智能的医学图像分割的方法和系统
JP6792364B2 (ja) * 2016-07-22 2020-11-25 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、およびプログラム
US10482633B2 (en) * 2016-09-12 2019-11-19 Zebra Medical Vision Ltd. Systems and methods for automated detection of an indication of malignancy in a mammographic image
GB2554435B (en) * 2016-09-27 2019-10-23 Univ Leicester Image processing
US10311312B2 (en) * 2017-08-31 2019-06-04 TuSimple System and method for vehicle occlusion detection
US10706535B2 (en) * 2017-09-08 2020-07-07 International Business Machines Corporation Tissue staining quality determination
US10535141B2 (en) * 2018-02-06 2020-01-14 Google Llc Differentiable jaccard loss approximation for training an artificial neural network
US10878576B2 (en) * 2018-02-14 2020-12-29 Elekta, Inc. Atlas-based segmentation using deep-learning
CN111095291B (zh) * 2018-02-27 2024-04-09 辉达公司 由自动驾驶车辆实时检测车道和边界
US11158063B2 (en) * 2018-07-30 2021-10-26 Hewlett Packard Enterprise Development Lp Objects and features neural network
US11195030B2 (en) * 2018-09-14 2021-12-07 Honda Motor Co., Ltd. Scene classification
GB2579583B (en) * 2018-12-04 2021-01-06 Yoti Holding Ltd Anti-spoofing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010717A (ja) * 2012-06-29 2014-01-20 Secom Co Ltd 領域分割装置
WO2018048507A1 (en) * 2016-09-06 2018-03-15 Han Xiao Neural network for generating synthetic medical images
WO2018156778A1 (en) * 2017-02-22 2018-08-30 The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Detection of prostate cancer in multi-parametric mri using random forest with instance weighting & mr prostate segmentation by deep learning with holistically-nested networks
JP2019010411A (ja) * 2017-06-30 2019-01-24 富士フイルム株式会社 学習データ生成支援装置および学習データ生成支援装置の作動方法並びに学習データ生成支援プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LING ZHANG, VISSAGAN GOPALAKRISHNAN, LE LU, RONALD M. SUMMERS, JOEL MOSS, JIANHUA YAO: "Self-learning to detect and segment cysts in lung CT images without manual annotation", 2018 IEEE 15TH INTERNATIONAL SYMPOSIUM ON BIOMEDICAL IMAGING (ISBI 2018), JPN6023005928, 4 April 2018 (2018-04-04), US, pages 1100 - 1103, XP033348341, ISSN: 0005057973, DOI: 10.1109/ISBI.2018.8363763 *
SUVADIP MUKHERJEE, XIAOJIE HUANG AND ROSHNI R. BHAGALIA: "Lung nodule segmentation using deep learned prior based graph cut", 2017 IEEE 14TH INTERNATIONAL SYMPOSIUM ON BIOMEDICAL IMAGING (ISBI 2017), JPN6023005929, 18 April 2017 (2017-04-18), US, pages 1205 - 1208, ISSN: 0005057972 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032480A1 (ja) * 2021-08-31 2023-03-09 富士フイルム株式会社 医療画像処理装置、肝区域分割方法およびプログラム

Also Published As

Publication number Publication date
US11455730B2 (en) 2022-09-27
US20200320713A1 (en) 2020-10-08
JP2023159216A (ja) 2023-10-31

Similar Documents

Publication Publication Date Title
JP2020170408A (ja) 画像処理装置、画像処理方法、プログラム
US11593943B2 (en) RECIST assessment of tumour progression
Acuna et al. Devil is in the edges: Learning semantic boundaries from noisy annotations
CN109690554B (zh) 用于基于人工智能的医学图像分割的方法和系统
EP3246873B1 (en) Method and data processing unit for segmenting an object in a medical image
US20120238866A1 (en) Method and System for Catheter Tracking in Fluoroscopic Images Using Adaptive Discriminant Learning and Measurement Fusion
JP2018022360A (ja) 画像解析装置、画像解析方法およびプログラム
CN110458829B (zh) 基于人工智能的图像质控方法、装置、设备及存储介质
CN108765392B (zh) 一种基于滑动窗口的消化道内镜病变检测和识别方法
EP3939006A1 (en) Feature point detection
WO2021129234A1 (zh) 心房间隔闭塞患者心脏医学影像分割方法及系统
US20220262105A1 (en) Systems, methods, and apparatuses for the generation of source models for transfer learning to application specific models used in the processing of medical imaging
US20200184274A1 (en) Apparatus and method for generating medical image segmentation deep-learning model, and medical image segmentation deep-learning model generated therefrom
JP7463575B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2017211939A (ja) 生成装置、生成方法、及び生成プログラム
CN111597946A (zh) 图像生成器的处理方法、图像生成方法及装置
Zhang et al. Joint vessel segmentation and deformable registration on multi-modal retinal images based on style transfer
US20210158511A1 (en) Hierarchical systems and methods for image segmentation
Chatterjee et al. A survey on techniques used in medical imaging processing
US20230281981A1 (en) Methods, devices, and computer readable media for training a keypoint estimation network using cgan-based data augmentation
WO2021078703A2 (en) System and method for segmentation of images
CN111667469A (zh) 肺部疾病分类方法、装置及设备
Swathi et al. Deep learning: A detailed analysis of various image augmentation techniques
Tyagi Brain Tumor Detection Using Convolutional Neural Network and Transfer Learning Approach
JP7486349B2 (ja) ニューラルネットワーク、ニューラルネットワークの学習方法、プログラム、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230516