JP7765415B2 - 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置 - Google Patents

学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置

Info

Publication number
JP7765415B2
JP7765415B2 JP2022578244A JP2022578244A JP7765415B2 JP 7765415 B2 JP7765415 B2 JP 7765415B2 JP 2022578244 A JP2022578244 A JP 2022578244A JP 2022578244 A JP2022578244 A JP 2022578244A JP 7765415 B2 JP7765415 B2 JP 7765415B2
Authority
JP
Japan
Prior art keywords
image
dimensional
resolution
generator
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022578244A
Other languages
English (en)
Other versions
JPWO2022163402A5 (ja
JPWO2022163402A1 (ja
Inventor
彰 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2022163402A1 publication Critical patent/JPWO2022163402A1/ja
Publication of JPWO2022163402A5 publication Critical patent/JPWO2022163402A5/ja
Application granted granted Critical
Publication of JP7765415B2 publication Critical patent/JP7765415B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • G06T12/30
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/441AI-based methods, deep learning or artificial neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置に係り、特に、3次元画像のドメイン変換を行う機械学習技術および画像処理技術に関する。
医療分野においては、CT(Computed Tomography)装置あるいはMRI(Magnetic Resonance Imaging)装置等の各種モダリティによって撮影された医療画像を用いて画像診断が行われている。近年は深層学習を用いて医療画像から臓器等の部位の抽出、病変領域の検出、あるいは病名などの分類等を行う人工知能(Artificial Intelligence:AI)の開発が進められている。
特許文献1には、AIを利用して医療画像から臓器領域を抽出する診断支援システムが記載されている。特許文献2には、CT装置等のモダリティによって撮影された所定のスライス厚さの3次元データからスライス厚さを変更した高精細の3次元データを生成する画像処理方法が記載されている。
非特許文献1は、敵対的生成ネットワーク(Generative Adversarial Networks:GAN)の構成を2つ組み合わせたネットワークを用い、学習データとしてペアの画像を用いることなく、2つの異なるドメインの画像を相互に変換する技術を開示している。
非特許文献2は、非特許文献1の技術を応用し、3次元の医療画像に対してドメイン変換および臓器の領域抽出のタスクを学習する方法を提案している。
特開2019-149094号公報 特許第6583875号
Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros, "Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks", ArXiv: 1703.10593 Zizhao Zhang, Lin Yang, Yefeng Zheng "Translating and Segmenting Multimodal Medical Volumes with Cycle- and Shape-Consistency Generative Adversarial Network", ArXiv: 1802.09655
医療画像は様々なモダリティによって生成され、モダリティごとに画像の特徴が異なる。AIを用いたコンピュータ支援診断(Computer Aided Diagnosis, Computer Aided Detection :CAD)システムなどは、対象とする医療画像を撮影したモダリティごとに構築されることが一般的である。特定のモダリティで構築された技術を、他のモダリティの画像にも適応することができれば、より多くの場面での活用が期待される。
例えば、CT画像を入力して臓器の領域抽出を行う臓器抽出CADのシステムが構築されている場合に、この技術を基にMR(Magnetic Resonance)画像からでも同様に、臓器の領域抽出を実現するといった応用が可能になる。
そのためには、例えば、CT画像から擬似的なMR画像を生成する処理、あるいは、逆に、MR画像から擬似的なCT画像を生成する処理などの、異種モダリティ間で画像変換を行う高性能な画像変換器が要求される。なお、「画像変換」は「画像生成」と言い換えてもよく、変換器は「生成器」と言い換えてもよい。モダリティは画像の特徴に対応するドメインの一種と理解される。
CT装置あるいはMRI装置などを用いて撮影された医療画像は、2次元スライス画像がスライス厚方向に連続する3次元データとなり得るため、このような3次元画像を対象とする画像変換器の開発が望まれる。
この点、非特許文献1は、2次元画像を対象とする内容であり、3次元画像への適用については記載されていない。非特許文献2は、3次元の医療画像を対象として、異なるドメイン間での画像変換を学習する方法を提案しているが、非特許文献2に記載の方法はアキシャル断面、サジタル断面およびコロナル断面の3種類のそれぞれの断面について高解像度のデータセットを用いてモデルを訓練する必要がある。
しかしながら、医療画像においては、3種類すべての断面について高解像度の3次元データを入手できるケースは少なく、異種のモダリティにおいて撮影範囲およびスライス厚などの撮影の条件が同じデータを十分に入手できるケースは少ない。
その一方で、3種類の断面のうち特定の1断面のみが高解像度である3次元データなど、異なる撮影の条件にて撮影された3次元データなどは入手可能なケースがある。例えば、実際の臨床にて広く利用されているスライス厚が厚いThickスライスの3次元データは、スライス厚方向の解像度が低く、3種類の断面のうち特定の1断面のみが高解像度である。
これに対して、スライス厚が1mm以下のThinスライスの3次元データは、スライス厚方向を含む直交3軸(例えば、x軸、y軸およびz軸)の各軸方向の解像度が高く、3種類の断面のすべてについて高解像度である。Thinスライスの3次元データは、Thickスライスに比べて、撮影に時間を要し、さらにデータ量も大きくなることから、多くの医療機関では通常はThickスライスのデータが取得される。このため、Thickスライスのデータは、Thinスライスのデータに比べて、比較的容易に入手可能である。
深層学習ベースのアルゴリズムを用いてドメイン変換のタスクを行うモデルを訓練する場合、モデルによって生成される生成画像の特徴は学習に使用したデータに依存する。仮に、非特許文献1に記載されている2次元画像を対象とする学習アーキテクチャを、そのまま3次元画像を対象とするアーキテクチャに応用し、訓練用のデータとして、入手容易なThickスライスのデータを使用して学習を実施した場合、生成される画像は学習に用いたデータと同じ条件(Thickスライス)で得られるため、3種類の各断面について高解像度の3次元画像の生成は困難である。
上記のような課題は、医療画像に限らず、各種用途の3次元画像を対象とするドメイン変換を実現する場合に共通する課題として把握される。
本開示はこのような事情に鑑みてなされたものであり、3次元の各軸方向のうち一部の軸方向の解像度が相対的に低い3次元データを学習に用いる場合であっても、入力された3次元画像のドメインを変換して高解像度の3次元生成画像を生成することができる学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置を提供することを目的とする。
本開示の一態様に係る学習済みモデルの生成方法は、入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を出力する学習済みモデルの生成方法であって、第1ドメインの3次元画像の入力を受け付け、第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、第1生成器によって生成された第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有する学習モデルを用い、コンピュータが、第1撮影条件により撮影された3次元画像と、第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得し、複数の学習データに基づき、第1生成器と第1判別器とを敵対的に学習させる学習処理を行うことを含む。
この態様によれば、第1生成器によって生成された3次元生成画像について、リアル画像(実画像)であるか、フェイク画像(生成画像)であるかの真偽判別を行う際に、リアル画像としての学習データにおいて相対的に解像度が高いスライス面方向を第1スライス面方向とする断面画像の2次元画像に分割して第1判別器に入力することができる。これにより、第1生成器への入力に使用される3次元画像において第1スライス面方向の断面画像の解像度が低い場合であっても、第1生成器は、第1スライス面方向の断面画像の解像度が高い3次元生成画像を生成できるように訓練される。学習済みの第1生成器は、3次元画像のドメインを変換する異種ドメイン画像生成のタスクを行う学習済みモデルとして利用することができる。
学習済みモデルの生成方法は、学習済みモデルを生産する方法と理解される。また、学習済みモデルの生成方法は、コンピュータを用いて実施される機械学習方法と理解してもよい。解像度は空間分解能と言い換えてもよい。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1生成器によって生成された第2ドメインの3次元生成画像から第1スライス面方向の断面画像を示す2次元画像を切り出す第1切り出し処理を行い、第1切り出し処理により切り出された2次元画像を第1判別器に入力することを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件は、撮影に使用した機器が第1撮影機器であることを含み、第2撮影条件は、撮影に使用した機器が第1撮影機器とは異なる種類の第2撮影機器であることを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件は、解像度の条件が第1解像度条件であることを含み、第2撮影条件は、解像度の条件が第1解像度条件とは異なる第2解像度条件であることを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件および第2撮影条件のうち少なくとも1つは、解像度の条件として、直交3軸のうち1つの軸方向の解像度が他の2つの軸方向のそれぞれの解像度よりも低いことを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、第2撮影条件により撮影された3次元画像として、直交3軸のうち1軸方向の解像度が他の2軸方向のそれぞれの解像度よりも低い非等方性3次元データが用いられ、第1スライス面方向は、非等方性3次元データにおいて相対的に解像度が高い他の2軸方向に平行なスライス面方向である構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、学習モデルは、さらに、第1生成器によって生成された第2ドメインの3次元生成画像から切り出される第1スライス面方向と直交する第2スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第2判別器を含み、学習処理は、第1生成器と第2判別器とを敵対的に学習させる処理を含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1生成器によって生成された第2ドメインの3次元生成画像から第2スライス面方向の断面画像を示す2次元画像を切り出す第2切り出し処理を行い、第2切り出し処理により切り出された2次元画像を第2判別器に入力することを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、学習データとして、x軸、y軸およびz軸の直交3軸のうちz軸方向の解像度がx軸方向およびy軸方向のそれぞれの解像度よりも低いz軸低解像の非等方性3次元データと、y軸方向の解像度がz軸方向およびx軸方向のそれぞれの解像度よりも低いy軸低解像の非等方性3次元データとが用いられ、第1スライス面方向は、x軸方向およびy軸方向に平行なスライス面方向であり、第2スライス面方向は、z軸方向およびx軸方向に平行なスライス面方向である構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、学習データとして、x軸、y軸およびz軸の直交3軸のうちy軸方向の解像度がz軸方向およびx軸方向のそれぞれの解像度よりも低いy軸低解像の非等方性3次元データと、x軸方向の解像度がy軸方向およびz軸方向のそれぞれの解像度よりも低いx軸低解像の非等方性3次元データとが用いられ、第1スライス面方向は、z軸方向およびx軸方向に平行なスライス面方向であり、第2スライス面方向は、y軸方向およびz軸方向に平行なスライス面方向である構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、学習データとして、x軸、y軸およびz軸の直交3軸のうちx軸方向の解像度がy軸方向およびz軸方向のそれぞれの解像度よりも低いx軸低解像の非等方性3次元データと、z軸方向の解像度がx軸方向およびy軸方向のそれぞれの解像度よりも低いz軸低解像の非等方性3次元データとが用いられ、第1スライス面方向は、y軸方向およびz軸方向に平行なスライス面方向であり、第2スライス面方向は、x軸方向およびy軸方向に平行なスライス面方向である構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、入力された学習データの解像度の条件に応じて、第2ドメインの3次元生成画像の真偽判別に使用する第1判別器または第2判別器を選択的に切り替える構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件により撮影された3次元画像として、直交3軸のうちの1軸方向の解像度が他の2軸方向の解像度よりも低い非等方性3次元データが用いられる構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1撮影条件により撮影された3次元画像を、直交3軸の各軸方向の解像度が等しい等方性3次元データに変換する第1等方化処理を行い、第1等方化処理による変換後の等方性3次元データを第1生成器に入力することを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、第1生成器は、直交3軸の各軸方向の解像度が等しい等方性3次元データの入力を受け付け、3次元生成画像としての等方性3次元データを出力する構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、学習モデルは、さらに、第2ドメインの3次元画像の入力を受け付け、第1ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第2生成器と、第2生成器によって生成された第1ドメインの3次元生成画像から切り出される特定のスライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第3判別器と、を含み、学習処理は、第2生成器と第3判別器とを敵対的に学習させる処理を含む構成とすることができる。
この態様は、非特許文献1に記載のいわゆるCycleGANの仕組みを応用するものとなり得る。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第2生成器により生成された第1ドメインの3次元生成画像から特定のスライス面方向の断面画像を示す2次元画像を切り出す第3切り出し処理を行い、第3切り出し処理により切り出された2次元画像を第3判別器に入力することを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1生成器から出力された第2ドメインの3次元生成画像を第2生成器に入力することにより第2生成器から出力される第1再構成生成画像に基づき、第1生成器および第2生成器をこの順に用いた変換処理の第1再構成ロスを計算する処理と、第2生成器から出力された第1ドメインの3次元生成画像を第1生成器に入力することにより第1生成器から出力される第2再構成生成画像に基づき第2生成器および第1生成器をこの順に用いた変換処理の第2再構成ロスを計算する処理と、を行うことを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1再構成生成画像に対して、第1再構成生成画像を生成する際の第1生成器への入力に使用した元の学習データと同じ解像度の3次元データに変換する第1アベレージプーリング処理を行い、第1アベレージプーリング処理による変換後の3次元データと、第1生成器への入力に使用した元の学習データとに基づいて第1再構成ロスを計算することを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第2再構成生成画像に対して、第2再構成生成画像を生成する際の第2生成器への入力に使用した元の学習データと同じ解像度の3次元データに変換する第2アベレージプーリング処理を行い、第2アベレージプーリング処理による変換後の3次元データと、第2生成器への入力に使用した元の学習データとに基づいて第2再構成ロスを計算することを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、学習モデルは、さらに、第2生成器により生成された第1ドメインの3次元生成画像から切り出される特定のスライス面方向と直交するスライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第4判別器を含み、学習処理は、第2生成器と第4判別器とを敵対的に学習させる処理を含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第2生成器により生成された第1ドメインの3次元生成画像から特定のスライス面方向と直交するスライス面方向の断面画像を示す2次元画像を切り出す第4切り出し処理を行い、第4切り出し処理により切り出された2次元画像を第4判別器に入力することを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、特定のスライス面方向は第1スライス面方向である構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第2撮影条件により撮影された3次元画像を、直交3軸の各軸方向の解像度が等しい等方性3次元データに変換する第2等方化処理を行い、第2等方化処理による変換後の等方性3次元データを第2生成器に入力することを含む構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件は第1ドメインに対応し、第2撮影条件は第2ドメインに対応している構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件により撮影された3次元画像は、医療機器である第1モダリティを用いて撮影された第1モダリティ画像であり、第2撮影条件により撮影された3次元画像は、第1モダリティとは異なる種類の医療機器である第2モダリティを用いて撮影された第2モダリティ画像であり、学習モデルは、第1モダリティ画像の入力を受けて、第2モダリティを用いて撮影された画像の特徴を持つ擬似的な第2モダリティ生成画像を生成するように学習が行われる構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、第1ドメインは第1解像度、第2ドメインは第1解像度よりも高解像の第2解像度である構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件により撮影された3次元画像は、直交3軸のうち第1軸方向の解像度が他の2軸方向のそれぞれの解像度よりも低い第1軸低解像3次元データであり、第2撮影条件により撮影された3次元画像は、直交3軸のうち第1軸方向とは異なる第2軸方向の解像度が他の2軸方向の解像度よりも低い第2軸低解像3次元データであり、学習モデルは、第1軸低解像3次元データおよび第2軸低解像3次元データの少なくとも1つの入力を受けて、入力された3次元データよりも高解像度の等方性3次元データを生成するように学習が行われる構成とすることができる。
本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1生成器により生成された第1ドメインの3次元生成画像に対して解像度を低下させる低解像化処理を行い、低解像化処理によって得られた再構成生成画像に基づいて、第1生成器による超解像処理と低解像化処理とによる画像変換の再構成ロスを計算することを含む構成とすることができる。
本開示の他の態様に係る機械学習システムは、入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を生成する学習モデルを訓練する機械学習システムであって、少なくとも1つの第1プロセッサと、少なくとも1つの第1プロセッサによって実行されるプログラムが記憶される少なくとも1つの第1記憶装置と、を備え、学習モデルは、第1ドメインの3次元画像の入力を受け付け、第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、第1生成器によって生成された第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有し、少なくとも1つの第1プロセッサは、プログラムの命令を実行することにより、第1撮影条件により撮影された3次元画像と、第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得し、複数の学習データに基づき、第1生成器と第1判別器とを敵対的に学習させる学習処理を行う。
本開示の他の態様に係るプログラムは、コンピュータに、入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を生成する学習モデルを訓練する処理を実行させるプログラムであって、学習モデルは、第1ドメインの3次元画像の入力を受け付け、第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、第1生成器によって生成された第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有し、コンピュータに、第1撮影条件により撮影された3次元画像と、第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得させ、複数の学習データに基づき、第1生成器と第1判別器とを敵対的に学習させる学習処理を実行させる。
本開示の他の態様に係る医療画像処理装置は、本開示による学習済みモデルの生成方法を実施することにより訓練された学習済みの第1生成器である第1学習済みモデルを記憶する第2記憶装置と、第1学習済みモデルを用いて画像処理を行う第2プロセッサと、を備え、第1学習済みモデルは、第1医療画像の入力を受けて、第1医療画像とは異なるドメインの第2医療画像を出力するように訓練されたモデルである。
本発明によれば、入力された3次元画像のドメインを変換して異種ドメインの特徴を持つ高解像度の3次元生成画像を生成することが可能になる。
図1は、MRI装置によって撮影された脳の3次元形態画像から切り出した3種類の各断面の画像例である。 図2は、CT画像におけるThinスライスと、Thickスライスとの表現差を示す画像例である。 図3は、MRI装置を用いて撮影されたThickスライスのMR画像の例である。 図4は、CT装置を用いて撮影されたThinスライスのCT画像の例である。 図5は、第1実施形態に係る機械学習システムにおける処理の概要を示す概念図である。 図6は、第1実施形態に係る機械学習システムの構成例を示す機能ブロック図である。 図7は、学習データ生成部の構成例を示す機能ブロック図である。 図8は、第1実施形態において使用される学習データセットの概念図である。 図9は、第1実施形態の変形例1を示す概念図である。 図10は、MR→CTのドメイン変換タスクを学習する機械学習システム100における処理の概要を示す概念図である。 図11は、第2実施形態において使用する学習データセットの概念図である。 図12は、第2実施形態に係る機械学習システムの構成例を示す機能ブロック図である。 図13は、第2実施形態に係る機械学習システムにおけるCT入力時の処理フローを示す模式図である。 図14は、第2実施形態に係る機械学習システムにおけるMR入力時の処理フローを示す模式図である。 図15は、アキシャル断面が高解像のThickスライスのMR画像が入力された場合の処理フローを示す模式図である。 図16は、コロナル断面が高解像のThickスライスのMR画像が入力された場合の処理フローを示す模式図である。 図17は、第2実施形態に係る機械学習システムを用いて学習を実施することにより得られた学習済みの生成器によるCT→MR変換の性能を示す画像例である。 図18は、第2実施形態に係る機械学習システムを用いて学習を実施することにより得られた学習済みの生成器によるMR→CT変換の性能を示す画像例である。 図19は、比較例に係る機械学習システムに適用される学習モデルの構成例である。 図20は、比較例に係る機械学習システムを用いてCT→MR変換のタスクを学習させた生成器によって生成された疑似MR画像の例である。 図21は、機械学習システムに適用される情報処理装置の構成例を示すブロック図である。 図22は、機械学習システムを用いた学習を実施して生成された学習済み生成器を用いた医療画像処理装置の構成例を示すブロック図である。 図23は、第3実施形態に係る機械学習システムの処理の概要を示す概念図である。 図24は、第4実施形態に係る機械学習システムにおける処理の概要を示す概念図である。 図25は、第4実施形態に係る機械学習システムにおいてアキシャル断面が高解像の3次元画像が入力された場合の処理フローを示す模式図である。 図26は、第4実施形態に係る機械学習システムにおいてコロナル断面が高解像の3次元画像が入力された場合の処理フローを示す模式図である。 図27は、コンピュータのハードウェア構成の例を示すブロック図である。
以下、添付図面に従って本発明の好ましい実施形態について説明する。
《医療画像の例》
医療画像を撮影する装置の代表的な例としてCT装置あるいはMRI装置といったモダリティが挙げられる。これらのモダリティにおいては、基本的な考え方として、2次元スライス画像を連続的に撮影することによって対象物の3次元形態を示す3次元データが得られる。本明細書において「3次元データ」という用語は、連続的に撮影された2次元スライス画像の集合体の概念を含み、3次元画像と同義である。なお、「画像」という用語は、画像データの意味を含む。連続する2次元スライス画像の集合体は「2次元画像シーケンス」あるいは「2次元画像シリーズ」と呼ばれる場合がある。「2次元画像」という用語は、3次元データから取り出される2次元スライス画像の概念を含む。
CT装置あるいはMRI装置などの撮影機器からのデータの再構成によって得られる断面(2次元のスライス断面)としてアキシャル断面、サジタル断面およびコロナル断面の3種類が考えられる。
図1は、MRI装置によって撮影された脳の3次元形態画像から切り出した3種類の各断面の画像例である。図1において左からサジタル断面画像、中央にアキシャル断面画像、右にコロナル断面画像が示されている。本明細書では、体軸方向をz軸方向とし、立位姿勢の人体における水平方向(左右方向)をx軸方向、奥行き方向(前後方向)をy軸方向とする直交座標系を導入する。アキシャル断面はz軸に直交する断面(xy面)、すなわちx軸方向およびy軸方向に平行な面である。サジタル断面はx軸に直交する断面(yz面)である。コロナル断面はy軸に直交する断面(zx面)である。
図2は、CT画像におけるThinスライスと、Thickスライスとの表現差を示す画像例である。図2の上段は、アキシャル断面にてスライス厚が1mmのthinスライスが再構成されている場合の3種類の各断面の画像例を示す。図2の下段はアキシャル断面にてスライス厚が8mmのThickスライスが再構成されている場合の3種類の各断面の画像例を示す。図2において左がアキシャル断面、中央がサジタル断面、右がコロナル断面のそれぞれの画像例である。
図2の上段に示すThinスライスの場合、3種類のすべての断面について高解像度の画像が得られている。一方で、下段に示すThickスライスの場合、アキシャル断面は高解像度の画像が得られているものの、他の断面については8mm厚のスライス情報が平均化されるため、サジタル断面およびコロナル断面の画像の解像度が低下する。
《医療画像を対象としたドメイン変換による画像生成の課題》
医療画像を対象とするドメイン変換(ここでは、異種モダリティ画像生成)のタスクを深層学習ベースのアルゴリズムを用いて学習させる場合、既述のとおり、学習に用いるデータの収集が課題の1つである。異種のモダリティにおいて、同じ撮影範囲を、同じ解像度の条件にて撮影したデータを十分に揃えることは困難である。多くの場合、モダリティごとに撮影時の解像度の条件が異なる。
図3および図4に、モダリティ間で画像の解像度が異なる例を示す。図3には、モダリティAとしてのMRのThickスライスの例を示し、図4には、モダリティBとしてのCTのThinスライスの例を示す。
図3の左側に示す3枚の画像は、コロナル断面が高解像となるThickスライスが再構成されたMR画像の例であり、図3の右側に示す3枚の画像は、アキシャル断面が高解像となるThickスライスが再構成されたMR画像の例である。MRI装置によって撮影されたMR画像は、コロナル断面のみが解像度が高く、アキシャル断面とサジタル断面との2断面はどちらも解像度が低い3次元データの場合もあれば、アキシャル断面のみが解像度が高く、コロナル断面とサジタル断面との解像度が低い3次元データの場合もあり得る。
コロナル断面のみが高解像である3次元データは、x軸方向およびz軸方向の解像度が高く、y軸方向の解像度が低いデータである。一方、アキシャル断面のみが高解像である3次元データは、x軸方向およびy軸方向の解像度が高く、z軸方向の解像度が低いデータである。
このように実際の撮影によって取得されたMR画像(実MR画像)の場合、3種類の断面のうち1つの断面のみが高解像度であり、他の2つの断面は低解像度である場合が多い。なお、MR画像には、T1強調画像、T2強調画像、HeavyT2強調画像、あるいは拡散強調画像など、様々な種類の画像があり得る。
これに対し、CT装置を用いた撮影によって得られるThinスライスの3次元データは、図4に示すように、3種類の断面のすべての断面について(3軸のすべての軸方向について)解像度が高いデータとなり得る。
図3および図4に示すような3次元データにおける各軸方向の解像度の違いは、3次元データを取得する際の撮影条件に依存する。なお、CT装置においてもThickスライスの撮影を行った場合には、図3のように、特定の方向の断面のみが解像度の高い3次元データとなり得る。
《第1実施形態》
第1実施形態では、図3に例示するような一部の軸方向の解像度が低い3次元データが混在する学習データセットを用いる場合であっても、3軸すべての方向(すなわち、3種類の各断面)について高解像の生成画像が得られる異種ドメイン画像生成(画像変換)を実現する機械学習システムの例を説明する。
図5は、第1実施形態に係る機械学習システム10における処理の概要を示す概念図である。ここでは、ソースドメインをCT、ターゲットドメインをMRとし、CT画像から擬似的なMR画像を生成する画像変換タスクを、GANのアーキテクチャをベースにして学習する方法について説明する。
第1実施形態に係る機械学習システム10は、3次元CNN(Convolutional Neural Network)を用いて構成された生成器20Gと、それぞれが2次元CNNを用いて構成された少なくとも2つの判別器24D、26Dとを含む。生成器20Gは、CTのドメインの特徴を持つ3次元データの入力を受けて、MRのドメインの特徴を持つ3次元データを出力する3次元の生成ネットワーク(3Dジェネレータ)である。生成器20Gには、例えば、U-netを3次元に拡張したV-net型のアーキテクチャが適用される。
U-netは、医療画像のセグメンテーション等に広く用いられているニューラルネットワークである。U-netについて記載された文献として例えば、「Olaf Ronneberger, et al. "U-Net: Convolutional Networks for Biomedical Image Segmentation", MICCAI,2015」がある。また、V-netについて記載された文献として例えば、「Fausto Milletari, et.al. "V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation"」がある。
複数の判別器24D、26Dは、それぞれが異なる断面方向の2次元画像の入力に対応して画像の真偽を判別する2次元の判別ネットワーク(2Dディスクリミネータ)である。判別器24D、26Dのそれぞれには、例えば、いわゆるPix2Pixと呼ばれる技術で用いられる2次元のディスクリミネータのアーキテクチャが適用される。Pix2Pixについて記載された文献として例えば、「Phillip Isola, et.al. "Image-to-Image Translation with Conditional Adversarial Nets"」がある。
第1実施形態では、生成器20Gによる生成画像が3次元であることから、判別器24D,26Dへの入力は、特定のスライス厚方向に分割した2次元の画像として扱う。そして、これら分割された各スライス画像(2次元画像)について得られた真偽の判別結果の出力の平均値を最終的な判別器24D,26Dの出力として用いる。
第1実施形態においては、訓練用のデータとして、CT装置を用いた撮影によって実際に得られたCTの3次元データ(実CT画像)と、MRI装置を用いた撮影によって実際に得られたMRの3次元データ(実MR画像)との画像のペアが用いられる。
入力として与える異種モダリティ画像は、撮影対象部位が同一であることが望ましい。また、生成器20Gによる変換後の出力(生成画像)は、入力画像と同一部位の画像とする。第1実施形態において、訓練に使用するペアの関係にあるCTの3次元データと、MRの3次元データとは、同じ患者について、同じ撮影範囲若しくは、実質的に同じ撮影範囲と見做すことができる程度の許容範囲で概ね同じ撮影範囲を撮影したものであるとする。第1実施形態の場合、学習に用いるMRの3次元データは、アキシャル断面の解像度が高い(サジタル断面とコロナル断面の解像度が低い)Thickスライスのデータ、および、コロナル断面の解像度が高い(アキシャル断面とサジタル断面の解像度が低い)Thickスライスのデータであるとする(図3参照)。
この場合、一方の判別器24Dは、アキシャル断面の2次元画像の入力に対して真偽を判別する2Dアキシャル判別器であり、他方の判別器26Dはコロナル断面の2次元画像の入力に対して真偽を判別する2Dコロナル判別器である。
また、第1実施形態において学習に用いるCTの3次元データについては、3種類の各断面の解像度が高いThinスライスのデータ(図4参照)であってもよいし、MRと同様に、3種類の断面のうちいずれか1断面の解像度が低いThickスライスのデータであってもよい。
生成器20Gは、等方解像度の3次元CT画像の入力を受けて、等方解像度の3次元MR生成画像を出力するように構成される。機械学習システム10は、生成器20Gの前段において、3次元データの等方化処理を行う等方化処理部12を含む。等方化処理は、x軸方向、y軸方向およびz軸方向の各軸方向の画素の大きさを等間隔に変換する処理であり、3次元データにおける(x,y,z)の各軸方向の単位長さを等間隔の物理サイズに変換する処理である。すなわち、等方化処理は、3次元データにおけるボクセルを所定サイズの立方体に変換する処理に相当する。ボクセルの形状が立方体であること、つまり、3次元画像のx軸、y軸およびz軸のすべて軸方向の解像度が等しいことを等方解像度という。
等方化処理部12は、例えば、最近傍補間、線形補間、あるいはスプライン補間などを用いて、3次元空間の正規格子単位が1mmの物理サイズでデータを補間する。正規格子単位の物理サイズは1mmに限定されず、読影に求められる十分な解像度が得られるサイズであればよい。
CTの3次元データは、生成器20Gへの入力前に、公知の技術を用いて等方化処理を実施してもよいし、等方化処理を省略して生成器20Gから出力される疑似MR画像が等方化されたものとなるように生成器20Gの3次元CNNを設計してもよい。
また、例えば、等方解像度の3次元画像の入力および出力を行う生成器20Gに代えて、(x,y,z)の単位格子が非等方の3次元CT画像の入力を受けて、同じ格子サイズの(x,y,zそれぞれの画素間隔が維持された)非等方の3次元疑似MR画像を出力する生成器を設計してもよい。
機械学習システム10は、さらに、生成器20Gが生成した3次元データから少なくとも2つのスライス面(断面)方向についての2次元画像を切り出す第1切り出し処理部14および第2切り出し処理部16を含む。第1切り出し処理部14および第2切り出し処理部16が行う切り出し処理は、3次元データから特定の方向のスライス(2次元画像)を取り出す処理である。切り出し処理が行われる特定の方向は、判別器24D、26Dのそれぞれに入力させる断面画像を示す2次元画像の断面の方向に対応している。
第1実施形態では、アキシャル断面の2次元画像の入力を受け付ける判別器24Dと、コロナル断面の2次元画像の入力を受け付ける判別器26Dとのそれぞれに対応して、アキシャル断面のスライスを切り出す第1切り出し処理部14と、コロナル断面のスライスを切り出す第2切り出し処理部16とを備える。
第1切り出し処理部14および第2切り出し処理部16のそれぞれは、生成器20Gから出力された3次元の疑似MR画像から特定の方向のスライスをすべて取り出す処理を実施してもよい。例えば、疑似MR画像の画像サイズが64×64×64である場合、第1切り出し処理部14は、xy面の画像サイズが64×64である2次元画像を64枚取り出す処理を行い、第2切り出し処理部16は、zx面の画像サイズが64×64である2次元画像を64枚取り出す処理を行う構成であってもよい。
判別器24Dには、第1切り出し処理部14によって切り出された2次元画像、または学習データに含まれる実MR画像のうちアキシャル断面が高解像度の3次元データから取り出された2次元画像が入力され、判別器24Dにおいて、リアル画像であるか、生成器20Gによって生成されたフェイク画像であるかの真偽判別が行われる。
同様に、判別器26Dには、第2切り出し処理部16によって取り出された2次元画像、または学習データのうちコロナル断面が高解像度のMRの3次元データから取り出された2次元画像が入力され、判別器26Dにおいて、リアル画像であるか、フェイク画像であるかの真偽判別が行われる。
「リアル画像」とは、撮影機器を用いて実際に撮影が行われることによって得られた実際の画像を意味する。「フェイク画像」とは、撮影を行うことなく、画像変換の処理によって人工的に生成された生成画像(疑似画像)を意味する。第1実施形態の場合、学習モデル44に入力する学習データとして使用するデータは「リアル画像」であり、生成器20Gが生成した生成画像は「フェイク画像」である。
学習データとして用意された実MR画像は、3種類の断面方向のうちいずれか1方向にのみ高解像であるため、その高解像の断面の2次元画像を用いて真偽判別を行うように、入力されるデータに応じて、高解像のスライス面方向に対応した2次元の判別器24D,26Dを選択的に切り替えて使用する。
このように、機械学習システム10においては、入力画像の解像度の条件に応じて、真偽判別の画像評価に用いる判別器24D,26Dを使い分け、解像度の高い断面の2次元画像のみを用いてリアル画像であるか、フェイク画像であるかの評価が行われる。
生成器20Gは本開示における「第1生成器」の一例である。判別器24Dは本開示における「第1判別器」の一例であり、判別器26Dは本開示における「第2判別器」の一例である。CTのドメインは本開示における「第1ドメイン」の一例であり、MRのドメインは「第2ドメイン」の一例である。
撮影に使用した撮影機器がCT装置であることは本開示における「第1撮影条件」の一例である。撮影に使用した撮影機器がMRI装置であることは本開示における「第2撮影条件」の一例である。CT装置は本開示における「第1撮影機器」、「第1モダリティ」の一例であり、CT画像は本開示における「第1モダリティ画像」の一例である。MRI装置は本開示における「第2撮影機器」、「第2モダリティ」の一例であり、MR画像は本開示における「第2モダリティ画像」の一例である。Thinスライスは本開示における「第1解像度条件」の一例である。Thickスライスは本開示における「第2解像度条件」の一例である。
アキシャル断面が得られるスライス面方向は本開示における「第1スライス面方向の一例であり、コロナル断面が得られるスライス面方向は本開示における「第2スライス面方向」の一例である。第1切り出し処理部14が行う切り出し処理は本開示における「第1切り出し処理」の一例であり、第2切り出し処理部16が行う切り出し処理は本開示における「第2切り出し処理」の一例である。等方化処理部12が行う等方化処理は本開示における「第1等方化処理」の一例である。
《機械学習システム10の構成例》
図6は、第1実施形態に係る機械学習システム10の構成例を示す機能ブロック図である。機械学習システム10は、学習データ生成部30と、学習処理部40とを含む。機械学習システム10は、さらに、画像保存部50と学習データ保存部54とを含んでいてもよい。
機械学習システム10は、1台又は複数台のコンピュータを含むコンピュータシステムによって実現することができる。学習データ生成部30、学習処理部40、画像保存部50および学習データ保存部54のそれぞれの機能は、コンピュータのハードウェアとソフトウェアの組み合わせによって実現できる。これら各部の機能は1台のコンピュータで実現してもよいし、2以上の複数台のコンピュータで処理の機能を分担して実現してもよい。
ここでは、学習データ生成部30、学習処理部40、画像保存部50および学習データ保存部54のそれぞれが別々の装置として構成される例を説明する。例えば、学習データ生成部30、学習処理部40、画像保存部50および学習データ保存部54は、電気通信回線を介して互いに接続されていてもよい。「接続」という用語は、有線接続に限らず、無線接続の概念も含む。電気通信回線は、ローカルエリアネットワークであってもよいし、ワイドエリアネットワークであってもよい。このように構成することで、学習データの生成処理と生成モデルの学習処理とを物理的にも時間的にも互いに束縛されることなく実施することができる。
画像保存部50は、医療用X線CT装置によって撮影されたCT再構成画像(CT画像)およびMRI装置によって撮影されたMR再構成画像(MR画像)を保存する大容量ストレージ装置を含む。画像保存部50は、例えば、DICOM(Digital Imaging and Communications in Medicine)の規格に準じて医療画像を保存するDICOMサーバであってもよい。画像保存部50に保存される医療画像は、人体の部位毎の画像であってもよいし、全身を撮影した画像であってもよい。
学習データ生成部30は、機械学習に用いる訓練用のデータ(学習データ)を生成する。学習データは、「訓練データ」と同義である。第1実施形態に係る機械学習システム10においては、CT装置を用いて実際に撮影された実CT画像である3次元データと、MRI装置を用いて実際に撮影された実MR画像である3次元データとが関連付けされた複数の画像ペアを学習データとして使用する。このような学習データは、画像保存部50に保存されているデータから生成することが可能である。
学習データ生成部30は、画像保存部50からオリジナルの3次元データを取得し、等方化、姿勢変換および固定サイズ領域の切り出しなどの前処理を行い、学習処理部40への入力に適した所望の画素数(ボクセル数)および画像サイズの3次元データを生成する。学習処理部40による学習の処理を効率的に実施するために、事前に学習データ生成部30を用いて複数の学習データを生成しておき、学習データセットとしてストレージに保存しておいてもよい。
学習データ保存部54は、学習データ生成部30により生成された前処理済みの学習データを保存しておくストレージを含む。学習データ生成部30によって生成された学習データは、学習データ保存部54から読み出され、学習処理部40に入力される。
なお、学習データ保存部54は、学習データ生成部30に含まれてもよし、画像保存部50の記憶領域の一部が学習データ保存部54として用いられてもよい。また、学習データ生成部30の処理機能の一部または全部は、学習処理部40に含まれていてもよい。
学習処理部40は、画像取得部42と、GANの構造を持つ学習モデル44とを含む。画像取得部42は、学習データ保存部54から学習モデル44に入力する学習データを取得する。画像取得部42を介して取得された学習データは学習モデル44に入力される。学習モデル44は、生成器20Gと、第1切り出し処理部14と、第2切り出し処理部16と、判別器24D,26Dとを含んで構成される。
学習処理部40は、さらに、誤差演算部46と、オプティマイザ48とを含む。誤差演算部46は、損失関数を用いて判別器24D,26Dからの出力と正解との誤差を評価する。さらに、誤差演算部46は、第1切り出し処理部14によって取り出された疑似MR(フェイクMR)の2次元画像と、これに対応する正解の(リアルMRの)2次元画像との誤差を評価する。誤差はロス(損失)と言い換えてもよい。
オプティマイザ48は、誤差演算部46の演算結果を基に、学習モデル44におけるネットワークのパラメータを更新する処理を行う。ネットワークのパラメータは、CNNの各層の処理に用いるフィルタのフィルタ係数(ノード間の結合の重み)およびノードのバイアスなどを含む。
すなわち、オプティマイザ48は、誤差演算部46の演算結果から生成器20Gおよび判別器24D,26Dのそれぞれのネットワークのパラメータの更新量を算出するパラメータ演算処理と、パラメータ演算処理の演算結果に従い、生成器20Gおよび判別器24D,26Dのそれぞれのネットワークのパラメータを更新するパラメータ更新処理とを行う。オプティマイザ48は、勾配降下法などのアルゴリズムに基づきパラメータの更新を行う。
学習処理部40は、入力された学習データに基づいて、生成器20Gと判別器24D,26Dとを用いた敵対的な学習を繰り返すことにより、それぞれのモデルの性能を高めながら、学習モデル44を学習させる。
《学習データの生成について》
図7は、学習データ生成部30の構成例を示す機能ブロック図である。学習データ生成部30は、等方化処理部12と、姿勢変換部32と、固定サイズ領域切り出し処理部34とを含む。学習データ生成部30は、例えば、等方化処理部12によってx軸、y軸およびz軸の各方向の画素単位のサイズを1mmに等方化した3次元データに対して、姿勢変換部32にて姿勢変換を行い、その後、固定サイズ領域切り出し処理部34により、無作為に固定サイズ領域を切り出す処理を行う。固定サイズ領域は、x軸方向×y軸方向×z軸方向の画素数が、例えば「160×160×160」などの立方体形状の3次元領域であってよい。
学習データ生成部30に入力されるオリジナルの3次元データは、CT画像であってもよいし、MR画像であってもよい。固定サイズ領域切り出し処理部34によって固定サイズ領域に切り出された固定サイズの3次元データは、学習データ保存部54に保存される。なお、固定サイズ領域に切り出された固定サイズの3次元データを学習データと理解してもよいし、固定サイズ領域に切り出す前のオリジナルの3次元データを学習データと理解してもよい。
図8は、第1実施形態において使用される学習データセットの概念図である。第1実施形態においては、CTのThinスライスの3次元データと、これに対応するMRのThickスライスの3次元データとのペアが複数組み用意され、これらの画像ペアが学習データとして用いられる。
《第1実施形態における学習方法》
第1実施形態における機械学習システム10では、入力される3次元データに応じて、真偽判別に用いる判別器24D,26Dの切り替えが行われる。すなわち、アキシャル断面が高解像のMR画像とこれに対応するCT画像との画像ペアが入力された場合、生成器20Gによる変換後の生成画像の判別は、アキシャル断面の2次元画像を評価する判別器24Dによって行われる。
一方、コロナル断面が高解像のMR画像とこれに対応するCT画像との画像ペアが入力された場合、生成器20Gによる変換後の生成画像の判別は、コロナル断面の2次元画像を評価する判別器26Dによって行われる。
このように、敵対的学習において、高解像の断面の2次元画像のみを用いて生成画像の評価を行うことにより、生成器20Gはx軸、y軸およびz軸の各軸方向について高解像の3次元画像を生成する性能を獲得する。第1実施形態に係る機械学習システム10を用いて学習を実行することにより、アキシャル断面、コロナル断面およびサジタル断面の各断面が高解像の画像が得られる3次元の生成器20Gを得ることができる。
機械学習システム10を用いた学習処理によって学習済みの生成器20Gを生成する方法は、本開示における「学習済みモデルの生成方法」の一例である。学習に使用したThinスライスのCT画像は本開示における「第1撮影条件により撮影された3次元画像」の一例であり、ThickスライスのMR画像は本開示における「第2撮影条件により撮影された3次元画像」の一例である。Thickスライスの3次元データは本開示における「等方性3次元データ」の一例であり、Thickスライスの3次元データは本開示における「非等方性3次元データ」の一例である。アキシャル断面が高解像のThickスライスの3次元データは、z軸方向の解像度が他の2軸方向(x軸方向およびy軸方向)のそれぞれの解像度よりも低い非等方性3次元データであり、本開示における「z軸低解像の非等方性3次元データ」の一例である。アキシャル高解像の3次元データにおけるアキシャル断面の方向は、相対的に解像度が高いx軸方向およびy軸方向に平行なスライス面方向である。コロナル断面が高解像のThickスライスの3次元データは、本開示における「y軸低解像の非等方性3次元データ」の一例である。生成器20Gから出力される疑似MR画像は本開示における「第2モダリティ生成画像」の一例である。
《変形例1》
図9は、第1実施形態の変形例1を示す概念図である。図9において、図5と共通する要素には同一の符号を付し、重複する説明は省略する。図9に示す構成について、図5と異なる点を説明する。
図5に示す第1実施形態では、アキシャル断面の2次元画像を評価する判別器24Dと、コロナル断面の2次元画像を評価する判別器26Dとの2種類の2次元ディスクリミネータを用いる例を説明したが、図9に示す変形例1に係る機械学習システム11は、図5の構成に加えて、生成器20Gの生成画像からサジタル断面方向の2次元画像を取り出す切り出し処理を行う切り出し処理部18と、サジタル断面の2次元画像を評価する判別器28Dとを備える。判別器28Dは、他の判別器24D,26Dと同様に、2次元CNNを用いて構成される。
この変形例1の場合、学習データとして、サジタル断面の解像度が高いThickスライスのMR画像とこれに対応するCT画像とのペアを用いることができる。
変形例1に係る機械学習システム11によれば、サジタル断面が高解像のMR画像とこれに対応するCT画像とのペア画像が入力された場合、生成器20Gによる変換後の生成画像の判別は、サジタル断面の2次元画像を評価する判別器28Dによって行われる。
変形例1に係る機械学習システム11を用いて学習を実行することにより、アキシャル断面、コロナル断面およびサジタル断面の各断面が高解像の生成画像が得られる3次元の画像変換(ドメイン変換)を行う生成器20Gを得ることができる。
《変形例2》
第1実施形態では、学習データとして、z軸低解像の非等方性3次元データと、y軸低解像の非等方性3次元データとを用いる例を説明したが、2種類の低解像度データの組み合わせについては、この例に限らない。
z軸方向が低解像度の3次元データと、y軸方向が低解像度の3次元データと、x軸方向が低解像度の3次元データとの3種類の低解像度データが想定される場合、2種類の低解像度データの組み合わせは、全部で3通りある。
[組み合わせ1]z軸方向が低解像度の3次元データとy軸方向が低解像度の3次元データとの組み合わせ
[組み合わせ2]y軸方向が低解像度の3次元データとx軸方向が低解像度の3次元データとの組み合わせ
[組み合わせ3]x軸方向が低解像度の3次元データとz軸方向が低解像度の3次元データとの組み合わせ
第1実施形態で説明した例は[組み合わせ1]のケースである。[組み合わせ2]の学習データを用いる場合、判別器として、コロナル断面の2次元画像の入力を受け付けて真偽を判別する2Dコロナル判別器と、サジタル断面の2次元画像の入力を受け付けて真偽を判別する2Dサジタル判別器とが用いられ、各判別器への入力に際して3次元生成画像から各判別器に対応したスライス面方向の断面画像の切り出し処理が行われる。
サジタル断面が高解像のThickスライスの3次元データは、x軸方向が低解像度の3次元データの一例であり、本開示における「x軸低解像の非等方性3次元データ」の一例である。
同様に、[組み合わせ3]の学習データを用いる場合、判別器として、2Dサジタル判別器と、2Dアキシャル判別器とが用いられ、各判別器への入力に際して3次元生成画像から各判別器に対応したスライス面方向の対応した断面画像の切り出処理が行われる。
《MRI→CT変換について》
第1実施形態では実CT画像から疑似MR画像を生成するCT→MR変換の例を説明したが、第1実施形態における学習に使用した学習データと同様のデータセット(Thickスライスのデータを含むデータセット)を用いて、MR画像から疑似CT画像を生成するMRI→CT変換を行う生成器を学習させることも可能である。
この場合、第1実施形態に係る学習モデルと同様のアーキテクチャを適用してもよいが、ThinスライスのCT画像のように、3種類の各断面がすべて高解像の3次元データが存在する場合は、生成された疑似CT画像を評価する判別器として3次元の判別器(3Dディスクリミネータ)を適用し得る。
図10は、MR→CTのドメイン変換タスクを学習する機械学習システム100における処理の概要を示す概念図である。機械学習システム100は、3次元CNNを用いて構成された生成器120Fと、3次元CNNを用いて構成された判別器124Dとを含む。機械学習システム100は、生成器120Fの入力前に3次元データを等方化処理する等方化処理部112および図示しない姿勢変換部および固定サイズ領域切り出し処理部を含んでいてもよい。
判別器124Dは、生成器120Fによって生成された3次元データ、または、学習データに含まれる実CT画像である3次元データの入力を受けて、入力された3次元データがリアル画像であるか、フェイク画像であるかの判別を行う。
学習データとして用いられるThinスライスの実CT画像は、3軸の各方向に高解像のため、図10のように、3次元の判別器124Dを用いて学習することが可能である。
《第2実施形態》
医療画像の場合、異種モダリティ間で対応するペア画像を用意することが困難な場合も多い。第2実施形態では、非特許文献2に記載されているCycleGANの仕組みをベースにしたアーキテクチャを採用し、対応関係の無い(ペアでない)それぞれのドメインの画像群を学習データとして用いて、ドメイン変換のタスクを学習する例を説明する。
図11は、第2実施形態において使用する学習データセットの概念図である。第2実施形態の場合、実CT画像の画像群と、実MR画像の画像群とがそれぞれ存在していればよい。第2実施形態では、学習に用いるデータとして、CTおよびMRIのそれぞれのドメインにおいて複数の実画像の3次元データが用いられる。それぞれのドメインの3次元データは、図3および図4において説明したものと同様であってよい。
第2実施形態に用いる学習データセットには、Thinスライスの3次元データと、MRI装置を用いて撮影されたThickスライスの3次元データとがそれぞれ複数個含まれる。なお、学習データセットには、CT装置を用いて撮影されたThickスライスの3次元データが含まれていてもよい。
図12は、第2実施形態に係る機械学習システム210の構成例を示す機能ブロック図である。図12において、図6に示す構成と同一または類似の要素には同一の符号を付し、重複する説明は省略する。
図12に示す学習データ保存部54には、図11で説明したようなThinスライスの3次元データとThickスライスの3次元データとが混在する学習データセットが保存されている。
機械学習システム210は、図6における学習処理部40に代えて、学習処理部240を含む。学習処理部240は、画像取得部42と、前処理部230と、学習モデル244と、誤差演算部246と、オプティマイザ248とを含む。
前処理部230は、図7において説明した学習データ生成部30と同様の処理を行うものであり、等方化処理部12、姿勢変換部32および固定サイズ領域切り出し処理部34を含む。前処理部230は、画像取得部42を介して取得した3次元データに対して、学習モデル244への入力のための前処理を行う。ここでは、前処理として、等方化処理、姿勢変換および固定サイズ領域の取り出し処理を例示するが、これらの処理は必要に応じて実施さればよく、前処理部230における処理の一部または全部は省略することも可能である。また、前処理部230は、CT画像の前処理を行うCT用の前処理部と、MR画像の前処理を行うMR用の前処理部とが別々に構成されていてもよい。
学習モデル244は、第1生成器220Gと、第1切り出し処理部14と、第2切り出し処理部16と、第1判別器224Dと、第2判別器226Dと、第2生成器250Fと、第3切り出し処理部254と、第4切り出し処理部256と、第3判別器264Dと、第4判別器266Dとを含んで構成される。
第1生成器220Gと第2生成器250Fとはそれぞれが3次元CNNを用いて構成される。第1生成器220Gおよび第2生成器250Fのそれぞれのネットワーク構造は、第1実施形態で説明した生成器20Gと同様であってよい。
第1判別器224D、第2判別器226D、第3判別器264Dおよび第4判別器266Dのそれぞれは2次元CNNを用いて構成される。これらの判別器のネットワーク構造は、第1実施形態で説明した判別器24D,26Dと同様であってよい。
第1生成器220Gは、CT→MRIのドメイン変換を行う3Dジェネレータであり、CTのドメインの特徴を持つ3次元データの入力を受け付け、MRのドメインの特徴を持つ3次元データを生成して出力する。図12において第1生成器220Gに入力される「3D_CT」という記載は、等方化された実CT画像の3次元データを表している。
第2生成器250Fは、MRI→CTのドメイン変換を行う3Dジェネレータであり、MRのドメインの特徴を持つ3次元データの入力を受け付け、CTのドメインの特徴を持つ3次元データを生成して出力する。図12において第2生成器250Fに入力される「3D_MR」という記載は、等方化された実MR画像の3次元データを表している。
第1生成器220Gの出力は、第2生成器250Fの入力と接続され、第1生成器220Gによって生成された疑似MR画像は、第2生成器250Fに入力され得る。
また、第2生成器250Fの出力は、第1生成器220Gの入力と接続され、第1生成器220Gによって生成された疑似CT画像は、第2生成器250Fに入力され得る。
第3切り出し処理部254は、第2生成器250Fから出力された疑似CT画像の3次元データから、アキシャル断面のスライスを取り出す切り出し処理を行う。第3切り出し処理部254によって取り出された2次元画像は第3判別器264Dに入力される。
第3判別器264Dには、第3切り出し処理部254によって取り出された2次元画像、または学習データに含まれる実際のCTの3次元データ(リアルCT画像)から取り出されたアキシャル断面の2次元画像が入力され、第3判別器264Dにおいて、リアル画像であるか、第2生成器250Fによって生成されたフェイク画像であるかの判別が行われる。
第4切り出し処理部256は、第2生成器250Fから出力された3次元の疑似CT画像から、コロナル断面のスライスを取り出す切り出し処理を行う。第4切り出し処理部25によって取り出された2次元画像は第4判別器266Dに入力される。
第4判別器266Dには、第4切り出し処理部256によって取り出された2次元画像、または学習データに含まれる実際のCTの3次元データ(リアルCT画像)から取り出されたコロナル断面の2次元画像が入力され、第4判別器266Dにおいて、リアル画像であるか、フェイク画像であるかの判別が行われる。
誤差演算部46は、損失関数を用いてそれぞれの判別器(224D,226D,264D,266D)からの出力と正解との誤差(Adversarial Loss)を評価する。さらに、誤差演算部46は、第1生成器220Gと第2生成器250Fとを接続した画像変換による再構成ロス(Cycle Consistency Loss)を評価する。
再構成ロスには、第1生成器220GによるCT→MR変換の出力を第2生成器250Fに入力することにより第2生成器250Fから出力される再構成生成画像と、第1生成器220Gに入力した元の入力画像との誤差(CT→MR→CT変換による再構成ロス)と、第2生成器250FによるMR→CT変換の出力を第2生成器250Fに入力することにより第1生成器220Gから出力される再構成生成画像と、第2生成器250Fに入力した元の入力画像との誤差(MR→CT→MR変換による再構成ロス)とがある。
オプティマイザ248は、誤差演算部246の演算結果を基に、学習モデル244におけるネットワークのパラメータを更新する処理を行う。オプティマイザ248は、誤差演算部46の演算結果から第1生成器220G、第1判別器224D、第2判別器226D、第2生成器250F、第3判別器264Dおよび第4判別器266Dのそれぞれのネットワークのパラメータの更新量を算出するパラメータ演算処理と、パラメータ演算処理の演算結果に従い、それぞれのネットワークのパラメータを更新するパラメータ更新処理とを行う。
〈CT入力時の処理(CT→MR)の概要〉
図13は、第2実施形態に係る機械学習システム210におけるCT入力時の処理の流れを示す概念図である。以下の説明では、第1生成器220Gおよび第2生成器250Fのそれぞれが等方解像度の3次元画像の入力を受けて、等方解像度の3次元生成画像を出力する構成である場合を説明するが、既述のとおり、非等方解像度の3次元画像の入力を受け付ける生成器であってもよい。
CTの3次元データは、等方化処理部12による等方化処理等を経て等方解像度の3次元のCT画像CTrとして第1生成器220Gに入力される。第1生成器220Gは、CT画像CTrの入力を受けて、CT→MR変換を行い、疑似MR画像MRsynを出力する。
この疑似MR画像MRsynは、第1切り出し処理部14および第2切り出し処理部16のそれぞれによって特定の断面方向のスライス(2次元画像)に分割されて、断面方向ごとの第1判別器224Dおよび第2判別器226Dに入力され、第1判別器224Dおよび第2判別器226Dのそれぞれにより真偽判別が行われる。
また、疑似MR画像MRsynは、さらに第2生成器250Fに入力され、第2生成器250FによりMR→CT変換が行われて第2生成器250Fから再構成CT画像CTrecが出力される。
機械学習システム210では、第2生成器250Fから出力された再構成CT画像CTrecと、元のCT画像CTrとの差異を示す再構成ロスが評価される。この再構成ロスは本開示における「第1再構成ロス」の一例である。
第1生成器220Gと第2生成器250Fとをこの順に用いた変換処理によって生成される再構成CT画像CTrecは本開示における「第1再構成生成画像」の一例である。
〈MR入力時の処理(MR→CT)の概要〉
図14は、第2実施形態に係る機械学習システム210におけるMR入力時の処理の流れを示す概念図である。MRの3次元データは、等方化処理部12による等方化処理等を経て等方解像度の3次元のMR画像MRrとして第2生成器250Fに入力される。第2生成器250Fは、MR画像MRrの入力を受けて、MR→CT変換を行い、疑似CT画像CTsynを出力する。MRの3次元データに対して行われる等方化処理は本開示における「第2等方化処理」の一例である。
この疑似CT画像CTsynは、第3切り出し処理部254および第4切り出し処理部256のそれぞれによって特定の断面方向のスライス(2次元画像)に分割されて、断面方向ごとの第3判別器264Dおよび第4判別器266Dに入力され、第3判別器264Dおよび第4判別器266Dのそれぞれにより真偽判別が行われる。
また、疑似CT画像CTsynは、さらに第1生成器220Gに入力され、第1生成器220GによりCT→MR変換が行われて第1生成器220Gから再構成MR画像MRrecが出力される。
MR→CT→MRの変換による再構成ロスについては、図13と同様に、再構成MR画像MRrecと、元のMR画像MRrとの差異を計算してもよいが、図15および図16に示すように、再構成MR画像MRrecに対して、アベレージプーリング処理を行い、入力に用いられたThickスライスの(等方化する前の)MR画像と同じサイズに変換してから、元の(等方化する前の)MR画像との誤差(再構成ロス)を計算することが好ましい。この再構成ロスは本開示における「第2再構成ロス」の一例である。
第2生成器250Fと第1生成器220Gとをこの順に用いた変換処理によって生成される再構成MR画像MRrecは本開示における「第2再構成生成画像」の一例である。
図15には、アキシャル断面が高解像のThickスライスのMR画像MRaxが入力される場合の例が示されている。機械学習システム210は、アベレージプーリング処理部270を備える。アベレージプーリング処理部270は、第1生成器220Gから出力された等方解像度の再構成MR画像MRrecに対して、z軸方向にアベレージプーリング処理を行い、入力に用いられた元のMR画像MRaxと同じスライス間隔の3次元データに戻す。アベレージプーリング処理部270から出力された再構成MR画像MRaxrecと、元のMR画像MRaxとを比較して再構成ロスが計算される。
図16には、コロナル断面が高解像のThickスライスのMR画像MRcoが入力される場合の例が示されている。機械学習システム210は、さらにアベレージプーリング処理部272を備える。アベレージプーリング処理部272は、第1生成器220Gから出力された等方解像度の再構成MR画像MRrecに対して、y軸方向にアベレージプーリング処理を行い、入力に用いられた元のMR画像MRcoと同じスライス間隔の3次元データに戻す。アベレージプーリング処理部270から出力された再構成MR画像MRcorecと、元のMR画像MRcoとを比較して再構成ロスが計算される。
アベレージプーリング処理部270,272は、図12における第2生成器250Fと誤差演算部246との間に設けられてもよいし、誤差演算部246の中に組み込まれていてもよい。
なお、図13で説明したCT→MR変換についても、入力用のCT画像としてThickスライスの3次元データが用いられる場合には、図15および図16と同様に、再構成CT画像CTrecに対してアベレージプーリング処理を行い、アベレージプーリング処理による変換後の3次元データと、元の入力画像である3次元データとに基づいて再構成ロスを計算してもよい。
再構成CT画像CTrecに対して行うアベレージプーリング処理は本開示における「第1アベレージプーリング処理」の一例である。再構成MR画像MRrecに対して行うアベレージプーリング処理は本開示における「第2アベレージプーリング処理」の一例である。
〈第2実施形態の効果〉
第2実施形態に係る機械学習システム210を用いて学習を行うことにより、第1生成器220Gは、CT→MR変換の画像生成能力を獲得し、高解像度の疑似MR画像を生成する3次元画像変換器となり得る。第2生成器250Fは、MR→CT変換の画像生成能力を獲得し、高解像度の疑似CT画像を生成する3次元画像変換器となり得る。
図17は、第2実施形態に係る機械学習システム210を用いて学習を実施することにより得られた学習済みの第1生成器220GによるCT→MR変換の性能を示す画像例である。図17は、ThinスライスのCTデータセットと、ThickスライスのMRデータセットとを用いて学習を行った結果である。学習に用いたMRデータセットは、アキシャル断面が高解像のThickスライスと、コロナル断面が高解像のThickスライスとの2種類しか含まないものである。
図17の左側が入力画像、右側が出力画像(生成画像)の例である。図17には、CTのThinスライスの画像を入力した場合に生成される疑似MR画像の例が示されている。図17に示すように、MRのThickスライスを1枚も学習させていない状況にもかかわらず、学習済みの第1生成器220Gによって生成される疑似MR画像は、アキシャル断面、コロナル断面およびサジタル断面の各断面において解像度の高い高精細な画像となる。
図18は、第2実施形態に係る機械学習システム210を用いて学習を実施することにより得られた学習済みの第2生成器250FによるMR→CT変換の性能を示す画像例である。図18には、ThickスライスのMR画像を入力した場合に得られる疑似CT画像の例が示されている。図18に示すように、学習済みの第2生成器250Fによって生成される疑似CT画像は、アキシャル断面、コロナル断面およびサジタル断面の各断面において解像度の高い高精細な画像となる。
Thinスライスの3次元データは高解像度で非常に用量が大きいため、医療機関では多くのデータがThickスライスとしてデータベースに保存されている。Thickスライスのデータを画像変換に用いて各断面について高解像度の画像を生成し得る3次元学習ができるということは、実用面で大きなメリットである。
なお、上述の第2実施形態では、学習データとして、アキシャル断面が高解像の3次元データ(z軸方向が低解像度のデータ)と、コロナル断面が高解像の3次元データ(y軸方向が低解像度のデータ)とを用いる例を説明したが、第1実施形態の変形例2で説明したように、他のデータの種類の組み合わせについても同様に適用可能である。
《比較例》
図19は、比較例に係る機械学習システムに適用される学習モデル344の構成例である。学習モデル344は、CycleGANのアーキテクチャをベースにして、3次元の入力および出力に拡張した3D-CycleGANであり、3次元CNNを用いて構成される生成器320G,350Fと、3次元CNNを用いて構成される判別器324D,364Dとを含む。
生成器320Gは、CT→MR変換を行う画像生成ネットワークであり、CTの3次元データの入力を受けて、MRの3次元データを出力する。生成器350Fは、MR→CT変換を行う画像生成ネットワークであり、MRの3次元データの入力を受けて、CTの3次元データを出力する。
判別器324Dは、生成器320Gによって生成された疑似MR画像、または、学習データに含まれる実MR画像の3次元データの入力を受け付けて、画像の真偽を判別する3次元ディスクリミネータである。同様に、判別器364Dは、生成器350Fによって生成された疑似CT画像、または、学習データに含まれる実CT画像の3次元データの入力を受け付けて、画像の真偽を判別する3次元ディスクリミネータである。
比較例に係る機械学習システムは、学習モデル344の他に、図示しない誤差演算部とオプティマイザとを含む。学習の際に、実CT画像の入力を受けて生成器320Gによって生成された疑似MR画像は生成器350Fに入力され、生成器350FによりMR→CT変換が行われて生成器350Fから再構成CT画像が出力される。この再構成CT画像と元の実CT画像とを基に、CT→MR→CTの変換による再構成ロスが評価される。
同様に、実MR画像の入力を受けて生成器350Fによって生成された疑似CT画像は生成器320Gに入力され、生成器320GによりCT→MR変換が行われて生成器320Gから再構成MR画像が出力される。この再構成MR画像と元の実MR画像とを基に、MR→CT→MRの変換による再構成ロスが評価される。
比較例に係る機械学習システムを用い、第2実施形態と同様の学習データセットを学習データとして使用して学習を実施した場合に得られる生成画像の例を図20に示す。図20は、CT→MR変換のタスクを学習させた生成器によって生成された疑似MR画像の例である。3次元の判別器を用いた比較例に係る機械学習システムの場合、学習データのドメインのスライス厚(Thickness)も同時に学習してしまう。したがって、学習に用いたMR画像がThickスライスの3次元データであれば、生成画像はThickスライスの画像表現を再現してしまい、各断面において画質が低く、高精細の画像生成が困難である。
この点、第1実施形態および第2実施形態にて説明した方法によれば、Thickスライスの3次元データを学習に用いる場合であっても、各断面において高精細な画像が得られる画像生成が可能となる。
《機械学習システムの構成例》
図21は、機械学習システム10,210に適用される情報処理装置400の構成例を示すブロック図である。情報処理装置400は、プロセッサ402と、有体物である非一時的なコンピュータ可読媒体404と、通信インターフェース406と、入出力インターフェース408と、バス410と、入力装置414おと、表示装置416とを備える。プロセッサ402は本開示における「第1プロセッサ」の一例である。コンピュータ可読媒体404は本開示における「第1記憶装置」の一例である。
プロセッサ402はCPU(Central Processing Unit)を含む。プロセッサ402はGPU(Graphics Processing Unit)を含んでもよい。プロセッサ402は、バス410を介してコンピュータ可読媒体404、通信インターフェース406および入出力インターフェース408と接続される。入力装置414および表示装置416は入出力インターフェース408を介してバス410に接続される。
コンピュータ可読媒体404は、主記憶装置であるメモリおよび補助記憶装置であるストレージを含む。コンピュータ可読媒体404は、例えば、半導体メモリ、ハードディスク(Hard Disk Drive:HDD)装置、もしくはソリッドステートドライブ(Solid State Drive:SSD)装置またはこれらの複数の組み合わせであってよい。
情報処理装置400は、通信インターフェース406を介して図示しない電気通信回線に接続される。電気通信回線は、広域通信回線であってもよいし、構内通信回線であってもよく、これらの組み合わせであってもよい。
コンピュータ可読媒体404には、各種の処理を行うための複数のプログラムおよびデータ等が記憶される。コンピュータ可読媒体404には、例えば、等方化処理プログラム420、姿勢変換プログラム422、固定サイズ領域切り出し処理プログラム424および学習処理プログラム430などが記憶される。学習処理プログラム430は、学習モデル244と、誤差演算ブログラム436と、パラメータ更新プログラム438とを含む。
プロセッサ402が、これらのプログラムの命令を実行することにより、プロセッサ402を含む情報処理装置400は、プログラムに対応した処理部として機能する。例えば、プロセッサ402が等方化処理プログラム420の命令を実行することにより、プロセッサ402は、等方化処理を行う等方化処理部12として機能する。また、プロセッサ402が学習処理プログラム430の命令を実行することにより、プロセッサ402は、学習処理を行う学習処理部40,240として機能する。他のプログラムについても同様である。
また、コンピュータ可読媒体404には、図示しない表示制御プログラムが格納される。表示制御プログラムは、表示装置416への表示出力に必要な表示用信号を生成し、表示装置416の表示制御を行う。
表示装置416は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、もしくは、プロジェクタ、またはこれらの適宜の組み合わせによって構成される。入力装置414は、例えば、キーボード、マウス、マルチタッチパネル、もしくはその他のポインティングデバイス、もしくは、音声入力装置、またはこれらの適宜の組み合わせによって構成される。入力装置414は、オペレータによる種々の入力を受け付ける。
《学習済みモデルを用いた医療画像処理装置の例》
図22は、機械学習システム10,210を用いた学習処理を実施して生成された学習済みモデルが適用される医療画像処理装置500のハードウェア構成の例を示すブロック図である。
医療画像処理装置500は、プロセッサ502と、有体物である非一時的なコンピュータ可読媒体504と、通信インターフェース506と、入出力インターフェース508と、バス510と、入力装置514と、表示装置516とを備える。
プロセッサ502、コンピュータ可読媒体504、通信インターフェース506、入出力インターフェース508、バス510、入力装置514および表示装置516等のハードウェア構成は、図21で説明した情報処理装置400におけるプロセッサ402、コンピュータ可読媒体404、通信インターフェース406、入出力インターフェース408、バス410、入力装置414および表示装置416の対応する要素と同様であってよい。プロセッサ502は本開示における「第2プロセッサ」の一例である。「コンピュータ可読媒体504」は本開示における「第2記憶装置」の一例である。
医療画像処理装置500のコンピュータ可読媒体504には、CT-MR変換プログラム520と、MR-CT変換プログラム530とのうち少なくとも1つが格納される。CT-MR変換プログラム520は、CT→MRのドメイン変換を学習した学習済み生成器522を含む。学習済み生成器522は、図5における生成器20Gまたは図12における第1生成器220Gに対応する学習済みモデルである。学習済み生成器522は本開示における「第1学習済みモデル」の一例である。第1生成器220Gに入力されるCT画像は本開示における「第1医療画像」の一例である。第1生成器220Gから出力される疑似MR画像は本開示における「第2医療画像」の一例である。学習済み生成器522から出力される疑似MR画像は本開示における「第2医療画像」の一例である。
MR-CT変換プログラム530は、MR→CTのドメイン変換を学習した学習済み生成器532を含む。学習済み生成器532は、図12における第2生成器250Fに対応する学習済みモデルである。
コンピュータ可読媒体504は、さらに、等方化処理プログラム420、臓器認識AIプログラム540、疾患検出AIプログラム542およびレポート作成支援プログラム544のうち少なくとも1つのプログラムを含んでいてもよい。等方化処理プログラム420は、CT-MR変換プログラム520およびMR-CT変換プログラム530のそれぞれのプログラムに含まれていてもよい。
臓器認識AIプログラム540は、臓器セグメンテーションを行う処理モジュールを含む。臓器認識AIプログラム540の中には、肺区域ラベリングプログラム、血管領域抽出プログラムおよび骨ラベリングプログラムなどが含まれてもよい。
疾患検出AIプログラム542は、特定の疾患に対応した検出処理モジュールを含む。疾患検出AIプログラム542として、例えば、肺結節検出プログラム、肺結節性状分析プログラム、肺炎CADプログラム、乳腺CADプログラム、肝臓CADプログラム、脳CADプログラムおよび大腸CADプログラムのうち少なくとも1つのプログラムが含まれてよい。
レポート作成支援プログラム544は、対象とする医療画像に対応する所見文の候補を生成する学習済み文書生成モデルを含む。
臓器認識AIプログラム540、疾患検出AIプログラム542およびレポート作成支援プログラム544などの各種の処理プログラムは、深層学習などの機械学習を適用して目的のタスクの出力が得られるように学習された学習済みモデルを含むAI処理モジュールであってよい。
CAD用のAIモデルは、例えば、畳み込み層を有する各種のCNNを用いて構成することができる。AIモデルに対する入力データは、例えば、2次元画像、3次元画像または動画像など医用画像を含み、AIモデルからの出力は例えば、画像内における疾病領域(病変部位)などの位置を示す情報、もしくは病名などのクラス分類を示す情報、またはこれらの組み合わせであってよい。
時系列データや文書データなどを扱うAIモデルは、例えば、各種の再帰型ニューラルネットワーク(Recurrent Neural Network:RNN)を用いて構成することができる。時系列データには、例えば心電図の波形データなどが含まれる。文書データには、例えば、医師によって作成される所見文などが含まれる。
CT-MR変換プログラム520またはMR-CT変換プログラム530によって生成された生成画像は、臓器認識AIプログラム540、疾患検出AIプログラム542およびレポート作成支援プログラム544のうち少なくとも1つのプログラムに入力することができる。これにより、特定のモダリティにて構築されたAI処理モジュールを他のモダリティの画像にも適用することが可能となり、応用範囲が広がる。
《第3実施形態》
これまでドメイン変換の例として異種モダリティ間の画像生成タスクの例を説明したが、第3実施形態では、ソースドメインをThickスライス(すなわち、低解像度)、ターゲットドメインをThinスライス(すなわち、高解像度)とする超解像タスクの例を示す。
図23は、第3実施形態に係る機械学習システム600の処理の概要を示す概念図である。ここでは、MR画像を対象とし、低解像度の3次元画像から高解像度の3次元画像を生成する超解像画像生成タスク(超解像タスク)を学習させる方法について説明する。
入力として用いられる低解像3次元MR画像は、3断面のうちアキシャル断面のみが高解像(他の断面は低解像)のアキシャル画像シリーズと、コロナル断面のみが高解像(他の断面は低解像)のコロナル画像シリーズとであるとする。
アキシャル画像シリーズは、z軸方向の解像度が他の2軸方向よりも低い3次元データであり、「z軸方向低解像画像」と理解される。コロナル画像シリーズは、y軸方向の解像度が他の2軸方向よりも低い3次元データであり、「y軸方向低解像画像」と理解される。以下、アキシャル画像シリーズを「アキシャル3次元画像」と記載し、コロナル画像シリーズを「コロナル3次元画像」と記載する。第3実施形態における超解像は、解像度が低いスライス厚方向(軸方向)のデータを補間するスライス補間の意味を持つ。
第3実施形態の場合、学習用のデータとして、同じ患者の同一部位を撮影して三次元的な位置合わせを行ったアキシャル3次元画像とコロナル3次元画像との画像ペアが用いられる。アキシャル3次元画像とコロナル3次元画像とが関連付けされた複数の画像ペアを含む画像群が学習用のデータセットとして用いられる。
機械学習システム600は、第1超解像処理を行う生成器610と、第2超解像処理を行う生成器612と、アキシャル画像切り出し処理部620と、コロナル画像切り出し処理部622と、アキシャル画像に対する真偽を判別する判別器630と、コロナル画像に対する真偽を判別する判別器632とを含む。
生成器610,612のそれぞれは3次元CNNを用いて構成される生成ネットワークである。生成器610,612のそれぞれのネットワーク構造は、第1実施形態における生成器20と同様であってよい。判別器630,632のそれぞれは2次元CNNを用いて構成される判別ネットワークである。判別器630,632のそれぞれのネットワーク構造は、第1実施形態における判別器24D,26Dと同様であってよい。
第1超解像処理は、z軸方向に超解像化する処理を含む。生成器610は、アキシャル3次元画像の入力を受け付け、等方解像度の3次元生成画像を出力する。第2の超解像処理は、y軸方向に超解像化する処理を含む。生成器612は、コロナル3次元画像の入力を受け付け、等方解像度の3次元生成画像を出力する。なお、図中の「SR」の表記は超解像(Super resolution)化の処理を表す。
アキシャル画像切り出し処理部620は、生成器610または生成器612によって生成された3次元生成画像SRsynからアキシャル断面の2次元画像を取り出す切り出し処理を行う。コロナル画像切り出し処理部622は、生成器610または生成器612によって生成された3次元生成画像SRsynからコロナル断面の2次元画像を取り出す切り出し処理を行う。
判別器630は、アキシャル画像切り出し処理部620によって3次元生成画像SRsynから取り出された2次元画像または学習用のデータセットに含まれるアキシャル3次元画像のスライス画像である2次元画像の入力を受け付けて、リアル画像であるかフェイク画像であるかの真偽判別を行う。
判別器632は、コロナル画像切り出し処理部622によって3次元生成画像SRsynから取り出された2次元画像または学習用のデータセットに含まれるコロナル3次元画像のスライス画像である2次元画像の入力を受け付けて、リアル画像であるかフェイク画像であるかの真偽判別を行う。
生成器610に対してアキシャル3次元画像が入力された場合、生成器610による第1超解像処理にて生成された3次元生成画像をコロナル断面方向に切り出して、正解のコロナル画像との誤差(絶対誤差)が計算される。
一方、生成器612に対してコロナル3次元画像が入力された場合、生成器612による第2超解像処理にて生成された3次元生成画像をアキシャル断面方向に切り出して、正解のアキシャル画像との誤差(絶対誤差)が計算される。
機械学習システム600は、生成器610,612と判別器630,632とについて敵対的学習を繰り返すことにより、両者の性能を高めていく。
第3実施形態に係る機械学習システム600を用いて学習を行うことにより、低解像のアキシャル3次元画像から等方解像度の高精細な3次元画像を生成する学習済みの生成器610および低解像のコロナル3次元画像から等方解像度の高精細な3次元画像を生成する学習済みの生成器612を得ることができる。
第3実施形態において学習に使用したアキシャル3次元画像は本開示における「第1撮影条件により撮影された3次元画像」の一例であり、コロナル3次元画像は本開示における「第2撮影条件により撮影された3次元画像」の一例である。アキシャル3次元画像におけるz軸方向は本開示における「第1軸方向」の一例であり、アキシャル3次元画像は本開示における「第1軸低解像3次元データ」の一例である。サジタル3次元画像におけるy軸方向は本開示における「第2軸方向」の一例であり、サジタル3次元画像は本開示における「第2軸低解像3次元データ」の一例である。
《第4実施形態》
図24は、第4実施形態に係る機械学習システム602における処理の概要を示す概念図である。図24について、図23に示す構成と同一または類似の要素には同一の符号を付し、重複する説明は省略する。図24に示す構成について、図23と異なる点を説明する。
第3実施形態では、生成器610または生成器612によって生成された3次元生成画像SRsynに対して、2つの判別器630,632を使用して真偽判別を行う例を説明したが、第4実施形態では、第3実施形態のアーキテクチャに3次元生成画像に対する低解像化の処理が追加され、超解像処理とその逆変換に相当する低解像化処理とをこの順に実施する変換処理による再構成ロスを評価する仕組みが組み込まれ、3次元生成画像に対して判別器630または判別器632のいずれか1つの判別器を使用する形態となっている。
図24に示す機械学習システム602は、3次元生成画像SRsynに対してz軸方向の低解像化処理を行う低解像化処理部614と、3次元生成画像SRsynに対してy軸方向の低解像化処理を行う低解像化処理部616とを含む。
低解像化処理部614による低解像化は、生成器610の第1超解像処理に対する逆変換の処理に相当する。生成器610の第1超解像処理→低解像化処理部614の低解像化処理をこの順に行うことにより、入力に用いたアキシャル3次元画像に対応する再構成生成画像(アキシャル3次元再構成生成画像)が得られる。機械学習システム602は、元の入力画像であるアキシャル3次元画像と、アキシャル3次元再構成生成画像とに基づいて再構成ロスを評価して生成器610のパラメータを更新する。なお、図中の「LR」の表記は低解像(Low resolution)化の処理を表す。
同様に、低解像化処理部616による低解像化は、生成器612の第2超解像処理に対する逆変換の処理に相当しており、生成器612の超解像処理→低解像化処理部616の低解像化処理を行うことにより、入力に用いたコロナル3次元画像に対応する再構成生成画像(コロナル3次元再構成生成画像)が得られる。機械学習システム602は、元の入力画像であるコロナル3次元画像と、コロナル3次元再構成生成画像とに基づいて再構成ロスを評価して生成器612のパラメータを更新する。
第4実施形態の場合、CycleGANの仕組みと類似した構成となり、学習に用いるアキシャル3次元画像とコロナル3次元画像との間にペアの関係は不要であり、アキシャル3次元画像の画像群と、コロナル3次元画像の画像群とのそれぞれの学習データ群が存在すればよい。第4実施形態では、ランダムに与えたアキシャル3次元画像とコロナル3次元画像とをそれぞれ繰り返し学習する構成となる。
図25は、機械学習システム602においてアキシャル3次元画像が入力された場合の処理フローである。アキシャル3次元画像は生成器610に入力され、生成器610から3次元生成画像SRsyn1が出力される。この3次元生成画像SRsyn1に対して低解像化処理部614による低解像化を行い、アキシャル3次元再構成生成画像を生成し、再構成ロスを計算する。
また、生成器610にアキシャル3次元画像を入力した場合、生成器610から出力された3次元生成画像SRsyn1からコロナル断面の2次元画像を切り出し、判別器632を用いて、コロナル画像について真偽の判別を行う。機械学習システム602は、生成器612と判別器632とについて敵対的学習を繰り返すことにより、両者の性能を高めていく。
図26は、機械学習システム602においてコロナル3次元画像が入力された場合の処理フローである。コロナル3次元画像は生成器612に入力され、生成器612から3次元生成画像SRsynが出力される。この3次元生成画像SRsyn2に対して低解像化処理部616による低解像化を行い、コロナル3次元再構成生成画像を生成し、再構成ロスを計算する。
また、生成器612にコロナル3次元画像を入力した場合、生成器612から出力された3次元生成画像SRsyn2からアキシャル断面の2次元画像を切り出し、判別器630を用いて、アキシャル画像について真偽の判別を行う。機械学習システム602は、生成器612と判別器630とについて敵対的学習を繰り返すことにより、両者の性能を高めていく。
第4実施形態に係る機械学習システム602を用いて学習を行うことにより、低解像のアキシャル3次元画像から等方解像度の高精細な3次元画像を生成する学習済みの生成器610および低解像のコロナル3次元画像から等方解像度の高精細な3次元画像を生成する学習済みの生成器612を得ることができる。
《変形例3》
図25に示すアキシャル3次元画像を超解像化する処理フローと、図26に示すコロナル3次元画像を超解像化する処理フローとは、必ずしも両方を実施する必要はない。例えば、アキシャル3次元画像を入力とした超解像タスクのみを実現する場合には、図25の処理フローだけで学習が可能である。
《変形例4》
ドメイン変換の他の例として、MRの中でのT1強調画像、T2強調画像、脂肪抑制画像、造影画像および非造影画像などの異なる画像種間での変換、あるいはCTの中でも造影画像と非造影画像との間の変換などについても本開示の技術を適用できる。
《3次元画像の種類について》
本開示の技術は、CT画像およびMR画像に限らず、人体情報を投影する超音波画像および陽電子放射断層撮影(Positron Emission Tomography:PET)装置を用いて撮影されるPET画像など、各種の医療画像が応用範囲に含まれる。また、本開示の技術は、医療機器によって撮影される医療画像に限らず、様々な撮影装置によって撮影される各種用途の3次元画像に適用できる。
《コンピュータのハードウェア構成の例》
図27は、コンピュータのハードウェア構成の例を示すブロック図である。コンピュータ800は、パーソナルコンピュータであってもよいし、ワークステーションであってもよく、また、サーバコンピュータであってもよい。コンピュータ800は、既に説明した機械学習システム10,11,210,600,602および医療画像処理装置500のいずれかの一部または全部、あるいはこれらの複数の機能を備えた装置として用いることができる。
コンピュータ800は、CPU802、RAM(Random Access Memory)804、ROM(Read Only Memory)806、GPU808、ストレージ810、通信部812、入力装置814、表示装置816およびバス818を備える。なお、GPU808は、必要に応じて設ければよい。
CPU802は、ROM806またはストレージ810等に記憶された各種のプログラムを読み出し、各種の処理を実行する。RAM804は、CPU802の作業領域として使用される。また、RAM804は、読み出されたプログラムおよび各種のデータを一時的に記憶する記憶部として用いられる。
ストレージ810は、例えば、ハードディスク装置、光ディスク、光磁気ディスク、もしくは半導体メモリ、またはこれらの適宜の組み合わせを用いて構成される記憶装置を含んで構成される。ストレージ810には、各種プログラムやデータ等が記憶される。ストレージ810に記憶されているプログラムがRAM804にロードされ、これをCPU802が実行することにより、コンピュータ800は、プログラムで規定される各種の処理を行う手段として機能する。
通信部812は、有線または無線により外部装置との通信処理を行い、外部装置との間で情報のやり取りを行うインターフェースである。通信部812は、画像等の入力を受け付ける情報取得部の役割を担うことができる。
入力装置814は、コンピュータ800に対する各種の操作入力を受け付ける入力インターフェースである。入力装置814は、例えば、キーボード、マウス、マルチタッチパネル、もしくはその他のポインティングデバイス、もしくは、音声入力装置、またはこれらの適宜の組み合わせであってよい。
表示装置816は、各種の情報が表示される出力インターフェースである。表示装置816は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、もしくは、プロジェクタ、またはこれらの適宜の組み合わせであってよい。
《コンピュータを動作させるプログラムについて》
上記の実施形態で説明した機械学習システム10,11,210,600,602における画像取得機能、前処理機能および学習処理機能、ならびに医療画像処理装置500における画像処理機能などの各種の処理機能のうち少なくとも1つの処理機能の一部または全部をコンピュータに実現させるプログラムを、光ディスク、磁気ディスク、もしくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。
またこのような有体物たる非一時的なコンピュータ可読媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。
さらに、機械学習システム10,11,210,600,602における画像取得機能、前処理機能および学習処理機能、ならびに医療画像処理装置500における画像処理機能などの各種の処理機能のうち少なくとも1つの処理機能をクラウドコンピューティングによって実現してもよく、また、SaS(Software as a Service)サービスとして提供することも可能である。
《各処理部のハードウェア構成について》
等方化処理部12、生成器20G、第1切り出し処理部14、第2切り出し処理部16、切り出し処理部18、判別器24D,26D,28D、学習データ生成部30、姿勢変換部、固定サイズ領域切り出し処理部34、学習処理部40、画像取得部42、誤差演算部46,246、オプティマイザ48,248、前処理部230、第1生成器220G、第2生成器250F、第3切り出し処理部254、第4切り出し処理部256、第1判別器224D、第2判別器226D、第3判別器264D、第4判別器266D、アベレージプーリング処理部270,272、生成器610,612、判別器630,632、アキシャル画像切り出し処理部620、コロナル画像切り出し処理部622および低解像化処理部614,616などの各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、例えば、次に示すような各種のプロセッサ(processor)である。
各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU、画像処理に特化したプロセッサであるGPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサで構成されてもよい。例えば、1つの処理部は、複数のFPGA、あるいは、CPUとFPGAの組み合わせ、またはCPUとGPUの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第一に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第二に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
《その他》
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成を変更、追加、または削除することが可能である。本発明は以上説明した実施形態に限定されず、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
10、11 機械学習システム
12 等方化処理部
14 第1切り出し処理部
16 第2切り出し処理部
18 切り出し処理部
20G 生成器
24D 判別器
26D、28D 判別器
30 学習データ生成部
32 姿勢変換部
34 固定サイズ領域切り出し処理部
40 学習処理部
42 画像取得部
44 学習モデル
46 誤差演算部
48 オプティマイザ
50 画像保存部
54 学習データ保存部
100 機械学習システム
112 等方化処理部
120F 生成器
124D 判別器
210 機械学習システム
220G 第1生成器
224D 第1判別器
226D 第2判別器
230 前処理部
240 学習処理部
244 学習モデル
246 誤差演算部
248 オプティマイザ
250F 第2生成器
254 第3切り出し処理部
256 第4切り出し処理部
264D 第3判別器
266D 第4判別器
270、272 アベレージプーリング処理部
320G 生成器
324D 判別器
344 学習モデル
350F 生成器
364D 判別器
400 情報処理装置
402 プロセッサ
404 コンピュータ可読媒体
406 通信インターフェース
408 入出力インターフェース
410 バス
414 入力装置
416 表示装置
420 等方化処理プログラム
422 姿勢変換プログラム
424 固定サイズ領域切り出し処理プログラム
430 学習処理プログラム
436 誤差演算ブログラム
438 パラメータ更新プログラム
500 医療画像処理装置
502 プロセッサ
504 コンピュータ可読媒体
506 通信インターフェース
508 入出力インターフェース
510 バス
514 入力装置
516 表示装置
520 CT-MR変換プログラム
522 学習済み生成器
530 MR-CT変換プログラム
532 学習済み生成器
540 臓器認識AIプログラム
542 疾患検出AIプログラム
544 レポート作成支援プログラム
600、602 機械学習システム
610、612 生成器
614、616 低解像化処理部
620 アキシャル画像切り出し処理部
622 コロナル画像切り出し処理部
630、632 判別器
800 コンピュータ
802 CPU
804 RAM
806 ROM
808 GPU
810 ストレージ
812 通信部
814 入力装置
816 表示装置
818 バス
CTr CT画像
CTrec 再構成CT画像
CTsyn 疑似CT画像
MRax MR画像
MRaxrec 再構成MR画像
MRco MR画像
MRcorec 再構成MR画像
MRr MR画像
MRrec 再構成MR画像
MRsyn 疑似MR画像
SRsyn、SRsyn1、SRsyn2 3次元生成画像

Claims (33)

  1. 入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を出力する学習済みモデルの生成方法であって、
    第1ドメインの3次元画像の入力を受け付け、前記第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、
    前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有する学習モデルを用い、
    コンピュータが、
    第1撮影条件により撮影された3次元画像と、前記第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得し、
    前記複数の学習データに基づき、前記第1生成器と前記第1判別器とを敵対的に学習させる学習処理を行うことを含む、
    学習済みモデルの生成方法。
  2. 前記コンピュータが、
    前記第1生成器によって生成された前記第2ドメインの3次元生成画像から前記第1スライス面方向の断面画像を示す2次元画像を切り出す第1切り出し処理を行い、
    前記第1切り出し処理により切り出された2次元画像を前記第1判別器に入力することを含む、
    請求項1に記載の学習済みモデルの生成方法。
  3. 前記第1撮影条件は、撮影に使用した機器が第1撮影機器であることを含み、
    前記第2撮影条件は、撮影に使用した機器が前記第1撮影機器とは異なる種類の第2撮影機器であることを含む、
    請求項1または2に記載の学習済みモデルの生成方法。
  4. 前記第1撮影条件は、解像度の条件が第1解像度条件であることを含み、
    前記第2撮影条件は、解像度の条件が前記第1解像度条件とは異なる第2解像度条件であることを含む、
    請求項1から3のいずれか一項に記載の学習済みモデルの生成方法。
  5. 前記第1撮影条件および前記第2撮影条件のうち少なくとも1つは、解像度の条件として、直交3軸のうち1つの軸方向の解像度が他の2つの軸方向のそれぞれの解像度よりも低いことを含む、
    請求項1から4のいずれか一項に記載の学習済みモデルの生成方法。
  6. 前記第2撮影条件により撮影された3次元画像として、直交3軸のうち1軸方向の解像度が他の2軸方向のそれぞれの解像度よりも低い非等方性3次元データが用いられ、
    前記第1スライス面方向は、前記非等方性3次元データにおいて相対的に解像度が高い前記他の2軸方向に平行なスライス面方向である、
    請求項1から4のいずれか一項に記載の学習済みモデルの生成方法。
  7. 前記学習モデルは、さらに、
    前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される前記第1スライス面方向と直交する第2スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第2判別器を含み、
    前記学習処理は、前記第1生成器と前記第2判別器とを敵対的に学習させる処理を含む、
    請求項1から6のいずれか一項に記載の学習済みモデルの生成方法。
  8. 前記コンピュータが、
    前記第1生成器によって生成された前記第2ドメインの3次元生成画像から前記第2スライス面方向の断面画像を示す2次元画像を切り出す第2切り出し処理を行い、
    前記第2切り出し処理により切り出された2次元画像を前記第2判別器に入力することを含む、
    請求項7に記載の学習済みモデルの生成方法。
  9. 前記第2撮影条件により撮影された3次元画像として、x軸、y軸およびz軸の直交3軸のうちz軸方向の解像度がx軸方向およびy軸方向のそれぞれの解像度よりも低いz軸低解像の非等方性3次元データと、
    前記y軸方向の解像度が前記z軸方向および前記x軸方向のそれぞれの解像度よりも低いy軸低解像の非等方性3次元データとが用いられ、
    前記第1スライス面方向は、前記x軸方向および前記y軸方向に平行なスライス面方向であり、
    前記第2スライス面方向は、前記z軸方向および前記x軸方向に平行なスライス面方向である、
    請求項7または8に記載の学習済みモデルの生成方法。
  10. 前記第2撮影条件により撮影された3次元画像として、x軸、y軸およびz軸の直交3軸のうちy軸方向の解像度がz軸方向およびx軸方向のそれぞれの解像度よりも低いy軸低解像の非等方性3次元データと、
    前記x軸方向の解像度が前記y軸方向および前記z軸方向のそれぞれの解像度よりも低いx軸低解像の非等方性3次元データとが用いられ、
    前記第1スライス面方向は、前記z軸方向および前記x軸方向に平行なスライス面方向であり、
    前記第2スライス面方向は、前記y軸方向および前記z軸方向に平行なスライス面方向である、
    請求項7または8に記載の学習済みモデルの生成方法。
  11. 前記第2撮影条件により撮影された3次元画像として、x軸、y軸およびz軸の直交3軸のうちx軸方向の解像度がy軸方向およびz軸方向のそれぞれの解像度よりも低いx軸低解像の非等方性3次元データと、
    前記z軸方向の解像度が前記x軸方向および前記y軸方向のそれぞれの解像度よりも低いz軸低解像の非等方性3次元データとが用いられ、
    前記第1スライス面方向は、前記y軸方向および前記z軸方向に平行なスライス面方向であり、
    前記第2スライス面方向は、前記x軸方向および前記y軸方向に平行なスライス面方向である、
    請求項7または8に記載の学習済みモデルの生成方法。
  12. 前記コンピュータが、
    入力された前記学習データの解像度の条件に応じて、前記第2ドメインの3次元生成画像の真偽判別に使用する前記第1判別器または前記第2判別器を選択的に切り替える、
    請求項7から11のいずれか一項に記載の学習済みモデルの生成方法。
  13. 前記第1撮影条件により撮影された3次元画像として、直交3軸のうちの1軸方向の解像度が他の2軸方向の解像度よりも低い非等方性3次元データが用いられる、
    請求項1から12のいずれか一項に記載の学習済みモデルの生成方法。
  14. 前記コンピュータが、
    前記第1撮影条件により撮影された3次元画像を、直交3軸の各軸方向の解像度が等しい等方性3次元データに変換する第1等方化処理を行い、
    前記第1等方化処理による変換後の等方性3次元データを前記第1生成器に入力することを含む、
    請求項13に記載の学習済みモデルの生成方法。
  15. 前記第1生成器は、直交3軸の各軸方向の解像度が等しい等方性3次元データの入力を受け付け、前記3次元生成画像としての等方性3次元データを出力する、
    請求項1から14のいずれか一項に記載の学習済みモデルの生成方法。
  16. 前記学習モデルは、さらに、
    前記第2ドメインの3次元画像の入力を受け付け、前記第1ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第2生成器と、
    前記第2生成器によって生成された前記第1ドメインの3次元生成画像から切り出される特定のスライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第3判別器と、を含み、
    前記学習処理は、前記第2生成器と前記第3判別器とを敵対的に学習させる処理を含む、
    請求項1から15のいずれか一項に記載の学習済みモデルの生成方法。
  17. 前記コンピュータが、
    前記第2生成器により生成された前記第1ドメインの3次元生成画像から前記特定のスライス面方向の断面画像を示す2次元画像を切り出す第3切り出し処理を行い、
    前記第3切り出し処理により切り出された2次元画像を前記第3判別器に入力することを含む、
    請求項16に記載の学習済みモデルの生成方法。
  18. 前記コンピュータが、
    前記第1生成器から出力された前記第2ドメインの3次元生成画像を前記第2生成器に入力することにより前記第2生成器から出力される第1再構成生成画像に基づき、前記第1生成器および前記第2生成器をこの順に用いた変換処理の第1再構成ロスを計算する処理と、
    前記第2生成器から出力された前記第1ドメインの3次元生成画像を前記第1生成器に入力することにより前記第1生成器から出力される第2再構成生成画像に基づき前記第2生成器および前記第1生成器をこの順に用いた変換処理の第2再構成ロスを計算する処理と、を行うことを含む、
    請求項16または17に記載の学習済みモデルの生成方法。
  19. 前記コンピュータが、
    前記第1再構成生成画像に対して、前記第1再構成生成画像を生成する際の前記第1生成器への入力に使用した元の前記学習データと同じ解像度の3次元データに変換する第1アベレージプーリング処理を行い、第1アベレージプーリング処理による変換後の3次元データと、前記第1生成器への入力に使用した元の前記学習データとに基づいて前記第1再構成ロスを計算することを含む、
    請求項18に記載の学習済みモデルの生成方法。
  20. 前記コンピュータが、
    前記第2再構成生成画像に対して、前記第2再構成生成画像を生成する際の前記第2生成器への入力に使用した元の前記学習データと同じ解像度の3次元データに変換する第2アベレージプーリング処理を行い、前記第2アベレージプーリング処理による変換後の3次元データと、前記第2生成器への入力に使用した元の前記学習データとに基づいて前記第2再構成ロスを計算することを含む、
    請求項18または19に記載の学習済みモデルの生成方法。
  21. 前記学習モデルは、さらに、
    前記第2生成器により生成された前記第1ドメインの3次元生成画像から切り出される前記特定のスライス面方向と直交するスライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第4判別器を含み、
    前記学習処理は、前記第2生成器と前記第4判別器とを敵対的に学習させる処理を含む、
    請求項16から20のいずれか一項に記載の学習済みモデルの生成方法。
  22. 前記コンピュータが、
    前記第2生成器により生成された前記第1ドメインの3次元生成画像から前記特定のスライス面方向と直交するスライス面方向の断面画像を示す2次元画像を切り出す第4切り出し処理を行い、
    前記第4切り出し処理により切り出された2次元画像を前記第4判別器に入力することを含む、
    請求項21に記載の学習済みモデルの生成方法。
  23. 前記特定のスライス面方向は前記第1スライス面方向である、
    請求項21または22に記載の学習済みモデルの生成方法。
  24. 前記コンピュータが、
    前記第2撮影条件により撮影された3次元画像を、直交3軸の各軸方向の解像度が等しい等方性3次元データに変換する第2等方化処理を行い、
    前記第2等方化処理による変換後の等方性3次元データを前記第2生成器に入力することを含む、
    請求項16から23のいずれか一項に記載の学習済みモデルの生成方法。
  25. 前記第1撮影条件は前記第1ドメインに対応し、前記第2撮影条件は前記第2ドメインに対応している、
    請求項1から24のいずれか一項に記載の学習済みモデルの生成方法。
  26. 前記第1撮影条件により撮影された3次元画像は、医療機器である第1モダリティを用いて撮影された第1モダリティ画像であり、
    前記第2撮影条件により撮影された3次元画像は、前記第1モダリティとは異なる種類の医療機器である第2モダリティを用いて撮影された第2モダリティ画像であり、
    前記学習モデルは、前記第1モダリティ画像の入力を受けて、前記第2モダリティを用いて撮影された画像の特徴を持つ擬似的な第2モダリティ生成画像を生成するように学習が行われる、
    請求項25に記載の学習済みモデルの生成方法。
  27. 前記第1ドメインは第1解像度、前記第2ドメインは前記第1解像度よりも高解像の第2解像度であり、
    請求項1から24のいずれか一項に記載の学習済みモデルの生成方法。
  28. 前記第1撮影条件により撮影された3次元画像は、直交3軸のうち第1軸方向の解像度が他の2軸方向のそれぞれの解像度よりも低い第1軸低解像3次元データであり、
    前記第2撮影条件により撮影された3次元画像は、直交3軸のうち前記第1軸方向とは異なる第2軸方向の解像度が他の2軸方向の解像度よりも低い第2軸低解像3次元データであり、
    前記学習モデルは、前記第1軸低解像3次元データおよび前記第2軸低解像3次元データの少なくとも1つの入力を受けて、入力された3次元データよりも高解像度の等方性3次元データを生成するように学習が行われる、
    請求項27に記載の学習済みモデルの生成方法。
  29. 前記コンピュータが、
    前記第1生成器により生成された前記第1ドメインの3次元生成画像に対して解像度を低下させる低解像化処理を行い、
    前記低解像化処理によって得られた再構成生成画像に基づいて、前記第1生成器による超解像処理と前記低解像化処理とによる画像変換の再構成ロスを計算することを含む、
    請求項27または28に記載の学習済みモデルの生成方法。
  30. 入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を生成する学習モデルを訓練する機械学習システムであって、
    少なくとも1つの第1プロセッサと、
    前記少なくとも1つの第1プロセッサによって実行されるプログラムが記憶される少なくとも1つの第1記憶装置と、を備え、
    前記学習モデルは、
    第1ドメインの3次元画像の入力を受け付け、前記第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、
    前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有し、
    前記少なくとも1つの第1プロセッサは、前記プログラムの命令を実行することにより、
    第1撮影条件により撮影された3次元画像と、前記第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得し、
    前記複数の学習データに基づき、前記第1生成器と前記第1判別器とを敵対的に学習させる学習処理を行う、
    機械学習システム。
  31. コンピュータに、
    入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を生成する学習モデルを訓練する処理を実行させるプログラムであって、
    前記学習モデルは、
    第1ドメインの3次元画像の入力を受け付け、前記第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、
    前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有し、
    前記コンピュータに、
    第1撮影条件により撮影された3次元画像と、前記第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得させ、
    前記複数の学習データに基づき、前記第1生成器と前記第1判別器とを敵対的に学習させる学習処理を実行させる、
    プログラム。
  32. 非一時的かつコンピュータ読取可能な記録媒体であって、請求項31に記載のプログラムが記録された記録媒体。
  33. 請求項1から29のいずれか一項に記載の学習済みモデルの生成方法を実施することにより訓練された学習済みの前記第1生成器である第1学習済みモデルを記憶する第2記憶装置と、
    前記第1学習済みモデルを用いて画像処理を行う第2プロセッサと、を備え、
    前記第1学習済みモデルは、
    第1医療画像の入力を受けて、前記第1医療画像とは異なるドメインの第2医療画像を出力するように訓練されたモデルである、
    医療画像処理装置。
JP2022578244A 2021-01-26 2022-01-17 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置 Active JP7765415B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021010459 2021-01-26
JP2021010459 2021-01-26
PCT/JP2022/001351 WO2022163402A1 (ja) 2021-01-26 2022-01-17 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置

Publications (3)

Publication Number Publication Date
JPWO2022163402A1 JPWO2022163402A1 (ja) 2022-08-04
JPWO2022163402A5 JPWO2022163402A5 (ja) 2023-10-20
JP7765415B2 true JP7765415B2 (ja) 2025-11-06

Family

ID=82654658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022578244A Active JP7765415B2 (ja) 2021-01-26 2022-01-17 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置

Country Status (4)

Country Link
US (1) US20230368442A1 (ja)
EP (1) EP4287114A4 (ja)
JP (1) JP7765415B2 (ja)
WO (1) WO2022163402A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102666699B1 (ko) * 2022-08-18 2024-05-20 영남대학교 산학협력단 이미지 변환 장치 및 방법
CN117745725B (zh) * 2024-02-20 2024-05-14 阿里巴巴达摩院(杭州)科技有限公司 图像处理方法、图像处理模型训练方法、三维医学图像处理方法、计算设备及存储介质
CN118470078B (zh) * 2024-07-11 2024-09-24 杭州唯精医疗机器人有限公司 图像配准方法、图像优化显示方法、设备、介质和程序产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6583875B1 (ja) 2019-06-20 2019-10-02 Psp株式会社 画像処理方法、画像処理システム及び画像処理プログラム
WO2020175446A1 (ja) 2019-02-28 2020-09-03 富士フイルム株式会社 学習方法、学習システム、学習済みモデル、プログラム及び超解像画像生成装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107209945A (zh) * 2014-12-10 2017-09-26 皇家飞利浦有限公司 使用机器学习的用于医学成像的转化的系统和方法
CN113822960B (zh) * 2016-09-06 2025-01-17 医科达有限公司 用于生成合成成像数据的方法、系统及计算机可读介质
JP6948966B2 (ja) 2018-02-28 2021-10-13 富士フイルム株式会社 診断支援システム、診断支援方法、及びプログラム
JP7129869B2 (ja) * 2018-10-01 2022-09-02 富士フイルム株式会社 疾患領域抽出装置、方法及びプログラム
WO2020198854A1 (en) * 2019-03-29 2020-10-08 Polyvalor, Limited Partnership Method and system for producing medical images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020175446A1 (ja) 2019-02-28 2020-09-03 富士フイルム株式会社 学習方法、学習システム、学習済みモデル、プログラム及び超解像画像生成装置
JP6583875B1 (ja) 2019-06-20 2019-10-02 Psp株式会社 画像処理方法、画像処理システム及び画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山岨 寛門, 外2名,敵対的生成ネットワークを用いた別モダリティ画像の生成と評価に関する研究,FIT2020 第19回情報科学技術フォーラム 講演論文集 第2分冊,一般社団法人情報処理学会,2020年08月18日,p.277-278

Also Published As

Publication number Publication date
US20230368442A1 (en) 2023-11-16
EP4287114A4 (en) 2024-07-31
WO2022163402A1 (ja) 2022-08-04
EP4287114A1 (en) 2023-12-06
JPWO2022163402A1 (ja) 2022-08-04

Similar Documents

Publication Publication Date Title
CN111429474B (zh) 基于混合卷积的乳腺dce-mri图像病灶分割模型建立及分割方法
Gerig et al. Symbolic description of 3-D structures applied to cerebral vessel tree obtained from MR angiography volume data
CN111368849B (zh) 图像处理方法、装置、电子设备及存储介质
JP7765415B2 (ja) 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置
Du et al. Accelerated super-resolution MR image reconstruction via a 3D densely connected deep convolutional neural network
Zhan et al. LR-cGAN: Latent representation based conditional generative adversarial network for multi-modality MRI synthesis
JP2022077991A (ja) 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、モデルトレーニング装置、およびトレーニング方法
JP7423338B2 (ja) 画像処理装置及び画像処理方法
AlZu'bi et al. Transferable hmm trained matrices for accelerating statistical segmentation time
US12493799B2 (en) Learning apparatus, method, and program, image generation apparatus, method, and program, trained model, virtual image, and recording medium
CN115689961B (zh) 一种用于胶质瘤spect-mri图像融合的网络模型及方法
JP7795352B2 (ja) 画像処理方法、画像処理装置およびプログラム
CN118037615A (zh) 一种肿瘤分割引导的磁共振图像翻译方法、系统、设备及介质
Sun et al. Hierarchical amortized training for memory-efficient high resolution 3D GAN
US20240005498A1 (en) Method of generating trained model, machine learning system, program, and medical image processing apparatus
Nimitha et al. MRI super-resolution using similarity distance and multi-scale receptive field based feature fusion GAN and pre-trained slice interpolation network
CN114049334B (zh) 一种以ct图像为输入的超分辨率mr成像方法
Zhang et al. A novel GAN-based three-axis mutually supervised super-resolution reconstruction method for rectal cancer MR image
CN111612762A (zh) Mri脑肿瘤图像生成方法及系统
CN118154568A (zh) 基于图像增强和弱监督学习的脑血肿图像分割方法
CN113052932A (zh) 基于空间及时间信息的w型网络结构的dce-mri图像生成方法
Luo et al. Is Autoencoder Truly Applicable for 3d CT Super-Resolution?
Feng et al. Coupled-projection residual network for mri super-resolution
CN119444898B (zh) 一种全身pet与ct图像相互转换的人工智能方法
CN117934289B (zh) 一种集成mri超分辨率与合成任务的系统及方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20251001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20251024

R150 Certificate of patent or registration of utility model

Ref document number: 7765415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150