JP7795352B2 - 画像処理方法、画像処理装置およびプログラム - Google Patents

画像処理方法、画像処理装置およびプログラム

Info

Publication number
JP7795352B2
JP7795352B2 JP2021212816A JP2021212816A JP7795352B2 JP 7795352 B2 JP7795352 B2 JP 7795352B2 JP 2021212816 A JP2021212816 A JP 2021212816A JP 2021212816 A JP2021212816 A JP 2021212816A JP 7795352 B2 JP7795352 B2 JP 7795352B2
Authority
JP
Japan
Prior art keywords
image
images
neural network
vector field
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021212816A
Other languages
English (en)
Other versions
JP2023096807A (ja
Inventor
貞登 赤堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2021212816A priority Critical patent/JP7795352B2/ja
Priority to US18/064,281 priority patent/US12573062B2/en
Publication of JP2023096807A publication Critical patent/JP2023096807A/ja
Application granted granted Critical
Publication of JP7795352B2 publication Critical patent/JP7795352B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本開示は画像処理方法、画像処理装置、プログラムおよび学習済みモデルに係り、特に、複数の画像間の位置合わせを行う画像処理技術に関する。
CT(Computed Tomography)装置またはMRI(Magnetic Resonance Imaging)装置を用いて行われる肝臓のダイナミック造影検査では、造影剤を注入しながら時相の異なる複数の画像を撮影し、病変部の濃染具合の変化を観察する。このような検査は、2~3分間の間に3~4時相の撮影を行うため、各時相の撮影の合間に呼吸状態が変動するなどして体動が生じる場合がある。体動があると、画像間で位置がずれるため、各時相の画像を対比しにくい。
画像間の位置合わせ方法には様々な方法が知られており、近年は深層学習を用いた方法も広く研究されている(非特許文献1、2)。非特許文献1は、深層学習を用いて2つの画像の入力に対して、これら画像間の変形ベクトル場を出力させる予測モデル(位置合わせモデル)を生成し、画像間の位置合わせを行う方法を提案している。非特許文献1では、学習の際に1画像と変形ベクトル場から人工的に生成した画像とを用いることで、2画像から正解を定義する手間を不要にしている。非特許文献1に記載の方法は、ネットワーク構造として3D U-netのアーキテクチャを採用し、位置合わせを行う2つの画像を2つのチャンネルとして入力する構造になっている。
K. A. J. Eppenhof and J. P.W. Pluim. "Pulmonary CT Registration through Supervised Learning with Convolutional Neural Networks." IEEE Transactions on Medical Imaging, 38(5):1097-1105, 2019.ISSN 0278-0062. doi: 10.1109/Tmi.2018.2878316. Yabo Fu, Tonghe Wang, Walte J.Curran, Tian Liu, Xiaofen Yang, "Deep Learning in Medical Image Registration: A Review"<https://arxiv.org/pdf/1912.12318.pdf>
ダイナミック造影検査は、ヨード造影剤を腕に静脈注入した後、同じ部位を繰り返し撮影し、経時的変化を観察する方法である。造影の時相とは、造影剤注入から特定の秒数の経った状態のことであり、肝臓のダイナミック造影検査では、動脈相、門脈相(肝実質相)、平衡相などがある。例えば、動脈相であれば動脈に造影剤が多く流れている状態となる。腫瘍の種類によってどの時相でどのように見えるかが異なる。なお、造影剤を注入する前の状態は非造影と呼ばれる。
一般に、肝臓のダイナミック造影検査は、非造影、動脈相、門脈相および平衡相の4回の撮影を行い、これら複数の時相間の画像変化を対比する必要がある。各時相間には時間差があるため、異なる時相の画像間に位置ずれが生じる。そのため、読影の際には、造影状態が異なる画像間で画像の位置合わせを行い、各時相の画像にて共通の関心領域を観察できるようにする必要がある。かかる位置合わせの処理を含む画像処理の即応性が要求される。
一方で、CT画像またはMRI画像のような3次元画像はデータ量が大きく、画像間の位置合わせを行う際に多くの計算リソースが必要になる。特に、ダイナミック造影検査のように複数の時相の画像の組み合わせが存在する場合、位置合わせの対象とする画像の組み合わせが増えるほど、その計算量も増大する。
位置合わせ処理並びにその後の性状分析の処理等の即応性を実現するために、例えば、以下の2つのアプローチが考えられる。
[第1のアプローチとその課題]
第1のアプローチとして、撮影された画像内における病変領域の付近など関心領域に絞って、入力する構成にすることによって計算量を削減することが考えられる。
しかし、N枚の画像のうちのどれか1枚を基準として他の画像の位置合わせをする場合、非特許文献1に記載の方法を採用すると、2チャンネルの入力画像の組み合わせに対して3D U-netの計算を(N-1)回行う必要がある。そのため、さらなる処理の効率化が要請される。
[第2のアプローチとその課題]
第2のアプローチとして、検査によって撮影された画像を保存する段階で、画像全体あるいは臓器全体の位置合わせを行い、その位置合わせの結果としての画像上の各画素間の対応関係を表す変形ベクトル場を保存しておくことが考えられる。この場合、読影の際は、その保存された結果を参照して位置ずれを補正する。
しかし、このような方法では、画像間の組み合わせごとに、予め位置合わせをした計算結果を保存しておく必要があり、計算結果を保存しておくために必要となる記憶容量が大きいという問題がある。
本開示はこのような事情に鑑みてなされたものであり、複数の画像間での位置合わせを行う際に必要になる計算リソースを抑制することができる画像処理方法、画像処理装置、プログラムおよび学習済みモデルを提供することを目的とする。
本開示の一態様に係る画像処理方法は、1つ以上のプロセッサが実行する画像処理方法であって、1つ以上のプロセッサが、複数の画像のそれぞれの特徴マップを取得することと、画像ごとの特徴マップの組み合わせから変形ベクトル場を算出することと、を含む。
「特徴マップを取得する」という記載は、1つ以上のプロセッサが外部から特徴マップを取得する場合に限らず、1つ以上のプロセッサが特徴マップを生成して取得することの概念を含む。
本態様によれば、画像ごとにそれぞれの特徴マップを取得しているため、位置合わせを行う画像の組み合わせが複数存在する場合であっても、画像間の変形ベクトル場を算出する際の計算リソースを抑制することができる。
本開示の他の態様に係る画像処理方法において、1つ以上のプロセッサが、第1のニューラルネットワークを用いて複数の画像のそれぞれから各画像の特徴マップを生成することと、第1のニューラルネットワークを用いて画像ごとに生成された特徴マップの組み合わせを第2のニューラルネットワークに入力することにより、第2のニューラルネットワークを用いて変形ベクトル場を算出する構成とすることができる。
本開示の他の態様に係る画像処理方法において、第1のニューラルネットワークは、1画像の入力を受け付け、入力された1画像に対する処理を行うことにより1つ以上の特徴マップを出力するネットワークであり、第2のニューラルネットワークは、異なる2つの画像のそれぞれから生成された各画像の特徴マップのペアの入力を受け付け、入力された特徴マップのペアに対する処理を行うことにより異なる2つの画像間の変形ベクトル場を出力するネットワークであってもよい。
本開示の他の態様に係る画像処理方法において、第1のニューラルネットワークと第2のニューラルネットワークとは、学習画像セットを用いて予め機械学習された学習済みモデルであり、機械学習の工程は、2画像をそれぞれ第1のニューラルネットワークに入力して得られる2画像のぞれぞれの特徴マップの組み合わせを第2のニューラルネットワークに入力して変形ベクトル場を出力させる構成で行われる構成であってもよい。
本開示の他の態様に係る画像処理方法において、学習画像セットは、複数の異なる画像を含み、機械学習の際に第1のニューラルネットワークに入力する2画像のうちの一方は、他方の画像を変形して生成した画像であってもよい。
本開示の他の態様に係る画像処理方法において、変形を規定する変形場は、予め定められた制約範囲内でランダムに生成され、変形の処理に適用した変形場を正解として、第2のニューラルネットワークの出力が正解に近づくように学習が行われる構成であってもよい。
本開示の他の態様に係る画像処理方法において、複数の画像のそれぞれは医用画像であってもよい。
本開示の他の態様に係る画像処理方法において、複数の画像は、造影状態が相異なる画像であってもよい。造影状態には、造影の有無および時相が含まれる。
本開示の他の態様に係る画像処理方法において、1つ以上のプロセッサが、さらに、変形ベクトル場を用いて位置を合わせた複数の画像を解析し、関心領域の造影効果を表す性状所見を出力することを含む構成であってもよい。
本開示の他の態様に係る画像処理方法において、複数の画像は、撮影された日が相異なる画像であってもよい。
本開示の他の態様に係る画像処理方法において、複数の画像は、モダリティが相異なる画像であってもよい。
本開示の他の態様に係る画像処理方法において、複数の画像は、3つ以上の画像であり、1つ以上のプロセッサが、複数の画像のうちの1つの基準画像と、基準画像以外の画像との2画像のそれぞれの特徴マップの組み合わせから、基準画像と基準画像以外の画像との組み合わせごとの変形ベクトル場を算出する構成であってもよい。
本開示の他の態様に係る画像処理方法において、1つ以上のプロセッサが、さらに、複数の画像のうちの1つの画像内における注目点の指定を受け付け、算出された変形ベクトル場に基づき、複数の画像のうちの他の画像内における注目点に対応する対応点を算出することと、注目点と対応点の位置を揃えて画像を表示させることと、を含む構成であってもよい。
本開示の他の態様に係る画像処理装置は、1つ以上のプロセッサと、1つ以上のプロセッサに実行させるプログラムが記憶される1つ以上のメモリと、を備え、1つ以上のプロセッサは、プログラムの命令を実行することにより、複数の画像のそれぞれの特徴マップを取得し、画像ごとの特徴マップの組み合わせから変形ベクトル場を算出する。
本開示の他の態様に係る画像処理装置において、1つ以上のプロセッサは、第1のニューラルネットワークを用いて複数の画像のそれぞれから各画像の特徴マップを生成し、第1のニューラルネットワークを用いて画像ごとに生成された特徴マップの組み合わせを第2のニューラルネットワークに入力することにより、第2のニューラルネットワークを用いて変形ベクトル場を算出する構成であってもよい。
本開示の他の態様に係るプログラムは、コンピュータに、複数の画像のそれぞれの特徴マップを取得する機能と、画像ごとの特徴マップの組み合わせから変形ベクトル場を算出する機能と、を実現させる。
本開示の他の態様に係るプログラムにおいて、第1のニューラルネットワークを用いて複数の画像のそれぞれから各画像の特徴マップを生成する機能と、第1のニューラルネットワークを用いて画像ごとに生成された特徴マップの組み合わせを第2のニューラルネットワークに入力することにより、第2のニューラルネットワークを用いて変形ベクトル場を算出する機能と、をコンピュータに実現させる構成であってもよい。
本開示の他の態様に係る学習済みモデルは、複数の画像から変形ベクトル場を算出する機能をコンピュータに実現させる学習済みモデルであって、学習済みモデルは、第1のニューラルネットワークと第2のニューラルネットワークとを含み、第1のニューラルネットワークは、1画像の入力を受け付け、入力された1画像に対する処理を行うことにより1つ以上の特徴マップを出力し、第2のニューラルネットワークは、異なる2つの画像のそれぞれから第1のニューラルネットワークを用いて生成された各画像の特徴マップのペアの入力を受け付け、入力された特徴マップのペアに対する処理を行うことにより異なる2つの画像間の変形ベクトル場を出力するように学習された学習済みモデルである。
本開示によれば、複数の画像間での位置合わせを行う際に必要になる計算リソースを抑制することができる。
図1は、2つの画像間の変形ベクトル場を求める位置合わせモデルの動作を示す概念図である。 図2は、第1実施形態に係る画像処理方法に用いられる位置合わせモデルのネットワーク構造を概略的に示すネットワーク構造図である。 図3は、画像Aに対して画像Bと画像Cとをそれぞれ位置合わせする場合の処理の説明図である。 図4は、第2実施形態に係る位置合わせモデルのネットワーク構造図である。 図5は、第3実施形態に係る位置合わせモデルのネットワーク構造図である。 図6は、本開示の実施形態に係る画像処理装置が適用される医療情報システムの構成例を示すブロック図である。 図7は、画像処理装置のハードウェア構成例を概略的に示すブロック図である。 図8は、画像処理装置を用いた画像処理の適用例1の概要を示す説明図である。 図9は、図8に示す肝臓のダイナミック造影CT検査における関心領域の位置合わせ処理のフローチャートである。 図10は、図9のステップS103に適用されるサブルーチンの例を示すフローチャートである。 図11は、位置合わせモデルを生成するための機械学習装置による学習方法の概要を示す図であり、訓練用のデータを生成する処理部の構成を示す。 図12は、位置合わせモデルを生成するための機械学習装置による学習方法の概要を示す図であり、訓練用のデータを用いて学習モデルを訓練する処理部の構成を示す。 図13は、図8に示す位置合わせモデルの学習フェーズを概略的に示す説明図である。 図14は、画像処理装置を用いた画像処理の適用例2の概要を示す説明図である。 図15は、図14に示す経時比較に適用される位置合わせ処理のフローチャートであり、画像保存時の処理の例を示す。 図16は、図14に示す経時比較に適用される位置合わせ処理のフローチャートであり、読影時の処理の例を示す。 図17は、図16に示す経時比較に適用される位置合わせモデルの学習フェーズを概略的に示す説明図である。 図18は、画像処理装置を用いた画像処理の適用例3の概要を示す説明図である。 図19は、図18に示すモダリティ間の画像比較に適用される位置合わせモデルの学習フェーズを概略的に示す説明図である。
以下、添付図面に従って本発明の好ましい実施形態について説明する。
《第1実施形態に係る画像処理方法の概要》
2つの画像の位置合わせは、これら2つの画像間の変形ベクトル場を求めることによって実現される。変形ベクトル場は、被変形画像上の任意の点と目標画像上の対応する点を一致させるための変形ベクトルを並べた空間である。
図1は、2つの画像間の変形ベクトル場を求める位置合わせモデル10の動作を示す概念図である。位置合わせモデル10は、コンピュータソフトウェア(プログラム)として構成される機械学習モデルである。位置合わせモデル10は、例えば、畳み込みニューラルネットワークを用いて構成され、位置合わせの対象とする2つの画像の入力に対して、変形ベクトル場を出力するように学習された学習済みモデルである。
本実施形態では、位置合わせモデル10として、図2に示すようなネットワーク構造を持つニューラルネットワークを採用する。図2は、第1実施形態に係る画像処理方法に用いられる位置合わせモデル101のネットワーク構造を概略的に示すネットワーク構造図である。ここでは、画像Aと画像Bとの2画像間の変形ベクトル場を求める場合の例が示されている。画像Aおよび画像Bは、例えば、CT装置などを用いて撮影された3次元画像である。ここでの3次元画像とは、連続的に撮影された2次元スライス画像の集合体の概念を含む。画像Aおよび画像Bは、2次元スライス断層画像を連続的に撮影して得られた3次元データから再構成された3次元画像であってよい。
比較のために、非特許文献1のFIG.2に記載されているニューラルネットワークの構造と対比して説明する。非特許文献1のFIG.2に記載されているニューラルネットワークは、2つの画像を2つのチャンネルとして入力を受け付ける3D U-netのアーキテクチャが採用されている。
これに対して、本実施形態に係る画像処理方法では、2つの画像から変形ベクトル場を求めるニューラルネットワークを、各画像に共通する部分と、個別部分とに分けて構成する。すなわち、本実施形態に係る位置合わせモデル101は、図2に示すように、位置合わせを行う各画像に対して共通に適用される第1のニューラルネットワークNN1と、第1のニューラルネットワークNN1の出力の組み合わせが入力される第2のニューラルネットワークNN2とを含む。
第1のニューラルネットワークNN1は、1つの画像の入力を受け付け、入力された画像の特徴マップを出力するネットワークである。第1のニューラルネットワークNN1は、入力された画像から特徴を抽出する特徴抽出部として機能する。第2のニューラルネットワークNN2は、第1のニューラルネットワークNN1を用いて生成された2画像分の特徴マップの組み合わせの入力を受け付け、これらの入力に対して、2画像間の変形ベクトル場を出力するネットワークである。第2のニューラルネットワークNN2は、入力された特徴マップの組み合わせから変形ベクトル場を算出する変形ベクトル場算出部として機能する。
図2に例示する第1のニューラルネットワークNN1は、3D U-net型のアーキテクチャを有する。図中における四角内の数字はチャンネル数を表している。第1のニューラルネットワークNN1は、入力のチャンネル数は1であり、1つの画像が1つのチャンネルとして入力される点で、非特許文献1に記載の2チャンネル入力の構成とは異なる。
図中におけるチャンネル数を付した四角と四角との間に示す右向き実線矢印は、3×3×3のフィルタによる3次元畳み込み演算と活性化関数としてのLReLU(Leaky Rectified Linear Unit)を用いた演算とを含む処理を表している。また、図中における下向き矢印は2×2×2のフィルタによるマックスプーリング(Max Pooling)の処理を表している。図中における右向き破線矢印の矢先に並ぶ2つの四角形はチャンネルの結合を表している。図中における上向き矢印は2×2×2のフィルタによるアップスケーリング(up-scaling)と、3×3×3のフィルタによる畳み込み演算とLReLUを用いた演算とを含む処理を表している。また、第2のニューラルネットワークNN2の最終段における一点鎖線の右向き矢印(32チャンネルを3チャンネルにする処理)は、1×1×1のフィルタによる畳み込み演算の処理を表している。第2のニューラルネットワークNN2の出力として得られる3チャンネルは、変形ベクトル場のx,y,zの各成分に相当する。
図2に示す位置合わせモデル101では、画像Aの入力を受け付けて画像Aの特徴マップAを出力する第1のニューラルネットワークNN1と、画像Bの入力を受け付けて画像Bの特徴マップBを出力する第1のニューラルネットワークNN1との2つのネットワークが図示されているが、これら2つの第1のニューラルネットワークNN1は重み(ネットワークのパラメータ)が共有される同じ(共通の)ネットワークである。第1のニューラルネットワークNN1を用いる画像ごとの処理は、並列処理または並行処理されてもよいし、順次処理されてもよい。
図2では、画像Aを第1のニューラルネットワークNN1に入力することによって第1のニューラルネットワークNN1から出力された特徴マップAと、画像Bを第1のニューラルネットワークNN1に入力することによって第1のニューラルネットワークNN1から出力された特徴マップBとのペアが第2のニューラルネットワークNN2に入力され、第2のニューラルネットワークNN2から画像Aと画像Bとの画像間の変形ベクトル場が出力される。
第1のニューラルネットワークNN1に入力される画像のデータ表現は、空間W×H×Dの3次元データであってよい。WはX軸方向の画素数、HはY軸方向の画素数、DはZ方向の画素数を表す。W、HおよびDは、それぞれ任意の値に設定することができる。W×H×Dは、例えば、128×128×128であってもよいし、512×512×512などであってもよい。第2のニューラルネットワークNN2から出力される変形ベクトル場の表現は、画像Aおよび画像Bと同じ空間W×H×Dであってよい。
図2に示すように、位置合わせモデル101のネットワークは、位置合わせの対象とする2つの画像のそれぞれを1チャンネルの入力として受け付けて1画像単位で特徴抽出を行う第1のニューラルネットワークNN1と、第1のニューラルネットワークNN1を用いて各画像から抽出された特徴マップの組み合わせの入力を受け付けて、画像間の変形ベクトル場を求める第2のニューラルネットワークNN2とに分かれたネットワーク構造となっており、第1のニューラルネットワークNN1と、第2のニューラルネットワークNN2と、を別々に計算することができる。
[画像Cを含む3つの画像間の位置合わせについて]
図1では、画像Aと画像Bとの画像間の位置合わせを行う場合を説明したが、さらに、画像Aと画像Cとの画像間の位置合わせを行う場合には、画像Bと同様に、画像Cを第1のニューラルネットワークNN1に入力し、第1のニューラルネットワークNN1から画像Cに対応する特徴マップCを出力させる。そして、特徴マップAと特徴マップCと組み合わせを第2のニューラルネットワークNN2に入力し、これら特徴マップAおよび特徴マップCの組み合わせの入力に対して第2のニューラルネットワークNN2から変形ベクトル場を出力させる。
図3は、本実施形態に係る画像処理方法を用いて画像Aに対して画像Bと画像Cとをそれぞれ位置合わせする場合の処理の概要を示す説明図である。図3に示す位置合わせ処理部110は、図2で説明した位置合わせモデル101が適用される画像処理部である。位置合わせ処理部110は、第1のニューラルネットワークNN1を用いて構成される特徴抽出部111と、第2のニューラルネットワークNN2を用いて構成される変形ベクトル場算出部112とを含む。
本実施形態の画像処理方法では、図3に示すように、画像A、画像Bおよび画像Cのそれぞれの画像について、第1のニューラルネットワークNN1を用いた特徴抽出の処理が行われ、画像ごとに特徴マップA、特徴マップBおよび特徴マップCが生成される。つまり、画像A、画像Bおよび画像Cのそれぞれを第1のニューラルネットワークNN1に入力して、画像ごとに、第1のニューラルネットワークNN1を用いた演算を行う。その後、特徴マップAと特徴マップBとの組み合わせと、特徴マップAと特徴マップCとの組み合わせとのそれぞれを第2のニューラルネットワークNN2に入力して、特徴マップの組み合わせで第2のニューラルネットワークNN2を用いた演算を行う。
これにより、特徴マップAと特徴マップBとの組み合わせが入力された第2のニューラルネットワークNN2から変形ベクトル場BAが出力され、特徴マップAと特徴マップCとの組み合わせが入力された第2のニューラルネットワークNN2から変形ベクトル場CAが出力される。
画像Aを基準画像として画像Aに対して画像Bと画像Cとをそれぞれ位置合わせする場合、非特許文献1に記載の方法では、画像Aと画像Bとの組み合わせ、および、画像Aと画像Cとの組み合わせのそれぞれの画像ペアに対してネットワーク全体の計算をする必要がある。
これに対し、本実施形態によれば、位置合わせの基準となる画像Aについての特徴マップAの計算は1回実施することで、その計算結果(特徴マップA)を、特徴マップBと特徴マップCとのそれぞれと組み合わせて、第2のニューラルネットワークNN2への入力とすることができ、変形ベクトル場BAおよび変形ベクトル場CAを求めることができる。これにより、非特許文献1に記載の方法に比べて、2画像のペアに対して計算する量を抑制することができる。
4つ以上の画像について位置合わせする場合も同様であり、本実施形態によれば、位置合わせの対象となる2画像のペアに対して必要な計算量を抑制できる。
《第2実施形態》
図4は、第2実施形態に係る位置合わせモデル102のネットワーク構造図である。図2で説明した構成に代えて、図4に示すネットワーク構造を採用してもよい。図4における図面の記載ルールは、図2と同様である。図4に示す位置合わせモデル102について、図2と異なる点を説明する。
位置合わせモデル102は、図2で説明したネットワーク構造を持つ第1のニューラルネットワークNN1および第2のニューラルネットワークNN2に代えて、図4に示すネットワーク構造を持つ第1のニューラルネットワークNN1および第2のニューラルネットワークNN2を備える。
図4に示す第1のニューラルネットワークNN1は、図2で説明した3D U-net型のネットワークにおける前半のエンコーダ部分(ダウンサンプリング部)に相当するネットワーク構造を有する。図4に示す第1のニューラルネットワークNN1は、1つの画像の入力を受け付け、入力された画像から複数の特徴マップを出力する。図4に示する第1のニューラルネットワークNN1から出力される特徴マップは、32チャンネルの第1特徴マップと、64チャンネルの第2特徴マップと、128チャンネルの第3特徴マップと、256チャンネルの第4特徴マップと、512チャンネルの第5特徴マップとを含む。すなわち、位置合わせモデル102における第1のニューラルネットワークNN1は、画像Aの入力を受けて、これら複数種類の特徴マップを含む特徴マップのセットを出力する。同様に、この第1のニューラルネットワークNN1は、画像Bの入力を受けて、画像Bに対応する特徴マップのセットを出力する。
位置合わせモデル102における第2のニューラルネットワークNN2は、非特許文献1のFIG.2に示されている3D U-net型のネットワークにおける後半のデコータ部分(アップサンプリング部)に相当するネットワーク構造を有する。この第2のニューラルネットワークNN2は、図4に示す第1のニューラルネットワークNN1を用いて画像ごとに生成された特徴マップのセットの組み合わせの入力を受け付け、入力された特徴マップのセットの組み合わせから2画像間の変形ベクトル場を算出する。
図4に示す第2のニューラルネットワークNN2は、画像Aの特徴マップのセットと画像Bの特徴マップのセットとの組み合わせが入力されることにより、画像Aと画像Bとの画像間の変形ベクトル場を出力する。
図示は省略するが、画像Aに対して、画像Bと画像Cとをそれぞれ位置合わせする場合についても同様であり、画像Cを第1のニューラルネットワークNN1に入力し、第1のニューラルネットワークNN1から画像Cに対応する特徴マップのセットを出力させる。そして、画像Aの特徴マップのセットと、画像Cの特徴マップのセットとの組み合わせを第2のニューラルネットワークNN2に入力し、第2のニューラルネットワークNN2から画像Aと画像Cとの2画像間の変形ベクトル場を出力させる。4つ以上の画像について位置合わせする場合も同様であり、本実施形態によれば、位置合わせの対象となる複数の画像の組み合わせに対して、画像間の変形ベクトル場を求める際の計算量を抑制できる。
《第3実施形態》
図5は、第3実施形態に係る位置合わせモデル103のネットワーク構造図である。図2で説明した構成に代えて、図5に示すネットワーク構造を採用してもよい。図5における図面の記載ルールは図2と同様である。図5に示す位置合わせモデル103について、図2および図4に示す構成と異なる点を説明する。
位置合わせモデル103は、図2で説明したネットワーク構造を持つ第1のニューラルネットワークNN1および第2のニューラルネットワークNN2に代えて、図5に示すネットワーク構造を持つ第1のニューラルネットワークNN1および第2のニューラルネットワークNN2を備える。
図5に示す第1のニューラルネットワークNN1は、図4に示す第1のニューラルネットワークNN1と同様のネットワーク構造であってよい。図5に示す第1のニューラルネットワークNN1は、1つの画像の入力を受け付け、入力された画像から512チャンネルの特徴マップを出力する。この第1のニューラルネットワークNN1が出力する特徴マップの表現は、空間1×1×1である。
位置合わせモデル103の第1のニューラルネットワークNN1は、画像Aの入力に対して特徴マップAを出力する。また、この第1のニューラルネットワークNN1は、画像Bの入力に対して特徴マップBを出力する。図5では、画像Aを第1のニューラルネットワークNN1に入力することにより第1のニューラルネットワークNN1から出力される特徴マップAと、画像Bを第1のニューラルネットワークNN1に入力することにより第1のニューラルネットワークNN1から出力される特徴マップBとのペアが第2のニューラルネットワークNN2に入力される例が示されている。
位置合わせモデル103における第2のニューラルネットワークNN2は、入力として空間1×1×1の512チャンネルの特徴マップの組み合わせの入力を受け付け、これらの入力に基づき2画像間の変形ベクトル場を算出する。この第2のニューラルネットワークNN2から出力される変形ベクトル場の表現は、入力と同じ空間1×1×1である。この場合の変形ベクトル場は、変形ベクトルに相当する。すなわち、特徴マップおよび変形ベクトル場の表現は、空間1×1×1の場合を含む。
図5に示す例では、特徴マップAと特徴マップBとの組み合わせが第2のニューラルネットワークNN2に入力され、第2のニューラルネットワークNN2から画像Aと画像Bとの画像間の変形ベクトル場が出力される。図示は省略するが、画像Cを含む3つ以上の画像について位置合わせする場合も同様であり、本実施形態によれば、位置合わせの対象となる複数の画像の組み合わせに対して、画像間の変形ベクトル場を求める際の計算量を抑制できる。
《医療情報システムの構成例》
図6は、本開示の実施形態に係る画像処理装置220が適用される医療情報システム200の構成例を示すブロック図である。第1実施形態から第3実施形態の各実施形態として説明した位置合わせモデル101、102または103は画像処理装置220に組み込まれる。
医療情報システム200は、病院などの医療機関に構築されるコンピュータネットワークとして実現される。医療情報システム200は、電子カルテシステム202と、CT装置204と、MRI装置206と、画像保存サーバ210と、画像処理装置220と、ビューワ端末230とを含み、これらの要素は通信回線240を介して接続される。通信回線240は、医療機関内の構内通信回線であってよい。また通信回線240の一部は、広域通信回線を含んでもよい。医療情報システム200の要素の一部はクラウドコンピューティングによって構成されてもよい。
図6では、モダリティの例としてCT装置204とMRI装置206とを例示するが、医用画像を撮影する装置としては、CT装置204とMRI装置206とに限らず、不図示の超音波診断装置、PET(Positron Emission Tomography)装置、マンモグラフィ装置、X線診断装置、X線透視診断装置および内視鏡装置など様々な検査装置があり得る。通信回線240に接続されるモダリティの種類および台数は、医療機関ごとに様々な組み合わせがありうる。
画像保存サーバ210は、例えば、DICOM(Digital Imaging and Communications in Medicine)の仕様にて動作するDICOMサーバであってよい。画像保存サーバ210は、CT装置204およびMRI装置206などの各種モダリティを用いて撮影された画像を含む各種データを保存および管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用プログラムを備えている。画像保存サーバ210は、通信回線240を介して他の装置と通信を行い、画像データを含む各種データを送受信する。画像保存サーバ210は、CT装置204などのモダリティによって生成された画像を含む各種データを通信回線240経由で受信し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式および通信回線240経由での各装置間の通信は、DICOMのプロトコルに基づいている。
例えば、CT装置204を用いて、ある患者について肝臓のダイナミック造影検査が行われると、撮影によって得られた非造影画像、動脈相画像、門脈相画像および平衡相画像を含む複数の画像が画像保存サーバ210の画像データベース212に保存される。
画像処理装置220は、通信回線240を介して画像保存サーバ210等からデータを取得することができる。画像処理装置220は、コンピュータのハードウェアとソフトウェアとを用いて実現できる。画像処理装置220の形態は特に限定されず、サーバコンピュータであってもよいし、ワークステーションであってもよく、パーソナルコンピュータあるいはタブレット端末などであってもよい。画像処理装置220は、入力装置222と表示装置224とを備えていてもよい。
入力装置222は、例えば、キーボード、マウス、マルチタッチパネル、もしくはその他のポインティングデバイス、もしくは、音声入力装置、またはこれらの適宜の組み合わせであってよい。表示装置224は、各種の情報が表示される出力インターフェースである。表示装置224は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、もしくは、プロジェクタ、またはこれらの適宜の組み合わせであってよい。なお、タッチパネルのように入力装置222と表示装置224とが一体的に構成されてもよい。入力装置222及び表示装置224は、画像処理装置220に含まれてもよく、画像処理装置220、入力装置222及び表示装置224が一体的に構成されてもよい。
画像処理装置220は、モダリティにより撮影された医用画像について画像解析その他の各種処理を行う。画像処理装置220は、画像間の位置合わせの処理機能の他、例えば、画像から病変領域などを認識する処理、病名などの分類を特定する処理、あるいは、臓器等の領域を認識するセグメンテーション処理など、様々なコンピュータ支援診断(Computer Aided Diagnosis, Computer Aided Detection :CAD)等の解析処理を行うように構成されてもよい。また、画像処理装置220は、読影レポートの作成を支援する処理モジュールを含んでもよい。画像処理装置220は、画像処理の処理結果を画像保存サーバ210およびビューワ端末230に送ることができる。なお、画像処理装置220の処理機能の一部または全部は、画像保存サーバ210に組み込まれてもよいし、ビューワ端末230に組み込まれてもよい。
画像保存サーバ210の画像データベース212に保存された各種データ、並びに画像処理装置220により生成された処理結果を含む様々な情報は、ビューワ端末230の表示装置234に表示させることができる。
ビューワ端末230は、PACS(Picture Archiving and Communication Systems)ビューワ、あるいはDICOMビューワと呼ばれる画像閲覧用の端末であってよい。図6では1台のビューワ端末230を図示しているが、通信回線240には複数のビューワ端末230が接続され得る。ビューワ端末230の形態は特に限定されず、パーソナルコンピュータであってもよいし、ワークステーションであってもよく、また、タブレット端末などであってもよい。ビューワ端末230は、入力装置232と表示装置234とを備える。入力装置232および表示装置234は、画像処理装置220の入力装置222および表示装置224と同様の構成であってよい。
《画像処理装置220のハードウェア構成例》
図7は、画像処理装置220のハードウェア構成例を概略的に示すブロック図である。画像処理装置220は、1台または複数台のコンピュータを用いて構成されるコンピュータシステムによって実現することができる。ここでは、1台のコンピュータがプログラムを実行することにより、画像処理装置220の各種機能を実現する例を述べる。
画像処理装置220は、プロセッサ302と、非一時的な有体物であるコンピュータ可読媒体304と、通信インターフェース306と、入出力インターフェース308と、バス310とを含む。
プロセッサ302は、CPU(Central Processing Unit)を含む。プロセッサ302はGPU(Graphics Processing Unit)を含んでもよい。プロセッサ302は、バス310を介してコンピュータ可読媒体304、通信インターフェース306および入出力インターフェース308と接続される。プロセッサ302は、コンピュータ可読媒体304に記憶された各種のプログラムおよびデータ等を読み出し、各種の処理を実行する。プログラムという用語は、プログラムモジュールの概念を含み、プログラムに準じる命令を含む。
コンピュータ可読媒体304は、例えば、主記憶装置であるメモリ322および補助記憶装置であるストレージ324を含む記憶装置である。ストレージ324は、例えば、ハードディスク(Hard Disk Drive:HDD)装置、ソリッドステートドライブ(Solid State Drive:SSD)装置、光ディスク、光磁気ディスク、もしくは半導体メモリ、またはこれらの適宜の組み合わせを用いて構成される。ストレージ324には、各種プログラムやデータ等が記憶される。
メモリ322は、プロセッサ302の作業領域として使用され、ストレージ324から読み出されたプログラムおよび各種のデータを一時的に記憶する記憶部として用いられる。ストレージ324に記憶されているプログラムがメモリ322にロードされ、プログラムの命令をプロセッサ302が実行することにより、プロセッサ302は、プログラムで規定される各種の処理を行う手段として機能する。メモリ322には、プロセッサ302によって実行される位置合わせ処理プログラム330、対応点算出プログラム340、性状解析プログラム350、表示制御プログラム360などのプログラムおよび各種のデータ等が記憶される。
位置合わせ処理プログラム330は、図2~図5を用いて説明した位置合わせモデル101、102または103を含む。プロセッサ302が位置合わせ処理プログラム330の命令を実行することにより、プロセッサ302は、特徴抽出部332および変形ベクトル場算出部334として機能する。対応点算出プログラム340は、変形ベクトル場算出部334によって算出された変形ベクトル場を用いて、対比される画像における対応点を求める処理を実行させるプログラムである。
性状解析プログラム350は、画像内から病変などの領域を検出して病変の性状分析を行うCADモジュールの一例である。性状解析プログラム350は、例えば、肝臓を撮影したダイナミック造影CT画像から肝腫瘍の性状分析を行うプログラムであってもよい。性状解析プログラム350は、入力された画像から目的とする性状分析の処理結果を出力するように、機械学習によって訓練された学習済みモデルを用いて構成されてよい。性状解析プログラム350は、変形ベクトル場算出部334によって算出された変形ベクトル場を用いて位置合わせされた複数時相の画像を解析し、関心領域の造影効果を表す性状所見を出力する。画像処理装置220は、性状解析プログラム350に限らず、不図示の臓器認識プログラムおよび病変検出プログラムなど、他のCADモジュールを備えていてもよい。
表示制御プログラム360は、表示装置224への表示出力に必要な表示用信号を生成し、表示装置224の表示制御を行う。
通信インターフェース306は、有線または無線により外部装置との通信処理を行い、外部装置との間で情報のやり取りを行う。画像処理装置220は、通信インターフェース306を介して通信回線240に接続され、画像保存サーバ210およびビューワ端末230等の装置との間でデータの受け渡しが可能である。通信インターフェース306は、画像等のデータの入力を受け付けるデータ取得部の役割を担うことができる。
入力装置222および表示装置224は入出力インターフェース308を介してバス310に接続される。
《適用例1》
図8は、画像処理装置220を用いた画像処理の適用例1の概要を示す説明図である。図8は、肝臓のダイナミック造影CT検査における関心領域(Region of Interest:ROI)の位置合わせ処理の例を示す。ここでは、第3実施形態で説明したネットワーク構造(図5参照)を持つ位置合わせモデル130を用いる例を説明する。
ある患者について肝臓のダイナミック造影CT検査が行われると、CT装置204を用いて撮影された複数の時相の画像が画像保存サーバ210に保存される。読影を担当する医師は、ビューワ端末230を用いて各時相の画像を観察することができる。図8の最左に示す3つの画像A、画像Bおよび画像Cは、造影状態が相異なるCT画像の例である。画像A、画像Bおよび画像Cは本開示における「医用画像」の一例である。図8では、3つの画像を示すが4つ以上の画像が存在してもよい。以下、画像処理装置220による処理の手順を具体例と共に説明する。
ステップ0では、いずれかの時相の画像上で注目点が指定される。医師は、ビューワ端末230の表示装置234に複数の時相の画像のうち1つ以上の画像を表示させた状態で画像を観察し、肝腫瘍などの病変の疑いのある領域を発見した場合に、その注目点を指定する入力を行うことができる。この注目点を指定する入力の操作は、入力装置222を用いて行うことができる。複数の時相の画像のうち、注目点が指定された画像が位置合わせの際の基準画像となる。図8では、画像Aにおいて注目点が指定された例が示されており、画像Aが基準画像となる。例えば、画像Aは動脈相の画像、画像Bは門脈相の画像、画像Cは平衡相の画像であってもよい。なお、図8には示されていないが、さらに画像D(例えば、非造影画像)などが含まれていてもよい。
注目点が指定されると、画像処理装置220は、ステップ1として、各画像に仮の対応点を設定し、その周囲をROI画像として切り出す処理を行う。注目点が指定された基準画像としての画像Aについては、注目点に基づき、注目点を含むその周囲がROI画像として切り出される。例えば、画像処理装置220は、注目点を中心としてその周囲の所定サイズの画像領域をROI画像として切り出す。ROI画像として切り出す画像サイズは、予め定められたサイズであってもよいし、任意に指定若しくは選択されるサイズであってもよい。画像Aから切り出されたROI画像をROI(A)と表記する。
基準画像以外の画像、例えば、画像Bおよび画像Cなどについては、画像処理装置220は、注目点のDICOM座標を用いて、注目点に対応する仮の対応点を設定し、仮の対応点に基づき、仮の対応点を含むその周囲をROI画像として切り出す。ここでDICOM座標とは、DICOMヘッダ情報に含まれるタグ番号(0020,0032)の「Image Position (Patient)」などから得られる位置情報を指す。画像Bから切り出されたROI画像をROI(B)と表記し、画像Cから切り出されたROI画像をROI(C)と表記する。
次に、画像処理装置220は、ステップ2として、ステップ1にて生成されたROI画像の組み合わせから画像間のずれ量を算出する処理を行う。このステップ2の処理は、位置合わせモデル130を用いて実施される。ROI(A)を第1のニューラルネットワークNN1に入力することにより、ROI(A)の特徴マップFM(A)が生成される。同様に、ROI(B)とROI(C)とのそれぞれを第1のニューラルネットワークNN1に入力することにより、ROI(B)の特徴マップFM(B)とROI(C)の特徴マップFM(C)とが生成される。
第1のニューラルネットワークNN1によって生成された特徴マップFM(A)と特徴マップFM(B)との組み合わせを第2のニューラルネットワークNN2に入力することにより、第2のニューラルネットワークNN2の演算結果として、ROI(A)とROI(B)との画像間の変形ベクトル場、ここでは、ずれ量を示す変形ベクトル(dxB,dyB,dzB)が得られる。
同様に、第1のニューラルネットワークNN1によって生成された特徴マップFM(A)と特徴マップFM(C)との組み合わせを第2のニューラルネットワークNN2に入力することにより、第2のニューラルネットワークNN2の演算結果として、ROI(A)とROI(C)との画像間のずれ量を示す変形ベクトル(dxC,dyC,dzC)が得られる。このようにして、複数のROI画像から画像間のずれ量を算出することができる。
画像処理装置220は、位置合わせモデル103を用いて算出されたずれ量を使って様々なオプション処理を行うことができる。例えば、図8に示すステップ3では、ずれ量を使って注目点に対応する対応点を求めて、注目点と対応点の位置を揃えて画像を表示する。表示の態様としては、例えば、各画像を表示しているウィンドウの中心に、各画像の注目点又は対応点が一致するように表示する。
画像処理装置220は、ROI(A)とROI(B)との画像間のずれ量を示す変形ベクトルを基に、画像Bにおける注目点の対応点CP(B)を算出し、画像Aの表示ウィンドウの中心に注目点が一致するように画像Aを表示させ、画像Bの表示ウィンドウの中心に対応点CP(B)が一致するように画像Bを表示させることができる。同様に、画像処理装置220は、ROI(A)とROI(C)との画像間のずれ量を示す変形ベクトルを基に、画像Cにおける注目点の対応点CP(C)を算出し、対応点CP(C)が画像Cの表示ウィンドウの中心に一致するように、画像Cを表示させることができる。
このように注目点と対応点の位置を揃えて画像を表示させる処理に限らず、画像処理装置220は、図8のように、各画像上に対応点の位置を示すアノテーションを表示させる処理を行ってもよい。
例えば、画像処理装置220は、ROI(A)とROI(B)との画像間のずれ量を示す変形ベクトルを基に、画像Bにおける注目点の対応点CP(B)を算出し、画像Bの画像上に対応点CP(B)を示すマークなどの位置を示す情報を重畳表示させることができる。また、画像処理装置220は、ROI(A)とROI(C)との画像間のずれ量を示す変形ベクトルを基に、画像Bにおける注目点の対応点CP(C)を算出し、画像Cの画像上に対応点CP(C)を示すマークなどの位置を示す情報を重畳表示させることができる。このような対応点の算出及び表示の処理は、対応点算出プログラム340を用いて実施される。
また、画像処理装置220は、ステップ3の処理に代えて、または、ステップ3の処理に追加して、ステップ4として、ずれ量を使って位置を揃えた複数の画像の関心領域(ROI)を画像解析して、造影効果を表す性状所見を出力する処理を行ってもよい。性状所見には、例えば、早期濃染、ウォッシュアウト(washout)など複数の時相に関わる造影効果の分類が含まれてよい。画像処理装置220は、入力された複数時相の画像から性状所見の分類を出力するように機械学習によって訓練された学習済みモデルを用いて画像解析を行う構成であってもよい。このような性状分析の処理は、性状解析プログラム350を用いて実施される。
図9は、図8に示す肝臓のダイナミック造影CT検査におけるROIの位置合わせ処理のフローチャートである。ステップS101において、画像処理装置220のプロセッサ302は、複数時相の画像群のうち、いずれかの時相の画像内の注目点の指定を受け付ける。
注目点が指定されると、ステップS102において、プロセッサ302は、注目点が指定された基準画像以外の他の画像に仮の対応点を設定し、各画像から注目点または仮の対応点の周囲をROI画像として切り出す。
次に、ステップS103において、プロセッサ302は、位置合わせモデル103を用いてROI画像の組み合わせからずれ量を算出する。
そして、ステップS104において、プロセッサ302は、算出したずれ量を使って基準画像以外の画像について注目点に対応する対応点を求め、注目点と対応点の位置を揃えて画像を表示させる。また、プロセッサ302は、画像と共に対応点の位置を示す情報を表示させてもよい。ステップS104の後、プロセッサ302は、図9のフローチャートを終了する。なお、プロセッサ302は、ステップS104の後に、ステップS101に戻り、注目点の指定の入力に応じてステップS101~ステップS104を繰り返し実施してもよい。
図10は、図9のステップS103に適用されるサブルーチンの例を示すフローチャートである。ステップS111において、プロセッサ302は、複数時相の各画像から切り出したROI画像のそれぞれを第1のニューラルネットワークNN1に入力し、各ROI画像の特徴マップを生成する。
ステップS112において、プロセッサ302は、ROI(A)から生成された特徴マップFM(A)とROI(B)から生成された特徴マップFM(B)とのペアを第2のニューラルネットワークNN2に入力し、ROI(A)とROI(B)との画像間のずれ量dfBを算出する。
同様に、ステップS113において、プロセッサ302は、ROI(A)から生成された特徴マップFM(A)とROI(C)から生成された特徴マップFM(C)とのペアを第2のニューラルネットワークNN2に入力し、ROI(A)とROI(C)との画像間のずれ量dfCを算出する。図10に示さないが、画像Dを含む場合は、同様に、プロセッサ302は、ROI(A)から生成された特徴マップFM(A)とROI(D)から生成された特徴マップFM(D)とのペアを第2のニューラルネットワークNN2に入力し、ROI(A)とROI(D)との画像間のずれ量dfDを算出する。
ステップS113の後、プロセッサ302は、図10のフローチャートを終了し、図9のフローチャートに復帰する。
[肝腫瘍の性状分析と所見文生成]
画像処理装置220が実施し得るさらなるオプション処理(ステップ4)として、画像処理装置220は、関心領域について複数の画像を対比することによって造影効果の性状を解析し、解析結果を基に読影レポートに記載する所見文を生成して提示する処理を実施してもよい。関心領域の性状(特徴)を表す複数の所見から所見文を生成する技術は、例えば、国際公開WO2020/209382号に記載されている技術を適用できる。
画像処理装置220によれば、複数時相の画像のうち、例えば動脈相の画像上で腫瘍の位置が指定(クリック)されると、この指定された腫瘍の位置を基準にしてROIの切り出しと、各時相の画像の位置合わせが行われ、複数時相のROI画像を基に、指定された腫瘍に対する性状分析が行われる。画像解析に基づく性状分析の結果、例えば、「境界:明瞭」、「辺縁:平滑」、「早期濃染:+」、「washout:+」、「造影効果:不均一」、「遅延性:-」、「辺縁部濃染:-」、「リング状:-」、「被膜形成:+」、「脂肪変性:+」、「場所:S8」、「大きさ:42mm」などのような分析結果が得られる。
所見文生成プログラムは、性状分析によって得られた分析結果の情報の中から、読影レポートに記載すべき情報を取捨選択し、所見文の候補を自動生成する。所見文生成プログラムが組み込まれた画像処理装置220は、例えば、上記に例示の分析結果の情報を基に、「S8に42mm大の辺縁平滑で明瞭な腫瘤を認めます。不均一な早期濃染を認め、washoutを伴います。被膜様構造も見られます。脂肪成分も認められます。」という所見文を生成し得る。このような所見文を生成する処理は、例えば、トランスフォーマ(Transformer)に代表されるニューラルネットワークのアーキテクチャを用いた機械学習モデルを用いて実現される。
[位置合わせモデルを生成するための学習方法の例]
ここで、位置合わせモデル132を生成するための学習方法の例を説明する。図11および図12に、本実施形態に適用される機械学習装置400による学習方法の概要を示す。図11は、訓練用のデータを生成する処理部(以下、訓練用データ生成部という。)の構成を示しており、図12は、生成された訓練用のデータを用いて学習モデルを訓練する処理部(以下、学習処理部という。)の構成を示している。「訓練」は学習と同義である。
通常、CT装置204などのモダリティを用いて実際に撮影される複数時相の画像の場合、造影状態が相異なる2画像間の正解の変形ベクトル場は特定されておらず、対比される2画像間の正解の変形ベクトル場を求めることは難しい。このため、機械学習に必要な大量の訓練用のデータを実際の画像だけで用意することは困難である。
そこで、本実施形態の位置合わせモデル130の学習方法においては、実際に撮影された画像を基に、人工的に訓練用の画像のペアを生成し、そのペアの生成の際に用いた変形変換を規定する変形ベクトル場を正解の教師信号として利用する。このようなデータ拡張(Data Augmentation)の手法については、非特許文献1に記載されている方法と同様の方法を適用し得る。
図11に示すように、機械学習装置400における訓練用データ生成部は、クロップ処理部402と、データ拡張変換部404、405と、ランダム変形処理部406とを含む。機械学習装置400は、コンピュータのハードウェアとソフトウェアとの組み合わせによって実現できる。
クロップ処理部402は、実際に撮影された3次元画像であるオリジナルの訓練画像TIから一部の画像領域を切り出して所定のサイズにリサイズする処理を行う。クロップ処理部402による切り出し位置はランダムに変更されてよい。データ拡張変換部404は、クロップ処理部402によって切り出されたクロップ画像TI(x)に対して、既知の変形変換を適用してデータ拡張の画像変換を行い、人工的な拡張訓練画像TIa(x)を生成する。
データ拡張変換部405は、データ拡張変換部404と同じ変形関数を適用して画像変換を行う。図11では、データ拡張変換部404とデータ拡張変換部405とを別々の処理部として図示しているが、両者は同じものであり、データ拡張変換部404によって生成された拡張訓練画像TIa(x)をランダム変形処理部406に入力される構成であってもよい。
ランダム変形処理部406は、予め定められた制約範囲内でランダムに生成される変形ベクトル場U(x)を用いて画像変形を行う。ここでの「制約範囲」には、例えば、変形に適用するアルゴリズムの種類、変形量、変形させる領域範囲などの各種変形パラメータの数値範囲などが含まれる。ランダム変形処理部406は、データ拡張変換部404によって生成される拡張訓練画像TIa(x)に対して変形ベクトル場U(x)を用い、人工的に変形させた拡張変形訓練画像TId(x)を生成する。ランダム変形処理部406によって行われる3次元のランダム変形は、剛体変形と非剛体変形との組み合わせであってよい。ランダム変形処理部406における変形を規定する変形ベクトル場U(x)は本開示における「変形場」の一例である。なお、図11では、データ拡張変換部405とランダム変形処理部406とを分けて図示しているが、これらの処理をまとめてデータ拡張変換とランダム変形とを一括して行う変換処理部として構成してもよい。
こうして、1つの訓練画像TIから拡張訓練画像TIa(x)と拡張変形訓練画像TId(x)とのペアと、これらの画像間の正解の変形ベクトル場U(x)とを含む訓練用のデータを生成することができる。クロップ処理部402による切り出し位置、データ拡張変換部404、405に適用する変換関数、およびランダム変形処理部406に適用する変形ベクトル場U(x)の組み合わせを異ならせることにより、1つの訓練画像TIから複数の訓練用のデータを生成することができる。複数の訓練画像TIを含む学習画像セットを用意して、それぞれの訓練画像TIについて図11に示す処理を適用することで、機械学習に必要な多数の訓練用のデータを含むデータセットを得ることができる。
なお、図11に示すクロップ処理部402を省略する形態、もしくはデータ拡張変換部404、405を省略する形態、またはクロップ処理部402およびデータ拡張変換部404、405を省略する形態も可能であり、いずれの形態であっても、訓練画像TIに対してランダム変形処理部406の処理を適用することにより、変形前の画像と変形後の画像とのペアを得ることができる。
機械学習装置400は、学習処理中にオンザフライ方式で訓練用のデータを生成してもよいし、学習処理に先だって予め訓練用のデータを生成して、訓練に必要なデータセットを整えておいてもよい。
機械学習装置400は、図12に示すように、学習モデル410とオプティマイザ420とを含む。位置合わせモデル130を生成する場合、学習モデル410のネットワーク構造は、図5で説明したネットワーク構造と同様の構成である。
拡張訓練画像TIa(x)と拡張変形訓練画像TId(x)とのそれぞれは学習モデル410の第1のニューラルネットワークNN1に入力され、それぞれの特徴マップが第2のニューラルネットワークNN2に入力されることにより、第2のニューラルネットワークNN2から変形ベクトル場u(x)が出力される。図5で説明したネットワーク構造を有する学習モデル410の場合、変形ベクトル場u(x)の表現は空間1×1×1である。
オプティマイザ420は、学習モデル410が出力する変形ベクトル場u(x)が正解の変形ベクトル場U(x)に近づくように、学習モデル410の出力と、教師信号との誤差を示す損失の演算結果に基づき、学習モデル410のパラメータの更新量を決定し、学習モデル410のパラメータの更新処理を行う。オプティマイザ420は、勾配降下法などのアルゴリズムに基づきパラメータの更新を行う。なお、学習モデル410のパラメータは、ニューラルネットワークの各層の処理に用いるフィルタのフィルタ係数(ノード間の結合の重み)およびノードのバイアスなどを含む。機械学習装置400は、複数の訓練用のデータをまとめたミニバッチの単位でデータの取得とパラメータの更新とを実施してもよい。
こうして、多数の訓練用のデータを用いて学習処理が行われることにより、学習モデル410のパラメータが最適化され、目的の性能を持つ位置合わせモデル130が生成される。
図13は、位置合わせモデル130の学習フェーズを概略的に示す説明図である。図13の左上段に示す画像IM1cと画像IM1aは、訓練用の3次元画像である画像TI1の断面を表しており、画像IM1cはコロナル画像、画像IM1aは画像IM1cのA-A線における断面の画像(アキシャル画像)である。画像IM1aおよび画像IM1c内に示す矩形枠BB1は、訓練用の画像TI1からランダムに切り出されるROIを表している。画像IM1aおよび画像IM1c内に示す「×」印は、注目点に相当する位置を表している。
この訓練用の画像TI1に対して3次元のランダム変形を施すことにより、訓練の画像TI2が生成される。図13の左下段に示す画像IM2cと画像IM2aは、訓練用の画像TI2を表しており、画像IM2cはコロナル画像、画像IM2aはアキシャル画像である。画像IM2aは、画像IM2cのA-A線における断面の画像である。画像IM2aおよび画像IM2c内に示す矩形枠BB2は、画像TI2から切り出されるROIを表している。矩形枠BB2の位置は、矩形枠BB1の位置に対応する位置である。
画像TI1および画像TI2のそれぞれからランダムに切り出されたROIは、学習モデル410の第1のニューラルネットワークNN1に入力され、ROIごとに第1のニューラルネットワークNN1の処理が実行される。各ROIを処理する第1のニューラルネットワークNN1の出力は第2のニューラルネットワークNN2の入力に接続されており、各ROIの特徴マップFM1、FM2の組み合わせが第2のニューラルネットワークNN2に入力されることにより、第2のニューラルネットワークNN2からROI間の3次元の変形量(ずれ量)を示すベクトル(dx,dy,dz)が出力される。
学習モデル410から出力される変形量と、教師信号である正解変形量(gt_dx,gt_dy,gt_dy)との差に基づいて、学習モデル410のパラメータが更新される。なお、正解変形量(gt_dx,gt_dy,gt_dy)は、3次元のランダム変形の処理に適用した変換関数に相当する変形ベクトル場から算出することができる。
《適用例2》
本開示の画像間の位置合わせ技術は、ダイナミック造影検査の複数時相の画像間の位置合わせに限らず、様々な用途に適用できる。
図14は、画像処理装置220を用いた画像処理の適用例2の概要を示す説明図である。図14は、肝臓検査画像の経時比較のための位置合わせ処理の例を示す。ここでは、第1実施形態で説明した位置合わせモデル101(図2参照)と同様のネットワーク構造を有する位置合わせモデル132を用いる例を説明するが、位置合わせモデル132は、第2実施形態で説明した位置合わせモデル102(図4参照)と同様のネットワーク構造であってもよい。
ある患者について肝臓のCT検査が行われると、CT装置104を用いて撮影された画像が画像保存サーバ210に保存される。同じ患者について検査する日(時期)を変えて複数回の検査を行い、検査日の異なる複数の検査画像を比較することにより、状態の変化を観察する場合がある。このような経時比較に有益な方法の1つとして、検査画像を保存する際に、位置合わせモデル132の第1のニューラルネットワークNN1を用いて、検査画像の特徴マップを生成し、検査画像と共にその特徴マップを画像保存サーバ210に保存してもよい。以下、画像処理装置220による処理の手順を具体例と共に説明する。
ステップ0として、画像処理装置220は、検査の実施によって得られた画像について、例えば、肝臓などの臓器やその他のランドマークを検出して、おおまかに画像の位置を揃える。図14の最左に示す画像Aは、今回の検査によって得られた最新の画像であり、患者の現在の状態を表すものである。本例においては、この最新の画像Aが位置合わせの基準画像となる。画像Aの下に示した画像Bと画像Cとのそれぞれは、同じ患者の過去に撮影された画像を表しており、それぞれの撮影時期(検査日)は異なる。図14に示す画像A、画像Bおよび画像Cは本開示における「撮影された日が相異なる画像」の一例である。なお、図14には示されていないが、さらに、画像Dなど1つ以上の過去画像が含まれていてもよい。
ステップ0の処理は、次のステップ1の前処理として実施することが好ましい処理であるが、必須の処理というわけではなく、実施の有無を選択できるオプションの処理である。
画像処理装置220は、ステップ1として、検査の実施によって得られた各画像に第1のニューラルネットワークNN1を適用して、第1のニューラルネットワークNN1の処理結果としての特徴マップを生成し、画像と紐付けてそれぞれの特徴マップを画像保存サーバ210に保存する。図14では、画像A、画像B、画像Cの各画像について第1のニューラルネットワークNN1を適用する処理が並列に図示されているが、これらの処理は、検査によって各画像が取得されたタイミングで行われ、処理の時期は異なる。
その後、読影の際に、画像処理装置220は、画像保存サーバ210から比較対象の画像と、その画像についての第1のニューラルネットワークNN1の処理結果である特徴とを読み出し、比較対象の2画像の特徴マップのペアに第2のニューラルネットワークNN2を適用する。画像Aの特徴マップFM(A)と画像Bの特徴マップFM(B)とのペアが第2のニューラルネットワークNN2に入力されることにより、第2のニューラルネットワークNN2から画像Aと画像Bとの画像間のずれ量マップBに相当する変形ベクトル場DVf(B)が出力される。
また、画像Aの特徴マップFM(A)と画像Cの特徴マップFM(C)とのペアが第2のニューラルネットワークNN2に入力されることにより、第2のニューラルネットワークNN2から画像Aと画像Cとの画像間のずれ量マップCに相当する変形ベクトル場DVf(C)が出力される。
画像処理装置220は、位置合わせモデル132を用いて算出されたずれ量マップを使って様々なオプション処理を行うことができる。例えば、図14に示すように、ステップ3として、画像処理装置220は、読影の際に注目点の指定を受け付け、注目点が指定されると、ずれ量マップを参照して、過去の各画像について注目点に対応する対応点を求めて、注目点と対応点の位置を揃えて画像を表示させる処理を行う。例えば、現在画像と過去画像とのそれぞれの画像を表示しているウィンドウの中心に、各画像の注目点又は対応点が一致するように表示させる。また、図14のように、過去画像と共に対応点の位置を示す情報(アノテーション)を表示させてもよい。
図15および図16は、図14に示す経時比較に適用される位置合わせ処理のフローチャートである。図15は画像保存時の処理の例を示すフローチャートであり、図16は読影時の処理の例を示すフローチャートである。
図15のステップS201において、画像処理装置220のプロセッサ302は、検査画像を取得する。プロセッサ302は、CT装置104などのモダリティから最新の検査画像を取得してもよいし、画像保存サーバ210から検査画像を取得してもよい。
ステップS202において、プロセッサ302は、取得した画像から肝臓などの臓器その他のランドマークを検出して、検出したランドマークの情報を基に観察対象の領域を含む関心領域のおおまかな位置を特定する。
次いで、ステップS203において、プロセッサ302は、取得した画像を第1のニューラルネットワークNN1に入力し、特徴マップを生成する。そして、ステップS204において、プロセッサ302は、取得した画像と第1のニューラルネットワークNN1の処理結果としての特徴マップとを紐付けて画像保存サーバ210に保存する。ステップS204の後、プロセッサ302は、図15のフローチャートを終了する。
検査の実施によって新たな検査画像が撮影される都度、図15のフローチャートが実施され、各検査画像について予め第1のニューラルネットワークNN1の処理結果が検査画像と紐付けて保存される。
読影の際には、図16のフローチャートが実施される。ステップS211において、画像処理装置220のプロセッサ302は、ビューワ端末230からの指示に従い、画像保存サーバ210から対象画像とその特徴マップとを読み出す。そして、ステップS212において、プロセッサ302は、比較する複数の画像の特徴マップの各ペアを第2のニューラルネットワークNN2に入力する。
ステップS213において、プロセッサ302は、第2のニューラルネットワークNN2を用いた処理を実行し、画像間のずれ量マップ(すなわち、変形ベクトル場)を生成する。生成された各画像間のずれ量マップは、画像処理装置220内に保存してもよいし、画像保存サーバ210に保存してもよい。
ステップS214において、プロセッサ302は、注目点の指定を受け付ける。ビューワ端末230から注目点の指定が入力されると、その指定情報がプロセッサ302に送られる。
注目点が指定されると、ステップS215において、プロセッサ302は、ずれ量マップを参照して、過去画像における注目点に対応する対応点を求め、注目点と対応点の位置を揃えて画像を表示させる。プロセッサ302は、過去画像と共に対応点の位置を示す情報を表示させてもよい。
ステップS215の後、プロセッサ302は、図16のフローチャートを終了する。なお、プロセッサ302は、ステップS215の後に、ステップS211に戻り、注目点の指定の入力に応じてステップS211~ステップS215を繰り返し実施してもよい。
図14~図16で説明したように、位置合わせモデル132における第1のニューラルネットワークNN1を用いる処理と、第2のニューラルネットワークNN2を用いる処理とは、別々の時期に実施されてよい。第1のニューラルネットワークNN1と第2のニューラルネットワークNN2とのそれぞれは別々に演算可能な個別の処理モジュールとして構成し得る。第1のニューラルネットワークNN1を用いた処理を行う装置と、第2のニューラルネットワークNN2を用いた処理を行う装置とを別々の装置として構成するシステムの形態も可能である。
[位置合わせモデル132を生成するための学習方法の例]
図17は、図16に示す経時比較に適用される位置合わせモデル132の学習フェーズを概略的に示す説明図である。図17において、図13と共通する要素には同一の符号を付し、重複する説明は省略する。位置合わせモデル132を生成する場合の学習モデル412のネットワーク構造は、図2または図4に示すネットワーク構造となる。
訓練用の画像TI1に対して3次元のランダム変形を施すことにより、訓練の画像TI2が生成される。訓練用の画像TI1、TI2のそれぞれが学習モデル412の第1のニューラルネットワークNN1に入力され、画像ごとに第1のニューラルネットワークNN1の処理が実行される。各画像を処理する第1のニューラルネットワークNN1の出力は第2のニューラルネットワークNN2の入力に接続されており、各画像から生成された特徴マップFM1、FM2の組み合わせが第2のニューラルネットワークNN2に入力されることにより、第2のニューラルネットワークNN2から画像間の変形ベクトル場が出力される。
学習モデル41から出力される変形ベクトル場と、教師信号である正解変形ベクトル場との差に基づいて、学習モデル412のパラメータが更新される。なお、正解変形ベクトル場は、3次元のランダム変形の処理に適用した変形変換の関数に相当する変形ベクトル場である。
《適用例3》
図18は、画像処理装置220を用いた画像処理の適用例3の概要を示す説明図である。本開示の画像間の位置合わせ技術は、異なるモダリティの画像間の比較に応用することができる。図18は、異種モダリティ間の画像比較のための位置合わせ処理の例を示す。ここでは、第1実施形態で説明した位置合わせモデル101(図2参照)と同様のネットワーク構造を持つ位置合わせモデル133を用いる例を説明するが、位置合わせモデル133は、第2実施形態で説明した位置合わせモデル102(図4参照)と同様のネットワーク構造であってもよい。図18は、図17で説明した経時比較の処理の仕組みを、異種モダリティの画像間の比較に適用したものである。
図18に示す処理対象の画像Aは、例えば、CT画像であり、画像BはMRI装置206を用いて撮影されたT1強調画像、画像CはT2強調画像などであってよい。異なるモダリティの画像A、画像Bおよび画像Cのそれぞれは、同じ患者の画像であり、それぞれの画像の撮影時期(検査日)は同じ検査日であってもよいし、異なる検査日であってもよい。図18に示す画像A、画像Bおよび画像Cのそれぞれは本開示における「モダリティが相異なる画像」の一例である。図18には示されていないが、さらに、画像Dなど1つ以上の他のモダリティ画像が含まれていてもよい。
ステップ0として、画像処理装置220は、検査の実施によって得られた画像について、例えば、肝臓などの臓器やその他のランドマークを検出して、おおまかに画像の位置を揃える。
画像処理装置220は、ステップ1として、各画像に位置合わせモデル133の第1のニューラルネットワークNN1を適用して、第1のニューラルネットワークNN1の処理結果としての特徴マップを生成する。
ステップ0およびステップ1の処理は、図14の例と同様に、画像保存時に実施されてもよいし、読影時に実施されてもよい。
ステップ1の後、画像処理装置220は、比較対象の2画像の特徴マップの各ペアに第2のニューラルネットワークNN2を適用する。画像Aの特徴マップFM(A)と画像Bの特徴マップFM(B)とのペアが第2のニューラルネットワークNN2に入力されることにより、第2のニューラルネットワークNN2から画像Aと画像Bとの画像間のずれ量マップBに相当する変形ベクトル場DVf(B)が出力される。
また、画像Aの特徴マップFM(A)と画像Cの特徴マップFM(C)とのペアが第2のニューラルネットワークNN2に入力されることにより、第2のニューラルネットワークNN2から画像Aと画像Cとの画像間のずれ量マップCに相当する変形ベクトル場DVf(C)が出力される。
画像処理装置220は、位置合わせモデル133を用いて算出されたずれ量マップを使って様々なオプション処理を行うことができる。例えば、図18に示すように、ステップ3として、画像処理装置220は、読影の際に注目点の指定を受け付け、注目点が指定されると、ずれ量マップを参照して、異なるモダリティの各画像について注目点に対応する対応点を求めて、注目点と対応点の位置を揃えて画像を表示させる処理を行う。また、画像処理装置220は、各画像上に対応点の位置を示すアノテーションを表示させる処理を行ってもよい。
[位置合わせモデル133を生成するための学習方法の例]
図19は、図18に示すモダリティ間の画像比較に適用される位置合わせモデル133の学習フェーズを概略的に示す説明図である。位置合わせモデル133を生成する場合の学習モデル413のネットワーク構造は、図2または図4に示すネットワーク構造である。
学習に際しては、CT画像、MRI(T1強調)画像およびMRI(T2強調)画像など、複数のモダリティの画像を混在させた学習画像セットを用いる。図19に示す画像IM1は、学習画像セットの中から選択された画像であり、3次元のランダム変形を施す前の画像である。
この画像IM1に対して、3次元のランダム変形が施され、変形後の画像IM2が生成される。3次元のランダム変形は、剛体変形と非剛体変形とを組み合わせた変形の処理であってよい。
こうして得られた画像IM1、IM2のそれぞれが学習モデル413の第1のニューラルネットワークNN1に入力され、画像ごとに第1のニューラルネットワークNN1の処理が実行される。第1のニューラルネットワークNN1によって各画像から生成された特徴マップFM1、FM2の組み合わせが第2のニューラルネットワークNN2に入力されることにより、第2のニューラルネットワークNN2から画像間の変形ベクトル場が出力される。
学習モデル413から出力される変形ベクトル場と、教師信号である正解変形ベクトル場との差に基づいて、学習モデル41のパラメータが更新される。これにより、第1のニューラルネットワークNN1は、画像種によらず、入力された画像から位置合わせに適した特徴を抽出するように学習がなされる。
《コンピュータを動作させるプログラムについて》
画像処理装置220における処理機能の一部または全部をコンピュータに実現させるプログラムを、光ディスク、磁気ディスク、もしくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。
またこのような有体物たる非一時的なコンピュータ可読媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。
さらに、画像処理装置220における処理機能の一部または全部をクラウドコンピューティングによって実現してもよく、また、SaS(Software as a Service)サービスとして提供することも可能である。
《各処理部のハードウェア構成について》
画像処理装置220における位置合わせ処理部110、特徴抽出部111、332、変形ベクトル場算出部112、334、並びに機械学習装置400におけるクロップ処理部402、データ拡張変換部404、405、およびランダム変形処理部406などの各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、例えば、次に示すような各種のプロセッサ(processor)である。
各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU、画像処理に特化したプロセッサであるGPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサで構成されてもよい。例えば、1つの処理部は、複数のFPGA、あるいは、CPUとFPGAの組み合わせ、またはCPUとGPUの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第一に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第二に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
《本開示の実施形態による利点》
第1実施形態から第3実施形態の各実施形態および適用例1から適用例3の各適用例として説明した形態によれば、第1のニューラルネットワークNN1を用いて1画像単位で特徴マップが生成され、異なる画像の特徴マップの組み合わせを第2のニューラルネットワークNN2に入力して画像間の変形ベクトル場を算出する構成となっているため、画像間での位置合わせを行う際に必要になる計算リソース(計算量および/または記憶容量)を抑制することができる。特に、3つ以上の画像について、そのうちの1つを基準画像とし、他の画像との画像間の位置合わせを行う場合に、基準画像の特徴マップは、他の画像との組み合わせに対して共通に利用できるため、計算量の抑制効果が大きい。
《他の応用例》
上述の実施形態では、医用画像を例に説明したが、本開示の適用範囲は医用画像に限らず、用途を問わず、各種の画像に適用できる。また、上述の実施形態では、3次元画像を扱う例を説明したが、本開示の技術は2次元画像についても適用できる。扱う画像が2次元画像である場合、第1のニューラルネットワークNN1及び第2のニューラルネットワークNN2について2次元画像の処理を行うネットワーク構造を採用すればよい。
《その他》
本開示は上述した実施形態に限定されるものではなく、本開示の技術的思想の趣旨を逸脱しない範囲で種々の変形が可能である。
10,101,102,103 位置合わせモデル
110 位置合わせ処理部
111 特徴抽出部
112 変形ベクトル場算出部
130,132,133 位置合わせモデル
200 医療情報システム
202 電子カルテシステム
204 CT装置
206 MRI装置
210 画像保存サーバ
212 画像データベース
220 画像処理装置
222 入力装置
224 表示装置
230 ビューワ端末
232 入力装置
234 表示装置
240 通信回線
302 プロセッサ
304 コンピュータ可読媒体
306 通信インターフェース
308 入出力インターフェース
310 バス
322 メモリ
324 ストレージ
330 位置合わせ処理プログラム
332 特徴抽出部
334 変形ベクトル場算出部
340 対応点算出プログラム
350 性状解析プログラム
360 表示制御プログラム
400 機械学習装置
402 クロップ処理部
404,405 データ拡張変換部
406 ランダム変形処理部
410,412,413 学習モデル
420 オプティマイザ
NN1 第1のニューラルネットワーク
NN2 第2のニューラルネットワーク
BB1,BB2 矩形枠
ROI(A),ROI(B),ROI(C) ROI画像
FM(A),FM(B),FM(C) 特徴マップ
CP(B),CP(C) 対応点
TI 訓練画像
TI(x) クップ画像
TIa(x) 拡張訓練画像
TId(x) 拡張変形訓練画像
TI1,TI2 画像
IM1,IM1a,IM1c 画像
IM2,IM2a,IM2c 画像
FM1,FM2 特徴マップ
DVf(B),DVf(C) 変形ベクトル場
S101~S104 関心領域の位置合わせ処理のステップ
S111~S113 ROI画像間のずれ量を算出する処理のステップ
S201~S204 画像保存時の処理のステップ
S211~S215 読影時の処理のステップ

Claims (12)

  1. 1つ以上のプロセッサが実行する画像処理方法であって、
    前記1つ以上の前記プロセッサが、
    複数の画像のそれぞれの特徴マップを取得することと、
    前記画像ごとの前記特徴マップの組み合わせから変形ベクトル場を算出することと、
    を含み、
    前記複数の画像は、造影状態が相異なる画像であり、
    前記1つ以上のプロセッサが、
    前記変形ベクトル場を用いて位置を合わせた前記複数の画像を解析し、関心領域の造影効果を表す性状所見を出力することを含む、
    画像処理方法。
  2. 前記1つ以上の前記プロセッサが、
    第1のニューラルネットワークを用いて前記複数の画像のそれぞれから各画像の前記特徴マップを生成し、
    前記第1のニューラルネットワークを用いて前記画像ごとに生成された前記特徴マップの組み合わせを第2のニューラルネットワークに入力することにより、前記第2のニューラルネットワークを用いて前記変形ベクトル場を算出する、
    請求項1に記載の画像処理方法。
  3. 前記第1のニューラルネットワークは、1画像の入力を受け付け、入力された前記1画像に対する処理を行うことにより1つ以上の特徴マップを出力するネットワークであり、
    前記第2のニューラルネットワークは、異なる2つの画像のそれぞれから生成された各画像の特徴マップのペアの入力を受け付け、入力された前記特徴マップの前記ペアに対する処理を行うことにより前記異なる2つの画像間の前記変形ベクトル場を出力するネットワークである、
    請求項に記載の画像処理方法。
  4. 前記第1のニューラルネットワークと前記第2のニューラルネットワークとは、学習画像セットを用いて予め機械学習された学習済みモデルであり、
    前記機械学習の工程は、2画像をそれぞれ前記第1のニューラルネットワークに入力して得られる前記2画像のぞれぞれの特徴マップの組み合わせを前記第2のニューラルネットワークに入力して前記変形ベクトル場を出力させる構成で行われる、
    請求項またはに記載の画像処理方法。
  5. 前記学習画像セットは、複数の異なる画像を含み、
    前記機械学習の際に前記第1のニューラルネットワークに入力する前記2画像のうちの一方は、他方の画像を変形して生成した画像である、
    請求項に記載の画像処理方法。
  6. 前記変形を規定する変形場は、予め定められた制約範囲内でランダムに生成され、前記変形の処理に適用した前記変形場を正解として、前記第2のニューラルネットワークの出力が前記正解に近づくように学習が行われる、
    請求項に記載の画像処理方法。
  7. 前記複数の画像は、3つ以上の画像であり、
    前記1つ以上の前記プロセッサが、
    前記複数の画像のうちの1つの基準画像と、
    前記基準画像以外の画像との2画像のそれぞれの前記特徴マップの組み合わせから、前記基準画像と前記基準画像以外の画像との組み合わせごとの前記変形ベクトル場を算出する、
    請求項1からのいずれか一項に記載の画像処理方法。
  8. 前記1つ以上の前記プロセッサが、さらに、
    前記複数の画像のうちの1つの画像内における注目点の指定を受け付け、
    前記算出された前記変形ベクトル場に基づき、前記複数の画像のうちの他の画像内における前記注目点に対応する対応点を算出することと、
    前記注目点と前記対応点の位置を揃えて前記画像を表示させることと、
    を含む請求項1からのいずれか一項に記載の画像処理方法。
  9. 1つ以上のプロセッサと、
    前記1つ以上の前記プロセッサに実行させるプログラムが記憶される1つ以上のメモリと、
    を備え、
    前記1つ以上のプロセッサは、前記プログラムの命令を実行することにより、
    複数の画像のそれぞれの特徴マップを取得し、
    前記画像ごとの前記特徴マップの組み合わせから変形ベクトル場を算出する画像処理装置であって、
    前記複数の画像は、造影状態が相異なる画像であり、
    前記1つ以上のプロセッサは、
    前記変形ベクトル場を用いて位置を合わせた前記複数の画像を解析し、関心領域の造影効果を表す性状所見を出力する、
    画像処理装置。
  10. 前記1つ以上の前記プロセッサは、
    第1のニューラルネットワークを用いて前記複数の画像のそれぞれから各画像の前記特徴マップを生成し、
    前記第1のニューラルネットワークを用いて前記画像ごとに生成された前記特徴マップの組み合わせを第2のニューラルネットワークに入力することにより、前記第2のニューラルネットワークを用いて前記変形ベクトル場を算出する、
    請求項に記載の画像処理装置。
  11. コンピュータに、
    複数の画像のそれぞれの特徴マップを取得する機能と、
    前記画像ごとの前記特徴マップの組み合わせから変形ベクトル場を算出する機能と、
    を実現させ、
    前記複数の画像は、造影状態が相異なる画像であり、
    前記コンピュータに、
    前記変形ベクトル場を用いて位置を合わせた前記複数の画像を解析し、関心領域の造影効果を表す性状所見を出力する機能を実現させる、
    プログラム。
  12. 第1のニューラルネットワークを用いて前記複数の画像のそれぞれから各画像の前記特徴マップを生成する機能と、
    前記第1のニューラルネットワークを用いて前記画像ごとに生成された前記特徴マップの組み合わせを第2のニューラルネットワークに入力することにより、前記第2のニューラルネットワークを用いて前記変形ベクトル場を算出する機能と、
    を前記コンピュータに実現させる、請求項11に記載のプログラム。
JP2021212816A 2021-12-27 2021-12-27 画像処理方法、画像処理装置およびプログラム Active JP7795352B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021212816A JP7795352B2 (ja) 2021-12-27 2021-12-27 画像処理方法、画像処理装置およびプログラム
US18/064,281 US12573062B2 (en) 2021-12-27 2022-12-11 Image processing method, image processing device, program, and trained model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021212816A JP7795352B2 (ja) 2021-12-27 2021-12-27 画像処理方法、画像処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2023096807A JP2023096807A (ja) 2023-07-07
JP7795352B2 true JP7795352B2 (ja) 2026-01-07

Family

ID=86896906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021212816A Active JP7795352B2 (ja) 2021-12-27 2021-12-27 画像処理方法、画像処理装置およびプログラム

Country Status (2)

Country Link
US (1) US12573062B2 (ja)
JP (1) JP7795352B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12511848B2 (en) * 2022-09-12 2025-12-30 Snap Inc. Deforming real-world object using image warping
JP2025038805A (ja) * 2023-09-07 2025-03-19 Jfeスチール株式会社 画像処理装置、マッピング像位置合わせ方法、及びプログラム
US20250106501A1 (en) * 2023-09-22 2025-03-27 Walmart Apollo, Llc System and method for user interface guidance system for electronic devices
US20250157100A1 (en) * 2023-11-15 2025-05-15 Canon Medical Systems Corporation Four-dimensional motion estimation and compensation by using feature reconstruction

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018011637A (ja) 2016-07-19 2018-01-25 キヤノン株式会社 画像処理装置および画像処理方法
WO2021085057A1 (ja) 2019-10-30 2021-05-06 富士フイルム株式会社 物体検出装置、物体検出方法およびプログラム
CN113052882A (zh) 2021-03-26 2021-06-29 上海商汤智能科技有限公司 图像配准方法及相关装置、电子设备、存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699410B2 (en) * 2017-08-17 2020-06-30 Siemes Healthcare GmbH Automatic change detection in medical images
US10664979B2 (en) * 2018-09-14 2020-05-26 Siemens Healthcare Gmbh Method and system for deep motion model learning in medical images
US10803987B2 (en) * 2018-11-16 2020-10-13 Elekta, Inc. Real-time motion monitoring using deep neural network
US11657497B2 (en) * 2019-03-26 2023-05-23 The Johns Hopkins University Method and apparatus for registration of different mammography image views
CN110490881B (zh) * 2019-08-19 2024-12-31 腾讯科技(深圳)有限公司 医学影像分割方法、装置、计算机设备及可读存储介质
US11227683B2 (en) * 2020-01-23 2022-01-18 GE Precision Healthcare LLC Methods and systems for characterizing anatomical features in medical images
EP4121976A4 (en) * 2020-03-18 2023-08-16 Elekta Limited Real-time motion monitoring using deep learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018011637A (ja) 2016-07-19 2018-01-25 キヤノン株式会社 画像処理装置および画像処理方法
WO2021085057A1 (ja) 2019-10-30 2021-05-06 富士フイルム株式会社 物体検出装置、物体検出方法およびプログラム
CN113052882A (zh) 2021-03-26 2021-06-29 上海商汤智能科技有限公司 图像配准方法及相关装置、电子设备、存储介质
JP2023522527A (ja) 2021-03-26 2023-05-31 シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド 画像レジストレーション方法、装置、電子デバイス、記憶媒体及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Koen A. J. Eppenhof et al.,Pulmonary CT Registration Through Supervised Learning With Convolutional Neural Networks,IEEE Transactions on Medical Imaging,IEEE,2018年10月26日,Volume: 38, Issue: 5,p1097-1105,https://ieeexplore.ieee.org/document/8510836,IEL Online (IEEE Xplore)

Also Published As

Publication number Publication date
JP2023096807A (ja) 2023-07-07
US12573062B2 (en) 2026-03-10
US20230206477A1 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
JP7795352B2 (ja) 画像処理方法、画像処理装置およびプログラム
CN111429474B (zh) 基于混合卷积的乳腺dce-mri图像病灶分割模型建立及分割方法
EP3611699A1 (en) Image segmentation using deep learning techniques
CN111368849A (zh) 图像处理方法、装置、电子设备及存储介质
US12579720B2 (en) Method of generating trained model, machine learning system, program, and medical image processing apparatus
CN116368516A (zh) 使用联合合成、分割和配准的多模态临床图像对齐方法和设备
CN111161269A (zh) 图像分割方法、计算机设备和可读存储介质
US20240005498A1 (en) Method of generating trained model, machine learning system, program, and medical image processing apparatus
WO2019169403A1 (en) Neural network classification of osteolysis and synovitis near metal implants
Zimmer et al. Towards whole placenta segmentation at late gestation using multi-view ultrasound images
CN111918611A (zh) 胸部x线图像的异常显示控制方法、异常显示控制程序、异常显示控制装置以及服务器装置
KR101885562B1 (ko) 제1 의료 영상의 관심 영역을 제2 의료 영상 위에 맵핑하는 방법 및 이를 이용한 장치
KR20240086195A (ko) 확산 모델을 이용한 비지도 학습 기반 변형 영상 정합 및 합성 영상 생성 시스템 및 그 방법
US11138736B2 (en) Information processing apparatus and information processing method
Amara et al. Augmented reality for medical practice: a comparative study of deep learning models for ct-scan segmentation
Cao et al. MHC-Segnet: Mamba–Hadamard collaboration segmentation network for multimodal MRI brain tumor: J. Cao et al.
Athreya et al. Ultrasound image enhancement using CycleGAN and perceptual loss
US20210256741A1 (en) Region correction apparatus, region correction method, and region correction program
US20230046302A1 (en) Blood flow field estimation apparatus, learning apparatus, blood flow field estimation method, and program
Brzus et al. Leveraging high-quality research data for ischemic stroke lesion segmentation on clinical data
Xing et al. Deformable registration network based on multi-scale features and cumulative optimization for medical image alignment
US12374002B2 (en) Image processing apparatus, method and program, learning apparatus, method and program, and derivation model
CN118154568A (zh) 基于图像增强和弱监督学习的脑血肿图像分割方法
WO2023032438A1 (ja) 回帰推定装置および方法、プログラム並びに学習済みモデルの生成方法
CN115690450A (zh) 医学图像识别方法、医学模型训练方法、装置和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20250821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20251118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20251212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20251219

R150 Certificate of patent or registration of utility model

Ref document number: 7795352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150