JP2019114262A - Medical image processing apparatus, medical image processing program, learning apparatus and learning program - Google Patents

Medical image processing apparatus, medical image processing program, learning apparatus and learning program Download PDF

Info

Publication number
JP2019114262A
JP2019114262A JP2018240283A JP2018240283A JP2019114262A JP 2019114262 A JP2019114262 A JP 2019114262A JP 2018240283 A JP2018240283 A JP 2018240283A JP 2018240283 A JP2018240283 A JP 2018240283A JP 2019114262 A JP2019114262 A JP 2019114262A
Authority
JP
Japan
Prior art keywords
image data
displacement
training
generator
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018240283A
Other languages
Japanese (ja)
Other versions
JP7325954B2 (en
Inventor
スローン ジェイムス
Sloan James
スローン ジェイムス
アンダーソン オーウェン
Anderson Owen
アンダーソン オーウェン
ゴートマン キース
Goatman Keith
ゴートマン キース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Publication of JP2019114262A publication Critical patent/JP2019114262A/en
Application granted granted Critical
Publication of JP7325954B2 publication Critical patent/JP7325954B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T3/14
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/37Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10108Single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

To provide a medical image processing apparatus capable of realizing a registration by a new method.SOLUTION: A medical image processing apparatus includes: an acquisition part configured to receive first image data and second image data; and a generation part configured to generate a prediction displacement for executing registration processing between the first image data and the second image data. The generation part is trained by repeatedly executing the generation of the prediction displacement and a training using the identification part. The identification part is trained so as to distinguish a prescribed displacement and the prediction displacement.SELECTED DRAWING: Figure 4a

Description

本実施形態は、医用画像処理装置、医用画像処理プログラム、学習装置及び学習プログラムに関する。   The present embodiment relates to a medical image processing apparatus, a medical image processing program, a learning apparatus, and a learning program.

医用画像レジストレーションとは、2つの画像を共通の空間へと位置合わせ(アライメント)するものである。医用画像レジストレーションは、医用画像を表すボリュームデータ、又は医用画像を取得するために処理することができる様なボリュームデータ、について実行することができる。ボリュームデータは、共通する空間へとアライメントすることができる。   Medical image registration is to align two images into a common space. Medical image registration may be performed on volume data representing a medical image, or such volume data that may be processed to obtain a medical image. Volume data can be aligned to a common space.

レジストレーションは、例えば1つの画像だけでは表れていない情報へと臨床医が容易にアクセスできるようにするために、利用される場合がある。一例で、画像は、異なる時間で収集された画像となることがあり、またレジストレーションによりもたらされる情報は、時間とともに腫瘍の進行となることがある。   Registration may be used, for example, to allow the clinician easy access to information not represented by just one image. In one example, the images may be images acquired at different times, and the information provided by the registration may be tumor progression over time.

レジストレーションは、収集の同じモダリティを使用して収集された画像(モノモダリティレジストレーション)に関して、又は収集の異なるモダリティを使用して収集された画像(マルチモダリティレジストレーション)に関して、実行することができる。マルチモダリティレジストレーションの場合に、柔組織の画像(例えば、磁気共鳴画像)及び硬組織の画像(例えばコンピュータ断層画像)のレジストレーションは、患者の生体構造のより広範囲にわたる描写を作り出すために、実行することがある。   Registration can be performed on images acquired using the same modality of acquisition (monomodality registration) or on images acquired using different modalities of acquisition (multimodality registration) . In the case of multimodality registration, registration of soft tissue images (e.g. magnetic resonance images) and hard tissue images (e.g. computed tomography images) is performed to create a more extensive depiction of the patient's anatomy. There is something to do.

画像をレジストレーションすることで、画像の直接比較が可能になる場合がある。例えば、解剖学的特徴は、画像が一度レジストレーションされている、各画像における対応する位置を占めることがある。状況次第で、レジストレーションされた画像について更なる画像処理を実行することができる(例えば、セグメンテーション、サブトラクション、又は画像フュージョン)。   Registering the images may allow for direct comparison of the images. For example, anatomical features may occupy corresponding positions in each image, where the images have been registered once. Depending on the circumstances, further image processing may be performed on the registered image (eg segmentation, subtraction or image fusion).

2つの画像がレジストレーションされるレジストレーション処理において、画像のうちの一方は基準となる参照画像として、他方の画像は変換対象とされる変換画像(又は浮動画像:floating image)として、それぞれ指定することができる。レジストレーション処理の目的は、変換画像の座標系を参照画像の座標系へと関連付ける変換を取得するため、という場合がある。変換画像を参照画像へと位置合わせするために、変換を変換画像へと適用することができる。   In the registration process in which two images are registered, one of the images is designated as a reference image and the other is designated as a converted image (or floating image) to be converted. be able to. The purpose of the registration process may be to obtain a transformation that relates the coordinate system of the transformed image to the coordinate system of the reference image. A transform may be applied to the transformed image to align the transformed image to a reference image.

従来の画像レジストレーション処理は、2つの画像がどの程度上手くアライメントされたかの計測を使用し、且つ当該アライメントの計測を最適化するという目的で、1つの画像について変換を逐次的に適用することがある。例えば、アライメントの計測は、類似性計測を具備する場合がある。初期変換は、アライメントの計測に対する値を取得するために、変換画像へと適用することができる。初期変換は、その場合にアライメントの計測についての値が収束されるまで、アライメントの計測に対する値を改善するような方法で、逐次することができる。   Conventional image registration processes may use the measurement of how well the two images are aligned, and may apply transformations sequentially on one image, with the goal of optimizing the measurement of the alignment. . For example, alignment measurements may comprise similarity measurements. The initial transformation can be applied to the transformed image to obtain values for alignment measurements. The initial transformation can be done sequentially in such a way as to improve the values for the alignment measurements until the values for the alignment measurements are converged.

レジストレーション法の中には、変換が、回転、並進、スケーリングによる剛体変換というものがある。   Among the registration methods, there are transformations such as rigid transformations by rotation, translation, and scaling.

その他のレジストレーション法において、変換は、局所変形(local deformation)を含むことができ、変形処理を行う非剛体変換というものもある。   In other registration methods, the transformation may include local deformation, and there is also a non-rigid transformation that performs transformation processing.

特表2015−514447号公報JP-A-2015-514447

一般的に、非剛体レジストレーションに対して、変換空間を制約するために、正則化が用いられる。その様な正則化は、例えば場(field)の滑らかさや、変換の取り得る最大の絶対値の最大値maximum possible absolute magnitude)を制約することがある。   Generally, for non-rigid registration, regularization is used to constrain the transform space. Such regularization may, for example, constrain the smoothness of the field or the maximum possible absolute magnitude of the maximum possible value of the transformation.

もし正則化が用いられなかった場合には、非剛体レジストレーションが、例えば物理的に可能でない生体構造における変化を表す変換等、物理的な意味を成さない様な変換を出力する可能性がある。例えば、輝度主導のメトリックが使用された場合に、非剛体レジストレーションは、ピクセルがどの様な状態で生体構造を表すのか考慮することなく(例えば、隣り合うピクセルを一緒に維持することなく)、一つの画像及び別のものとの間のピクセルの輝度を単にマッチさせる出力を提供することがある。   If regularization is not used, there is a possibility that non-rigid registration may output transformations that do not make physical sense, for example, transformations that represent changes in physically impossible anatomy. is there. For example, when intensity-driven metrics are used, non-rigid registration does not consider how pixels represent biological structure (eg, without keeping adjacent pixels together) It may provide an output that simply matches the brightness of pixels between one image and another.

すなわち、従来のレジストレーションによれば、正則化を用いる場合には演算上の制約が発生し、正則化を用いない場合には現実的な結果となる場合がある。   That is, according to the conventional registration, operational restrictions may occur when using regularization, and realistic results may be obtained when regularization is not used.

本実施形態は、上記事情に鑑み、新たな手法によるレジストレーションを実現する医用画像処理装置、医用画像処理プログラム、学習装置及び学習プログラムを提供することを目的とする。   In view of the above circumstances, the present embodiment aims to provide a medical image processing apparatus, a medical image processing program, a learning apparatus, and a learning program that realize registration by a new method.

本実施形態に係る医用画像処理装置は、第一の画像データと第二の画像データとを受け取る取得部と、前記第一の画像データと前記第二の画像データとの間のレジストレーション処理を実行するための予測変位を生成する生成部と、を具備し、前記生成部は、前記予測変位の生成と識別部を用いた訓練とを繰り返し実行することで訓練されており、前記識別部は、予め定めた変位と前記予測変位とを区別するように訓練されること、を特徴とする。   The medical image processing apparatus according to the present embodiment includes an acquisition unit that receives first image data and second image data, and registration processing between the first image data and the second image data. A generation unit configured to generate a predicted displacement to be executed, the generation unit being trained by repeatedly executing generation of the predicted displacement and training using an identification unit; Training to distinguish between the predetermined displacement and the predicted displacement.

実施形態に係る装置の概略図。The schematic of the apparatus which concerns on embodiment. 生成器(regressor)の訓練法の概要を描くフローチャート。Flow chart outlining the training method of the regressor. 識別器の概略を描くフローチャート。The flowchart which delineates an identifier. 実施形態に係る生成器の訓練法の概要を描いているフローチャート。4 is a flowchart depicting an overview of a generator training method according to an embodiment. 実施形態に係る識別器の訓練法の概要を描いているフローチャート。The flowchart which outlines the training method of the identifier concerning an embodiment. 実施形態に係る訓練された生成器のデプロイメント(deployment)の概要を描いているフローチャート。FIG. 6 is a flow chart outlining a trained generator deployment according to an embodiment. 変換画像を合成するために、予め定めた変位場の参照画像に対する適用を描いている概略図。FIG. 5 is a schematic diagram depicting the application of a predetermined displacement field to a reference image to synthesize a transformed image. グラウンドトゥルース変位場(上段)、平均二乗誤差(mean squared error:MSE)のみを使って訓練されたシステムを使用して予測された変位場(中段)、平均二乗誤差及び識別器フィードバックを使って訓練されたシステムを使用して予測された変位場(下段)の一連の例の概略図。Ground truth displacement field (upper), training using displacement field predicted using a system trained using only mean squared error (MSE) (middle), mean squared error and classifier feedback FIG. 7 is a schematic view of a series of examples of displacement fields (bottom) predicted using the system described above. 実施形態に係る多重識別器を使用する訓練処理の概要を描いているフローチャート。4 is a flowchart outlining a training process using multiple classifiers according to an embodiment.

実施形態に係る画像データ処理装置10が、図1に概略的に描かれている。図1の実施形態において、装置10は、医用画像をレジストレーションするための生成器(生成部)を訓練し、且つ医用画像をレジストレーションするために訓練された生成器を使用する、よう構成されている。その他の実施形態において、第一の装置が生成器を訓練するために使用することができ、又第二の、異なる装置が医用画像をレジストレーションするために訓練された生成器を使用することができる。更なる実施形態では、任意の装置又は複数の装置の含み合わせを使用することができる。   An image data processing apparatus 10 according to an embodiment is schematically depicted in FIG. In the embodiment of FIG. 1, the apparatus 10 is configured to train a generator for registering medical images and to use the trained generator for registering medical images. ing. In other embodiments, a first device can be used to train a generator, and a second, different device can use a trained generator to register medical images. it can. In further embodiments, any device or combination of devices can be used.

画像データ処理装置10は、この場合にはパーソナルコンピュータ(personal computer:PC)又はワークステーション等の計算装置12を具備し、計算装置12は、スキャナ14、1つ又は複数の表示スクリーン16、そしてコンピュータキーボード、マウス又はトラックボール等の1つの入力デバイス又は複数の入力デバイス18に接続されている。   The image data processing device 10 comprises in this case a computing device 12, such as a personal computer (PC) or a workstation, which comprises a scanner 14, one or more display screens 16 and a computer. It is connected to one or more input devices 18 such as a keyboard, mouse or trackball.

スキャナ14は、医用撮像を実行するよう構成された任意のスキャナとすることができる。係るスキャナ14は、患者又はその他の被検体の少なくとも1つの解剖学的領域を表す撮像データを生成するよう構成されている。スキャナは、任意の撮像モダリティにおける、二次元又は三次元画像データを取得するよう構成することができる。例えば、スキャナ14は、磁気共鳴(magnetic resonance:MR)スキャナ、CT(computed tomography:コンピュータ断層撮像)スキャナ、コーンビームCTスキャナ、X線スキャナ、超音波スキャナ、PET(positron emission tomography:ポジトロン放出断層撮像)スキャナ、又はSPECT(single photon emission computed tomography:単光子放出コンピュータ断層撮像)スキャナを具備することができる。更なる実施形態において、スキャナは、任意のタイプの画像データを生成することができるが、係る画像データは医用撮像データではない場合がある。   Scanner 14 may be any scanner configured to perform medical imaging. Such scanner 14 is configured to generate imaging data representative of at least one anatomical region of a patient or other subject. The scanner can be configured to acquire two-dimensional or three-dimensional image data in any imaging modality. For example, the scanner 14 is a magnetic resonance (MR) scanner, a computed tomography (CT) scanner, a cone-beam CT scanner, an X-ray scanner, an ultrasound scanner, a positron emission tomography (PET) A scanner, or a single photon computed computed tomography (SPECT) scanner can be provided. In further embodiments, the scanner may generate any type of image data, but such image data may not be medical imaging data.

本実施形態において、スキャナ14によって取得された撮像データセットは、データストア20に格納されて、その後計算装置12に提供される。代替的な実施形態において、撮像データセットは、医用画像保管通信システム(Picture Archiving and Communication System:PACS)の一部を形成することができる遠隔データストア(図示せず)から供給される。データストア20又は遠隔データストアは、メモリストレージの任意の適切な形状を具備することができる。なお、処理回路22において実行される生成処理、識別処理に用いる撮像データセットは、二次元画像データのセットであってもよいし、三次元画像データのセットであってもよい。   In this embodiment, the imaging data set acquired by the scanner 14 is stored in the data store 20 and then provided to the computing device 12. In an alternative embodiment, the imaging data set is supplied from a remote data store (not shown) that can form part of a medical image archiving and communication system (PACS). Data store 20 or remote data store may comprise any suitable form of memory storage. The imaging data set used for the generation processing and the identification processing executed in the processing circuit 22 may be a set of two-dimensional image data or a set of three-dimensional image data.

計算装置12は、画像データを含む、データ処理用の処理回路22を具備する。処理回路22は、中央処理装置(CPU:central processing unit)と図形処理ユニット(GPU:Graphical Processing Unit)とを具備する。   The computing device 12 comprises processing circuitry 22 for data processing, including image data. The processing circuit 22 includes a central processing unit (CPU: central processing unit) and a graphic processing unit (GPU: graphical processing unit).

処理回路22は、画像データセットを自動的に又は半自動的に処理する用の処理リソースを提供する。簡単にするため、下記では医用画像の処理と言うことにする。しかし、実際に、下記に説明される操作を、医用画像を表す画像データの任意の適切なセットに実行することができる。画像データは、対応する画像が何も表示されることなく、処理回路22によって内部で処理されることもある。   The processing circuitry 22 provides processing resources for processing the image data set automatically or semi-automatically. For the sake of simplicity, in the following it will be referred to as medical image processing. However, in practice, the operations described below can be performed on any suitable set of image data representing a medical image. The image data may be processed internally by the processing circuitry 22 without any corresponding image being displayed.

処理回路22は、医用画像をレジストレーションするために生成器を訓練するよう構成された訓練回路24(学習装置)と、医用画像をレジストレーションするために訓練された生成器を使用するよう構成されたレジストレーション回路26と、を含む。   The processing circuit 22 is configured to use a training circuit 24 (learning device) configured to train a generator to register a medical image, and a trained generator to register a medical image. And a registration circuit 26.

本実施形態において、回路24、26は、実施形態の方法を実行することが実行可能なコンピュータ読み取り可能命令を有するコンピュータプログラムの方法で、CPU、及び/又は、GPUでそれぞれ実行される。その他の実施形態において、様々な回路は、1つ以上のASIC(application specific integrated circuits:特定用途向け集積回路)又はFPGA(field pogrammable gate arrays:フィールドプログラマブルゲートアレイ)として実施することがある。   In this embodiment, the circuits 24, 26 are respectively executed on the CPU and / or the GPU in the manner of a computer program having computer readable instructions executable to carry out the method of the embodiments. In other embodiments, the various circuits may be implemented as one or more application specific integrated circuits (ASICs) or field programmable gate arrays (FPGAs).

計算装置12は、ハードドライブと、RAM、ROM、データバス等その他のPCの構成要素と、様々なデバイスドライバなどオペレーティングシステムと、グラフィックスカードなどハードウェアデバイスとも含む。このような構成要素は、図が見やすいように、図1には示されていない。   The computing device 12 also includes a hard drive, other PC components such as a RAM, a ROM, and a data bus, an operating system such as various device drivers, and a hardware device such as a graphics card. Such components are not shown in FIG. 1 for the sake of clarity.

図2は、生成器36を訓練する方法の概要を描くフローチャートである。   FIG. 2 is a flowchart outlining a method of training generator 36.

生成器36は、2つの所定の画像をアライメントするための非剛体変換の予測を学習するよう構成されたニューラルネットワークである。非剛体変換は、変位場(例えば、スカラー場、ベクトル場、テンソル場等)によって表される。生成器は、変換を特徴付ける少なくとも1つのパラメータを最小化する又は低減する様な、変換によって関連付けられた2つのデータセット間の適合(fitting)を提供する、任意の関数(例えば、任意の深層学習法)を具備することができる。   The generator 36 is a neural network configured to learn non-rigid transformation predictions to align two predetermined images. Non-rigid transformations are represented by displacement fields (eg, scalar fields, vector fields, tensor fields, etc.). The generator is any function (eg, any depth learning) that provides a fit between the two data sets associated by the transformation, such as minimizing or reducing at least one parameter characterizing the transformation. Law) can be included.

生成器36を訓練するために、複数の訓練画像が使用される。   A plurality of training images are used to train generator 36.

生成器36は、グラウンドトゥルース変換について訓練される。グラウンドトゥルース変換は、既に知られた変換である。グラウンドトゥルース変換は、訓練変換又は予め定めた変換とも呼ぶことができる。   The generator 36 is trained on ground truth conversion. The ground truth transformation is an already known transformation. The ground truth transformation can also be referred to as a training transformation or a predetermined transformation.

実際に、グラウンドトゥルースとして使用することが可能な、画像のリアルなペア(例えば、異なる時点で収集された同じ生体構造の画像)に対する変換を取得することは、難しい場合がある。   In fact, it may be difficult to obtain transformations for realistic pairs of images (eg, images of the same anatomy acquired at different times) that can be used as ground truth.

従って、図2の方法において、グラウンドトゥルース変換は、人工的に構築されている、予め定めた変換である。例えば、グラウンドトゥルース変換は、2Dガウスプロファイル関数をサンプリングすることにより、又はシヌソイド関数をサンプリングすることにより、取得することができる。これらのグラウンドトゥルース変換は、合成された変換画像を取得するために、訓練画像へと適用される。   Thus, in the method of FIG. 2, the ground truth transform is a predetermined transform that is artificially constructed. For example, the ground truth transform can be obtained by sampling a 2D Gaussian profile function or by sampling a sinusoidal function. These ground truth transforms are applied to the training image to obtain a composite transformed image.

図2のフローチャートへと戻って、参照画像30が受け取られる。参照画像30は、生成器が訓練されるべき訓練画像のうちの1つである。   Referring back to the flowchart of FIG. 2, a reference image 30 is received. The reference image 30 is one of the training images for which the generator is to be trained.

図2のステージ32で、予め定めた変位場が、参照画像30へと適用される。予め定めた場は、人工的に構築された変位場である。例えば、予め定めた変位場は、2Dガウス関数をサンプリングすることにより、取得されている場合がある。予め定めた変位場は、例えば、レジストレーション処理を実行することで取得されているというよりも、人工的に構築されるので、合成変位場とも呼ばれることがある。   At stage 32 of FIG. 2, a predetermined displacement field is applied to the reference image 30. The predetermined field is an artificially constructed displacement field. For example, a predetermined displacement field may be obtained by sampling a 2D Gaussian function. The predetermined displacement field may be referred to as a synthetic displacement field, for example, because it is constructed artificially rather than being obtained by performing a registration process.

予め定めた変位場を、参照画像30へと適用した結果が、変換画像34である。変換画像34は、スキャナから収集されているのではなく、(人工的に構築された)予め定めた変位場を使用して取得されているので、合成された変換画像(又は合成変換画像)と呼ぶことがある。   The result of applying a predetermined displacement field to the reference image 30 is a transformed image 34. Since the transformed image 34 is not acquired from the scanner but is obtained using a (artificially constructed) predetermined displacement field, the transformed image 34 is synthesized with the synthesized transformed image (or synthesized transformed image) I sometimes call.

訓練回路は、参照画像30及び合成変換画像34(予め定めた変位場ではなく)生成器36へと提供する。   The training circuit provides a reference image 30 and a composite transformed image 34 (instead of a predetermined displacement field) generator 36.

生成器36は、ディープニューラルネットワーク(DNN)に代表されるニューラルネットワークである。しかしながら、生成器36は、ディープニューラルネットワークに限定されず、一般的なニューラルネットワークであってもよい。生成器36は、重さの初期のセットを用いて初期化することができる。生成器36の訓練は、生成器36の重みを調整することを具備することができる。   The generator 36 is a neural network represented by a deep neural network (DNN). However, the generator 36 is not limited to the deep neural network, but may be a general neural network. The generator 36 can be initialized with an initial set of weights. Training of the generator 36 may comprise adjusting the weights of the generator 36.

生成器36は、参照画像30と合成変換画像34とを、そのニューラルレットワークに対する入力として使用する。ニューラルネットワークは、参照画像30及び合成変換画像34を処理する。例えば、ニューラルネットワークは、参照画像30及び合成変換画像34からの特徴を抽出し、且つ係る抽出された特徴を処理することができる。ニューラルネットワークは、参照画像30と合成変換画像34との間の変換を表す、変位場38の予測を出力する。   The generator 36 uses the reference image 30 and the composite transformed image 34 as inputs to its neurallet work. The neural network processes the reference image 30 and the composite transformed image 34. For example, the neural network can extract features from the reference image 30 and the composite transformed image 34 and process such extracted features. The neural network outputs a prediction of displacement field 38 that represents the transformation between reference image 30 and composite transformed image 34.

訓練回路は、変換画像34を合成するために、予測された変位場38を、ステージ32で使用された予め定めた変位場と比較する。   The training circuit compares the predicted displacement field 38 to the predetermined displacement field used at stage 32 to synthesize the transformed image 34.

予め定めた変位場は、合成された変換画像34を構築するために使用されたから、参照画像30と合成された変換画像34との間の正しい変換である、ということが知られている。予め定めた変位場は、従って、生成器の予測と比較される、グラウンドトゥルースを提供するのである。   It is known that the predetermined displacement field is the correct transformation between the reference image 30 and the composed transformed image 34 since it was used to construct the composed transformed image 34. The predetermined displacement field thus provides a ground truth that is compared to the generator's prediction.

予測された変位場38と予め定めた変位場との間の差分の計測が、計算される。図2の方法において、差分の計測は、平均二乗誤差(mean squared error:MSE)である。方法のその他のバージョンでは、任意の適切な差分の計測を使用することができる。   A measurement of the difference between the predicted displacement field 38 and the predetermined displacement field is calculated. In the method of FIG. 2, the measurement of the difference is the mean squared error (MSE). Other versions of the method can use any suitable difference measure.

生成器36により提供される予測が良い場合は、予測された変位場38は、予め定めた変位場と非常によく似ているということである。反対に生成器36により提供される予測が悪い場合には、予測された変位場38は、予め定めた変位場とは明らかに違うということである。   If the prediction provided by the generator 36 is good, then the predicted displacement field 38 is very similar to the predetermined displacement field. Conversely, if the prediction provided by the generator 36 is bad, then the predicted displacement field 38 is clearly different from the predetermined displacement field.

平均二乗誤差は、訓練フィードバック40として、生成器36へと与えられる(フィードされる)。訓練回路は、訓練フィードバック40に応答して、生成器36の重みを更新することができる。   The mean squared error is provided (fed) to the generator 36 as training feedback 40. The training circuit may update the weights of generator 36 in response to training feedback 40.

図2の方法は、多くの異なる参照画像及び多くの予め定めた変位場に対して、何度も繰り返される。生成器36は、その変位場についての予測を改善するために、訓練フィードバック40の多くの事例から学習する。生成器36は、予測変位場及びリアルな変位場の間の平均二乗誤差を最小化するために、逐次的に訓練される。   The method of FIG. 2 is repeated many times for many different reference images and many predetermined displacement fields. The generator 36 learns from many cases of training feedback 40 to improve the predictions about its displacement field. The generator 36 is trained sequentially to minimize the mean square error between the predicted displacement field and the real displacement field.

状況次第で、平均二乗誤差のみに基づき変位場を最適化すること(例えば、図2を参照に上記に説明された様に)は、不十分な予測された変位に繋がる場合があることが、発見されている。また状況により、小さく、僅かな変位は、画像のどこか他の場所にあるより大きな誤差により圧倒される場合もある。   Depending on the circumstances, optimizing the displacement field based only on the mean squared error (eg, as described above with reference to FIG. 2) may lead to poor predicted displacement, It has been discovered. Also, depending on the circumstances, small, slight displacements may be overwhelmed by larger errors elsewhere in the image.

平均二乗誤差だけを最小化する生成器36を訓練する場合、生成器36が予測する、変位場の形状の上に位置する境界が存在しない。生成器36は、平均二乗誤差の観点では正確であると考えられるが、非現実的な、変位場を生成することがある。状況次第で、生成器36により出力される予測された変位場は、レジストレーションをしようと試みる画像において表された生体構造に対して、物理的に可能でない変換を表すことがある。   When training the generator 36 to minimize only the mean squared error, there is no boundary that the generator 36 predicts over the shape of the displacement field. The generator 36 may generate an unrealistic displacement field, which is considered accurate in terms of mean squared error. In some circumstances, the predicted displacement field output by the generator 36 may represent a physically impossible transformation for the anatomy represented in the image attempting to register.

平均二乗誤差だけを最小化する生成器36を訓練すること(例えば、図2を参照に描かれる様に)でもたらされる解は、正則化が不十分だと考えられることがある。不十分な正則化を解消するために、生成器を訓練する処理に対して、識別器(識別部)を追加することが提案される。係る識別器は、間接的な正則化を提供すると考えることができる。   The solution provided by training the generator 36 to minimize only the mean square error (eg, as depicted in FIG. 2) may be considered to be insufficiently regularized. It is proposed to add a discriminator to the process of training the generator in order to eliminate the insufficient regularization. Such classifiers can be thought of as providing indirect regularization.

図3は、識別器56により実行される処理の概要を描くフローチャートである。識別器は、リアルな変位場50(例えば、上で説明された様な予め定めた変位場)及び、例えば生成器36により予測された変位場等、予測された変位場52を区別するよう訓練されている。   FIG. 3 is a flow chart outlining the process performed by the classifier 56. The discriminator is trained to distinguish the real displacement field 50 (e.g. the predetermined displacement field as described above) and the predicted displacement field 52, e.g. the displacement field predicted by the generator 36 It is done.

識別器56は、2つの変位場50及び52を受け取る。2つの変位場のうちの一方は、参照画像及び変換画像との間の変換を表す、リアルな変位場50である。例えば、リアルな変位場50は、上で説明された様な予め定めた変位場とすることができる。2つの変位場のうちの他方は、上記と同じ参照画像及び変換画像に対する生成器により予測された、変位場52(予測変位場52)である。   The identifier 56 receives two displacement fields 50 and 52. One of the two displacement fields is a realistic displacement field 50 that represents the transformation between the reference image and the transformed image. For example, the real displacement field 50 may be a predetermined displacement field as described above. The other of the two displacement fields is the displacement field 52 (predicted displacement field 52) predicted by the generator for the same reference image and transformed image as described above.

識別器56は、2つの変位場50、52のうちのどちらがリアルで、どちらが予測であるかについては、知らされていない。   The discriminator 56 is not informed as to which of the two displacement fields 50, 52 is real and which is the prediction.

図3の例において、識別器56は、差分画像54も受け取る。差分画像54は、参照画像から変換画像を引くことで取得される。   In the example of FIG. 3, the identifier 56 also receives the difference image 54. The difference image 54 is obtained by subtracting the converted image from the reference image.

識別器56は、変位場及び差分画像を処理する。図3の例において、識別器56は、生成器36は、ディープニューラルネットワーク(DNN)に代表されるニューラルネットワークである。しかしながら、識別器56は、ディープニューラルネットワークに限定されず、一般的なニューラルネットワークであってもよい。また、識別器56は、ニューラルネットワーク以外の構成であってもよい。識別器56は、予め定めた変位場50、予測された変位場52、そして差分画像54を入力として受け取る。識別器56は、入力50、52、54を処理する。例えば、識別器56は、変位場及び差分画像からの特徴を抽出し、且つ抽出された特徴を処理することができる。   The classifier 56 processes the displacement field and the difference image. In the example of FIG. 3, the identifier 56 is a neural network represented by a deep neural network (DNN). However, the discriminator 56 is not limited to the deep neural network, but may be a general neural network. In addition, the classifier 56 may have a configuration other than a neural network. The identifier 56 receives as inputs the predefined displacement field 50, the predicted displacement field 52 and the difference image 54. The identifier 56 processes the inputs 50, 52, 54. For example, the classifier 56 can extract features from the displacement field and the difference image, and process the extracted features.

ニューラルネットワークは、2つの変位場50、52のうちのどちらがリアルであると判断し、またどちらが予測であると判断したのかに関する決定を出力する。係る決定は、リアルとしての変位場50、52のうちの一方の分類と、また予測としてのそれらのうちの他方の分類と、を具備する。決定は、各変位場50、52に対し、変位場がリアルであるという確率又は尤度を具備することがある。また決定は、各変位場50、52に対し、変位場50、52が予測であるという確率又は尤度を具備することがある。   The neural network outputs a determination as to which of the two displacement fields 50, 52 was determined to be real and which was determined to be predictive. Such a determination comprises classification of one of the displacement fields 50, 52 as real and the other of them as prediction. The determination may comprise, for each displacement field 50, 52, the probability or likelihood that the displacement field is real. The determination may also comprise, for each displacement field 50, 52, the probability or likelihood that the displacement field 50, 52 is a prediction.

図4a及び4bは、実施形態に従って生成器66の訓練法の概要を描くフローチャートである。生成器66の訓練は、図1の装置の訓練回路24によって実行される。   4a and 4b are flowcharts outlining the training method of the generator 66 according to an embodiment. The training of the generator 66 is performed by the training circuit 24 of the device of FIG.

生成器66を訓練するために、訓練回路24は、決定論的敵対的ネットワーク(DAN:deterministic adversarial network)と呼ぶことができる、敵対的ネットワークを使用する。係る決定論的敵対的ネットワークは、2つの部分から成る。まず決定論的敵対的ネットワークの第一の部分は、生成器66である。係る生成器66は、第一の深層ニューラルネットワークを具備する。次に決定論的敵対的ネットワークの第二の部分は、識別器76である。係る識別器76は、第二の深層学習ネットワークを具備する。   To train the generator 66, the training circuit 24 uses a hostile network, which can be called a deterministic adversary network (DAN). Such a deterministic hostile network consists of two parts. The first part of the deterministic hostile network is the generator 66. Such a generator 66 comprises a first deep neural network. The second part of the deterministic hostile network is then the identifier 76. Such a discriminator 76 comprises a second deep learning network.

深層ニューラルネットワークは、何層にも積み重なったニューロンを具備するニューラルネットワークとすることができる。何層にも積み重なったニューロンは、その後の層の入力として、1つ又は複数の手前の層の出力を使用する、非線形活性化機能を有することができる。深層ニューラルネットワークは、入力空間から出力空間までの非線形なマッピングを高度に構築することができ、それによりモデルとなるべき処理又はタスクの複雑な関係性を捉えることができる。   The deep neural network can be a neural network comprising neurons stacked in layers. Neurons stacked in layers can have a non-linear activation function, using the output of one or more previous layers as the input of subsequent layers. Deep neural networks can highly construct non-linear mappings from input space to output space, which can capture the complex relationships of processes or tasks to be modeled.

図4a及び4bの実施形態において、生成器66及び識別器76のそれぞれは、個別の畳み込みニューラルネットワークを具備する。その他の実施形態で、任意の適切なタイプの深層ニューラルネットワークを使用することができるが、例えば多層パーセプトロン、スキップ接続を伴う畳み込みニューラルネットワーク、リカレント(回帰性)ニューラルネットワーク等である。更なる実施形態において、識別器76は、深層学習を具備しないアルゴリズムを具備する。   In the embodiment of FIGS. 4a and 4b, each of the generator 66 and the identifier 76 comprises a separate convolutional neural network. In other embodiments, any suitable type of deep layer neural network can be used, such as a multilayer perceptron, a convolutional neural network with skip connections, a recurrent neural network, etc. In a further embodiment, the discriminator 76 comprises an algorithm that does not comprise deep learning.

生成器66と識別器76とは、敵対的な手法で繰り返し訓練される。訓練回路24は、生成器66の訓練と識別器76の訓練とを、バッチ方式batch−wise basis)で交互に実行される。敵対的な訓練は、生成器訓練ステージと、識別器訓練ステージとで交互に実行される。生成器訓練ステージは、図4aを参考に下記に説明される。そして識別器訓練ステージは、図4bを参考に下記に説明される。   The generator 66 and the identifier 76 are trained repeatedly in a hostile manner. The training circuit 24 executes the training of the generator 66 and the training of the discriminator 76 alternately on a batch basis (batch-wise basis). Hostile training is performed alternately between the generator training stage and the classifier training stage. The generator training stage is described below with reference to FIG. 4a. The classifier training stage is then described below with reference to FIG. 4b.

生成器訓練ステージにおいて、生成器66が訓練され(例えば、生成器66の重み更新を具備することがある)、識別器76は一定が保たれる。   At the generator training stage, the generator 66 is trained (eg, may include the weight updates of the generator 66) and the identifier 76 is held constant.

識別器76は、予め定めた変位場と生成器により予測された変位場とを、識別をするよう訓練されている。生成器66は、識別器76を騙すのに十分な程予め定めた変位場に似た変位場を作り出すよう訓練される。生成器66の最適化と識別器76の最適化とを交互に実行することにより、生成器66は、変位場を作り出すことが上達し、また識別器76も、予め定めた変位場と予測された変位場とを区別することが上達する。生成器66と識別器76とを敵対的な手法で共に訓練することにより、生成器66が単独で訓練された場合に比べ、より良い変位場を作り出すことができる。変位場は、非現実的な動作を示したり、また不連続を示したりすることが少なくなる可能性がある。   The discriminator 76 is trained to discriminate between the predetermined displacement field and the displacement field predicted by the generator. The generator 66 is trained to create a displacement field similar to a predetermined displacement field sufficiently to fool the discriminator 76. By alternately executing the optimization of the generator 66 and the optimization of the discriminator 76, the generator 66 is better at creating a displacement field, and the discriminator 76 is also predicted to be a predetermined displacement field. It is better to distinguish between different displacement fields. By training generator 66 and identifier 76 together in a hostile manner, a better displacement field can be created compared to when generator 66 is trained alone. The displacement field may be less likely to exhibit unrealistic behavior or exhibit discontinuities.

敵対的な手法での深層ニューラルネットワークの訓練については、次の文献で詳しく述べられているが、ここにはその文献名を記すことで係る文献全てを含むものとする。Goodfellow et al, Generative Adversarial Nets, NIPS’14 Proceedings of the 27th International Conference on Neural Information Processing Systems, pages 2672―2680。   The training of a deep layer neural network in a hostile manner is described in detail in the following document, and it is assumed that all documents related to the document name are included here. Goodfellow et al, Generative Adversalial Nets, NIPS '14 Proceedings of the 27th International Conference on Neural Information Processing Systems, pages 2672-2680.

前訓練処理(図示せず)は、生成器66及び/又は識別器76の重みを初期化するために、訓練回路24によって訓練することができる。例えば、生成器66は、専ら平均二乗誤差を目的関数として使用する、図2の方法を使用して予め訓練することができ、また結果として生じる生成器66は、敵対的な訓練に対する初期モデルとして使用することができる。   The pre-training process (not shown) can be trained by the training circuit 24 to initialize the weights of the generator 66 and / or the identifier 76. For example, the generator 66 can be pre-trained using the method of FIG. 2, using only the mean square error as the objective function, and the resulting generator 66 can be used as an initial model for hostile training It can be used.

図4aは、訓練回路24が生成器66を訓練する一方、識別器76は一定が保たれる敵対的な訓練処理の部分である、生成器訓練ステージを描いている。   FIG. 4a depicts a generator training stage, which is part of the hostile training process where the training circuit 24 trains the generator 66, while the discriminator 76 is held constant.

生成器訓練ステージは、本実施形態にでは畳み込みニューラルネットワークである、生成器66の深層ニューラルネットワークに対する重みのセットを決定することを具備する。訓練処理は、識別器76を使用して、生成器66を訓練する。生成器66の訓練の一方で、識別器76の重みが固定(frozen)されるので、生成器66の重みだけが更新される。   The generator training stage comprises determining the set of weights for the deep neural network of generator 66, which in this embodiment is a convolutional neural network. The training process uses the identifier 76 to train the generator 66. During training of the generator 66, only the weights of the generator 66 are updated since the weights of the identifier 76 are frozen.

図4aに示された訓練処理は、参照画像60で示される、訓練画像で開始となる。図4aのフローチャートにおいて示されるのは1つの訓練画像(参照画像60)のみであるが、実際に図4aの訓練処理は、例えば何百又は何千もの訓練画像など、多数の訓練画像について実行される。訓練画像は、スキャナ14を使用して収集された医用画像である。訓練画像は、任意の適切な撮像モダリティを使用して収集することができる。   The training process shown in FIG. 4a begins with the training image, shown in reference image 60. Although only one training image (reference image 60) is shown in the flow chart of FIG. 4a, in practice the training process of FIG. 4a is performed on a large number of training images, eg hundreds or thousands of training images. Ru. The training image is a medical image collected using the scanner 14. Training images may be collected using any suitable imaging modality.

参照画像60は、データストア20から訓練回路24によって受け取られる。その他の実施形態において、参照画像60は、任意の適切なデータストアから、又はスキャナから直接、受け取られる場合もある。   Reference image 60 is received by training circuit 24 from data store 20. In other embodiments, reference image 60 may be received directly from any suitable data store or from a scanner.

図4aのステージ62で、訓練回路24は、予め定めた変位を参照画像へと適用する。本実施形態において、予め定めた変位は、非剛体変換を表す変位場70である。その他の実施形態において、任意の変位を使用することができる。変位の任意の適切なフォーマット又は関数が、変換を表すために使用することができる。   At stage 62 of FIG. 4a, training circuit 24 applies a predetermined displacement to the reference image. In the present embodiment, the predetermined displacement is a displacement field 70 representing non-rigid transformation. In other embodiments, any displacement can be used. Any suitable format or function of displacement can be used to represent the transformation.

本実施形態において、変換は、非パラメータ化される。その他の実施形態において、変換は、パラメータされていることがある。図4aの実施形態において、予め定めた変位場は、2Dガウスプロファイルをサンプリングすることにより、取得されている。   In the present embodiment, the transformation is de-parameterized. In other embodiments, the transformation may be parameterized. In the embodiment of FIG. 4a, predetermined displacement fields are obtained by sampling a 2D Gaussian profile.

図4bに示されているのは、1つの合成変位場70のみであるが、実際には図4aの訓練処理は、例えば、何百又は何千もの合成変位場など、多数の合成変位場について実行される。実施形態において、合成変位は、次の式(1)に示す2Dガウスプロファイル関数からサンプリングされている。   Although only one synthetic displacement field 70 is shown in FIG. 4b, in practice the training process of FIG. 4a is for a large number of synthetic displacement fields, eg, hundreds or thousands of synthetic displacement fields. To be executed. In an embodiment, the combined displacement is sampled from the 2D Gaussian profile function shown in equation (1) below.

Aは、U(−6.5,6.5)から均一に引き出された実数であり、Nは、ガウスがU(−55,55)から独立して引き出された実数であるu及びuぶん、画像の中心からシフトされ、次の式(2)に示すような規格化定数である。 A is a real number uniformly drawn from U (-6.5, 6.5), and N is a real number Gauss is a real number independently drawn from U (-55, 55) u x and u y is shifted from the center of the image and is a normalization constant as shown in the following equation (2).

参照画像からの変換画像を合成するよう、変位場D={D,D}を構築するために、ガウスプロファイルは、D及びDに対する上記方程式から独立してサンプルされる。 The Gaussian profile is sampled independently from the above equation for D x and D y to construct a displacement field D = {D x , D y } so as to synthesize a transformed image from the reference image.

その他の実施形態において、予め定めた変位場70の取得の任意の適切な方法を使用することができる。例えば、予め定めた変位場70を、リアルな物理的歪みから生じる変位場に似せる様な、任意のモデルを使用することができる。   In other embodiments, any suitable method of acquisition of predetermined displacement fields 70 can be used. For example, any model can be used to make the predetermined displacement field 70 resemble the displacement field resulting from realistic physical distortion.

予め定めた変位場70は、合成された変換画像64を取得するために、参照画像60を変形させる。   The predetermined displacement field 70 deforms the reference image 60 to obtain the combined transformed image 64.

訓練回路24は、差分画像74を取得するために、参照画像60から合成された変換画像64を引く。   The training circuit 24 subtracts the combined transformed image 64 from the reference image 60 to obtain the difference image 74.

参照画像60、変換画像64、変位場70、そして差分画像74は、一緒になって生成器66の訓練用の訓練データのセットを提供すると考えることができる。   The reference image 60, the transformed image 64, the displacement field 70, and the difference image 74 can be considered together to provide a set of training data for training the generator 66.

その他の実施形態において、参照画像60は、訓練処理を開始する前に、変換画像64及び差分画像74を取得するために、変位場70を使用して、予め処理される。更なる実施形態において、参照画像、変換画像、変位場及び差分画像が、任意の適切な方法で取得することができる。例えば、実施形態の中には、予め定めた変位場70が、任意の適切なレジストレーション処理を参照画像及び変換画像に適用することにより、取得できるものがある。   In other embodiments, the reference image 60 is pre-processed using the displacement field 70 to obtain the transformed image 64 and the difference image 74 before starting the training process. In further embodiments, reference images, transformed images, displacement fields and difference images can be obtained in any suitable manner. For example, in some embodiments, predetermined displacement fields 70 can be obtained by applying any suitable registration process to the reference image and the transformed image.

訓練回路24は、参照画像60及び変換画像64を、生成器66へと提供する。生成器66は、参照画像60及び変換画像64を、それのニューラルネットワークに対する入力として使用する。参照画像60及び変換画像64が与えられて、生成器66は、2つの所定の画像をアライメントするために、非パラメトリック定式化において、変位場を予測する。   Training circuit 24 provides reference image 60 and transformed image 64 to generator 66. The generator 66 uses the reference image 60 and the transformed image 64 as inputs to its neural network. Given a reference image 60 and a transformed image 64, the generator 66 predicts the displacement field in a non-parametric formulation to align two predetermined images.

生成器66のニューラルネットワークは、予測された変位場72を出力する。   The neural network of generator 66 outputs the predicted displacement field 72.

本実施形態において、予測された変位場72は、非パラメトリック変換(例えば、密なワープフィールド(dense warp field)を表す。その他の実施形態において、予測された変位場は、パラメトリック変換を表すものとすることがある。例えば、パラメトリック変換は、変換に対する制御点の単一のスケール又は多重のスケールのグリッドに対するスプライン係数を具備することができる。更なる実施形態において、変位は、任意の適切な表現によって表すことができる。例えば、変位は、場として又はパラメータ化された方程式として表すことができる。   In the present embodiment, the predicted displacement field 72 represents a non-parametric transformation (e.g., a dense warp field. In other embodiments, the predicted displacement field represents a parametric transformation. For example, parametric transformations can comprise spline coefficients to a grid of a single scale or multiple scales of control points to transformations In a further embodiment, displacement can be any suitable representation For example, displacement can be represented as a field or as a parameterized equation.

訓練回路24は、予め定めた変位場70及び予測された変位場72を、識別器76へと提供する。訓練回路24は、提供された変位場70、72のうちのどちらが予め定めたもので、どちらが予測されたものかを示さない。本実施形態において、訓練回路24は、差分画像74も識別器76に提供する。その他の実施形態において、訓練回路24は、識別器76に、参照画像及び/又は変換画像を提供することができる。訓練回路24は、参照画像60及び/又は変換画像64から導出された任意の画像又はデータを、識別器76へと提供することができる。例えば、訓練回路24は、参照画像60及び変換画像64から取得された距離関数を、識別器76へと提供することがある。訓練回路24は、参照画像60及び変換画像64から取得された類似性計測を、識別器76へと提供することがある。更に訓練回路24は、参照画像及び変換画像間の残差(residual)画像の任意の形式を、例えば参照画像及び変換画像の勾配間のドット積の平方を、識別器76へと提供することもある。   Training circuit 24 provides a predetermined displacement field 70 and a predicted displacement field 72 to identifier 76. Training circuit 24 does not indicate which of the provided displacement fields 70, 72 is predetermined and which is predicted. In the present embodiment, training circuit 24 also provides difference image 74 to discriminator 76. In other embodiments, training circuit 24 may provide identifier 76 with a reference image and / or a transformed image. Training circuitry 24 may provide any image or data derived from reference image 60 and / or transformed image 64 to identifier 76. For example, training circuitry 24 may provide distance functions obtained from reference image 60 and transformed image 64 to identifier 76. Training circuit 24 may provide the similarity measure obtained from reference image 60 and transformed image 64 to identifier 76. Furthermore, the training circuit 24 may also provide the discriminator 76 with any form of residual image between the reference image and the transformed image, for example the square of the dot product between the gradients of the reference image and the transformed image. is there.

識別器76は、予め定めた変位場70及び予測された変位場72を、自身のニューラルネットワークに対する入力として使用する。識別器76のニューラルネットワークは、変位場のうちどちらを予め定めたものと判断し、またどちらを予測されたものであると判断したかの決定78を出力する。決定78は、変位場70、72のそれぞれの分類を具備する又は表す。本実施形態において、決定は、2つの供給された変位場が予め定めた変位場であるかに関連した可能性を具備する。   The discriminator 76 uses the predetermined displacement field 70 and the predicted displacement field 72 as inputs to its own neural network. The neural network of the discriminator 76 outputs a determination 78 as to which of the displacement fields has been determined to be predetermined and which has been determined to be predicted. The decision 78 comprises or represents the classification of the displacement fields 70, 72 respectively. In this embodiment, the determination comprises the possibility associated with whether the two supplied displacement fields are predetermined displacement fields.

本実施形態において、決定は、任意の適切な分類を具備することができる。分類は、各変位場を予め定めた又は予測されたものとして、二値分類を具備することができる。分類は、各画像が予め定めた又は予測されたという確率又は尤度を具備する確率的分類を具備することができる。   In this embodiment, the determination may comprise any suitable classification. The classification can comprise binary classification as each displacement field being predetermined or predicted. The classification may comprise a probabilistic classification comprising the probability or likelihood that each image is predetermined or predicted.

訓練回路24は、生成器66に対してフィードバックを提供する。フィードバックは、生成器66の出力に基づいた第一のコンポーネントと、識別器76の出力に基づいた第二のコンポーネントとを具備する。図4aには第一のコンポーネントが、MSEフィードバック80として示されている。第二のコンポーネントは、識別器フィードバック82として図4aに示されている。   Training circuit 24 provides feedback to generator 66. The feedback comprises a first component based on the output of the generator 66 and a second component based on the output of the identifier 76. The first component is shown as MSE feedback 80 in FIG. 4a. The second component is shown in FIG. 4 a as identifier feedback 82.

訓練回路24は、フィードバックの2つのコンポーネント80、82に応答して、生成器66の重みを調整する。   Training circuit 24 adjusts the weight of generator 66 in response to the two components 80, 82 of feedback.

本実施形態において、MSEフィードバック80は、損失関数又は従来的な損失関数と呼ばれることのある、目的関数に対する値である。目的関数は、予測された変位場72及び予め定めた変位場70の間の差の計測を提供する。   In this embodiment, the MSE feedback 80 is a value for the objective function, which may be referred to as a loss function or a conventional loss function. The objective function provides a measurement of the difference between the predicted displacement field 72 and the predetermined displacement field 70.

予め定めた変位場70は、予め定めた変位場70が変換画像64を構築するために使用されたので、参照画像60及び変換画像64の間の変換を正確に表す、ということが知られている。従って、予め定めた変位場70は、グラウンドトゥルースとしての役割を果たし、また予測された変位場72は、予測された変位場72を予め定めた変位場70と比較することで、定量化される。   It is known that the predetermined displacement field 70 accurately represents the conversion between the reference image 60 and the converted image 64, since the predetermined displacement field 70 has been used to construct the converted image 64. There is. Thus, the predetermined displacement field 70 acts as a ground truth, and the predicted displacement field 72 is quantified by comparing the predicted displacement field 72 with the predetermined displacement field 70. .

本実施形態において、目的関数は、平均二乗誤差を目的とする。その他の実施形態において、平均絶対誤差又はフーバー損失等、任意の目的関数を使用することができる。目的関数は、変位場の比較に、又は直接的な参照画像及び変換画像の比較に、それぞれ基づく場合がある。   In the present embodiment, the objective function aims at the mean squared error. In other embodiments, any objective function can be used, such as mean absolute error or Huber loss. The objective function may be based on displacement field comparisons or direct comparisons of reference and transformed images, respectively.

本実施形態において、目的関数は、例えば画像間の平均二乗誤差等、同じモダリティの画像のレジストレーション(モノモダリティレジストレーション)に対して適切な、従来的な損失関数である。その他の実施形態において、生成器の使用目的(intended use case)が、異なるモダリティの画像をレジストレーションする(マルチモダリティレジストレーション)ためである場合に、マルチモダリティレジストレーションに適切な損失関数を使用することができる。例えば、モダリティに依存しない、変位場間の平均二乗誤差の計算を使用することができる。幾つかの実施形態において、従来的な損失関数は、例えば正規化されたグラディエントフィールド等、マルチモダリティレジストレーションに対して適切な画像残差に基づく。   In this embodiment, the objective function is a conventional loss function suitable for registration of images of the same modality (monomodality registration), for example the mean squared error between the images. In another embodiment, if the intended use of the generator is to register images of different modalities (multimodality registration), use a loss function appropriate for multimodality registration be able to. For example, calculation of the mean squared error between displacement fields that is independent of modality can be used. In some embodiments, the conventional loss function is based on image residuals appropriate for multi-modality registration, eg, normalized gradient fields.

本実施形態において、目的関数は、Dpredと示すことのできる予測された変位場と、Dgroundtruthと示すことのできる予め定めた変位場と、を直接的に計算する。例えば、計算された値は、(Dpred−Dgroundtruth)と書くことができる。 In this embodiment, the objective function directly calculates the predicted displacement field, which can be denoted D pred, and the predetermined displacement field, which can be denoted D groundtruth . For example, the calculated value can be written as (D pred −D groundtruth ).

その他の実施形態において、任意の適切な方法で目的関数を計算することができる。幾つかの実施形態において、補正された変換画像とも呼ぶことのできる、変換された変換画像を取得するために、予測された変位場が変換画像へと適用される。目的関数は、参照画像と変換された変換画像との間で計算される。参照画像は、Rと示すことができる。変換された変換画像は、FoDpredと書くことができ、ここでFは変換画像、oは予測された変位場を使用する変換操作である。目的関数は、(R−FoDpred)として計算することができる。参照画像及び変換された変換画像を使用する目的関数が使用された場合に、グラウンドトゥルース変位が使用されない場合がある。その様な場合には、グラウンドトゥルース変位は、識別器へと提供することができる。 In other embodiments, the objective function can be calculated in any suitable manner. In some embodiments, a predicted displacement field is applied to the transformed image to obtain a transformed transformed image, which may also be referred to as a corrected transformed image. An objective function is calculated between the reference image and the transformed image transformed. The reference image can be denoted as R. The transformed transformed image can be written FoD pred , where F is the transformed image and o is a transformation operation using the predicted displacement field. The objective function can be calculated as (R-FoD pred ). Ground truth displacement may not be used if an objective function using the reference image and the transformed image transformed is used. In such cases, ground truth displacement can be provided to the discriminator.

識別器フィードバック82は、識別的な(discriminatory)損失関数として、説明することができる、更なる関数に対する値である。識別的な損失関数は、提供された変位場のうちのどちらが予め定めたものであり、またどちらが予測されたものであるかの検出の際に、識別器76の誤差を表す。識別的な損失に対して、任意の適切な関数を使用することができる。例えば、識別的な損失関数は、二値相反エントロピー(binary cross entropy)を具備することがある。   The classifier feedback 82 is a value for a further function that can be described as a discriminatory loss function. The discriminatory loss function represents the error of the discriminator 76 in detecting which of the provided displacement fields is predetermined and which is predicted. For discriminatory loss, any suitable function can be used. For example, the discriminatory loss function may comprise binary reciprocal entropy.

訓練回路24は、生成器と予め定めた変位場との出力間の平均二乗誤差を最小化し、且つ識別器76の誤差を最大化するために、生成器66の重みを調整する。生成器66は、予測された変位場がリアルであると識別器76を信じ込ませるように仕掛ける訓練を積極的に受けているので、生成器66における重みは、識別器76のエラー信号を最大化する訓練の一方で、調整される。   The training circuit 24 adjusts the weights of the generator 66 to minimize the mean squared error between the output of the generator and the predetermined displacement field and to maximize the error of the discriminator 76. The weight at generator 66 maximizes the error signal of discriminator 76, since it is actively trained to force discriminator 76 to believe that the predicted displacement field is real. In the meantime, training is adjusted.

MSEフィードバック80及び識別器フィードバック82の相関的な寄与は、実施形態毎に違う場合がある。特に、識別器フィードバック82の異なるレベル(強さ、と呼ばれることもある)を使用することができる。使用される識別器フィードバックのレベルは、結果として生じる変位場がどの程度正則化されるかに対して、影響を及ぼすことがある、と言うことができる。生成器を訓練するのに識別器のみが使用されたという仮定のシナリオにおいて、生成器により作り出された変位場は、高度にリアルである(例えば、高度に連続的である)が、参照画像及び変換画像に関連しない場合がある。MSEフィードバック80及び識別器フィードバック82を組み合わせて使用することで、変位場は、正則化もされている一方で、参照画像を変換画像へと関連付けることが分かる可能性がある。   The relative contribution of the MSE feedback 80 and the classifier feedback 82 may be different in different embodiments. In particular, different levels (sometimes called strength) of the classifier feedback 82 can be used. It can be said that the level of discriminator feedback used may affect how well the resulting displacement field is regularized. In the hypothetical scenario that only the classifier was used to train the generator, the displacement field produced by the generator is highly real (eg highly continuous), but the reference image and It may not be related to the converted image. Using a combination of MSE feedback 80 and identifier feedback 82, it may be seen that the displacement field is also regularized while associating the reference image to the transformed image.

MSEフィードバック80及び識別器フィードバック82間のバランスは、チューニングによって分かることがある。幾つかの実施形態において、チューニングは、予測された変換の手動での検査に基づく。また幾つかの実施形態において、チューニングは、変位場の1つ又は複数の特徴の計測に基づく。例えば、1つ又は複数の特徴は、予測された変位場が局所的に反転可能(invertible)かどうか、を具備することができる。反転可能かは、予測された変位場のヤコビの決定因子(determinant)を計算することにより、計測することができる。   The balance between MSE feedback 80 and identifier feedback 82 may be known by tuning. In some embodiments, tuning is based on manual inspection of predicted transformations. Also, in some embodiments, tuning is based on measurements of one or more features of the displacement field. For example, one or more features can comprise whether the predicted displacement field is locally invertible. Whether it is possible to invert can be measured by calculating the Jacobian determinant of the predicted displacement field.

図4aの処理は、生成器66の重みを訓練するために、複数の訓練画像に対して繰り返すことができる。   The process of FIG. 4a can be repeated for multiple training images to train the weights of generator 66.

図4aを参照に上で説明された生成器訓練ステージは、識別器訓練ステージと交互に実行される。図4bは、識別器訓練ステージの概要を描くフローチャートである。   The generator training stage described above with reference to FIG. 4a is performed alternately with the classifier training stage. FIG. 4b is a flowchart outlining the classifier training stage.

識別器訓練ステージにおいて、訓練回路24は、複数の予め定めた変位場及び対応する複数の予測された変位場を使用して、識別器76を訓練する。予測された変位場は、生成器66により予測されている。訓練されるべき識別器について予測された変位場を作り出すために、生成器66の重みが固定される。   In the discriminator training stage, training circuit 24 trains discriminator 76 using a plurality of predetermined displacement fields and a plurality of corresponding predicted displacement fields. The predicted displacement field is predicted by the generator 66. The weights of generator 66 are fixed to produce the predicted displacement field for the classifier to be trained.

図4bに戻って、訓練回路24は、予め定めた変位場84、予測された変位場85、差分画像86を受け取る。訓練回路24は、予め定めた変位場84、予測された変位場85、そして差分画像86を、識別器76へと提供する。図4bにおいて描かれるのは、単一つの予め定めた変位場84、予測された変位場85、そして差分画像86のみであるが、実際に図4bの訓練処理は、例えば何百又は何千ものペア等、多数の変位場のペアについて実行することができる。   Returning to FIG. 4b, the training circuit 24 receives a predetermined displacement field 84, a predicted displacement field 85, and a difference image 86. Training circuit 24 provides a predetermined displacement field 84, a predicted displacement field 85, and a difference image 86 to discriminator 76. Although only a single predetermined displacement field 84, predicted displacement field 85, and difference image 86 are depicted in FIG. 4b, the training process of FIG. 4b may, for example, be hundreds or thousands. It can be performed for many displacement field pairs, such as pairs.

差分画像86は、予め定めた変位場84により関連付けられる参照画像と変換画像との間の差分である。例えば、変換画像は、上述の通り、予め定めた変位場84を使用する参照画像から作られたものの場合がある。予測された変位場85は、同じ参照画像及び同じ変換画像から、生成器66により予測されている。   The difference image 86 is the difference between the reference image and the transformed image associated by the predetermined displacement field 84. For example, the transformed image may be made from a reference image using a predetermined displacement field 84, as described above. The predicted displacement field 85 is predicted by the generator 66 from the same reference image and the same transformed image.

識別器76は、予め定めた変位場84、予測された変位場85、差分画像86を、それのニューラルネットワークに対する入力として使用する。識別器76は、変位場84、85のうちのどちらが予め定めた変位場で、どちらが予測された変位場であるかを決定する。本実施形態において、識別器76は、二つの提供された変位場84、85のうちのどちらが予め定めた変位場に関連するかの可能性を生成する。   The discriminator 76 uses a predetermined displacement field 84, a predicted displacement field 85, a difference image 86 as input to its neural network. The discriminator 76 determines which of the displacement fields 84, 85 is the predetermined displacement field and which is the predicted displacement field. In the present embodiment, the discriminator 76 generates the possibility of which of the two provided displacement fields 84, 85 relates to the predetermined displacement field.

訓練回路24は、識別器76のエラー信号を計算する。識別器76のエラー信号は、識別器が、予め定めた変位場84と予測された変位場85との識別の成功度を表す。   The training circuit 24 calculates an error signal of the discriminator 76. The error signal of the discriminator 76 represents the degree of success of discrimination between the predisposed displacement field 84 and the predicted displacement field 85.

本実施形態において、識別器76を訓練するために使用されたエラー信号は、図4aに関連して上で説明されたものと、同じ識別的な損失関数である。その他の実施形態において、異なる関数を使用することができる。   In this embodiment, the error signal used to train the discriminator 76 is the same discriminatory loss function as described above in connection with FIG. 4a. In other embodiments, different functions can be used.

訓練回路24は、識別的な損失関数に対する値を、識別器フィードバック88として識別器76に提供する。訓練回路24は、識別的な損失関数を最小化するために、識別器76の重みを調整する。   The training circuit 24 provides the value for the discriminatory loss function to the discriminator 76 as discriminator feedback 88. The training circuit 24 adjusts the weights of the discriminator 76 to minimize the discriminatory loss function.

識別器訓練ステージは、複数の予め定めた及び予測した変位場に対して、実行される。   A classifier training stage is performed for a plurality of predetermined and predicted displacement fields.

生成器訓練ステージ及び識別器訓練ステージは、収束に達するまで、交互に実行される。   The generator training stage and the classifier training stage are alternately performed until convergence is reached.

本実施形態において、各生成器訓練ステージにおいて使用される訓練例の数及び各識別器訓練ステージにおいて使用される訓練例の数は、固定された数である。生成器訓練と識別器訓練とを切り替える前に訓練例の固定された数を使用することにより、システムの安定した訓練という結果になる場合があることが分かっている。その他の実施形態において、訓練例の異なる数が、異なる訓練ステージにおいて使用することができる。   In this embodiment, the number of training examples used in each generator training stage and the number of training examples used in each classifier training stage are fixed numbers. It has been found that using a fixed number of training examples before switching between generator training and classifier training may result in stable training of the system. In other embodiments, different numbers of training examples can be used at different training stages.

使用される訓練例の数が、スイッチレートと言われることもある。幾つかの実施形態において、スイッチレートのチューニングは、訓練を伴う損失の1つ又は複数の特徴のモニタリングに基づいて、自動化される。例えば、訓練回路24は、識別器に対する損失値が一度所定値以下に下回ったら、識別器の訓練から生成器の訓練へと、切り替えることができる(逆もまた然り)。本実施形態において、システムの訓練は、生成器が訓練データに対して過学習し始めた場合に、停止する。これは、システムを訓練するためとしては使用されなかった、検証用データとして、データのサブセットを保有することで計測される。損失関数の値は、訓練が進むにつれて、検証用データに関し周期的に計算される。訓練が進むにつれて、損失関数の値がこれ以上減少しなくなった場合に、訓練は停止となる。   The number of training examples used may be referred to as the switch rate. In some embodiments, tuning of the switch rate is automated based on monitoring of one or more characteristics of the loss with training. For example, the training circuit 24 can switch from classifier training to generator training (and vice versa) once the loss value for the classifier falls below a predetermined value. In this embodiment, training of the system is halted when the generator begins to over-learn training data. This is measured by having a subset of data as validation data that was not used to train the system. The value of the loss function is calculated periodically on the data for verification as the training proceeds. As the training progresses, training ceases when the value of the loss function no longer decreases.

要約すると、生成器66は、予め定めた変換を使用して訓練される。予め定めた変換は、非剛体変換であり、変位場を使用して説明される。生成器66の訓練には、識別器76を使用する。識別器76は、リアルな変位場の特徴を認識するよう訓練された、深層ニューラルネットワークのタイプである。識別器76は、生成器66の訓練を助けるために、生成器66に、依然として精確(MSEフィードバック)だが、より良く正則化されている(識別器フィードバック)、変位場を予測することを許可しながら、付加的なフィードバックを供給する。
訓練の後、識別器76は、生成器66を残しながらシステムから除去される。訓練された生成器66は、その後、画像間の変換がまだ分かっていない新たな画像をレジストレーションするために、使用することができる。
In summary, the generator 66 is trained using predetermined transformations. The predefined transformations are non-rigid transformations and are described using displacement fields. A classifier 76 is used to train the generator 66. The classifier 76 is a type of deep neural network trained to recognize realistic displacement field features. The discriminator 76 allows the generator 66 to predict displacement fields, which are still accurate (MSE feedback) but better regularized (discriminator feedback), to help train the generator 66. While providing additional feedback.
After training, the discriminator 76 is removed from the system leaving the generator 66. The trained generator 66 can then be used to register new images whose conversion between images is not yet known.

図5は、訓練された生成器66の使用の概要を描くフローチャートである。   FIG. 5 is a flow chart outlining the use of trained generator 66.

レジストレーション回路26は、互いにレジストレーションされるべき2つの医用画像90、92を受け取る。2つの医用画像は、参照画像90及び変換画像92と呼ぶことができる。幾つかの実施形態において、医用画像90、92は、例えば異なる時間で収集された同じ生体構造の画像等、同じ患者の同じ生体構造の画像とすることができる。また幾つかの実施形態において、医用画像90、92は、異なる被検体の画像とすることができる。更に、幾つかの実施形態において、医用画像90のうちの1つは、解剖学的アトラスの部分を具備する又は形成することができる。   The registration circuit 26 receives two medical images 90, 92 to be registered with one another. The two medical images can be referred to as a reference image 90 and a transformed image 92. In some embodiments, the medical images 90, 92 can be images of the same anatomy of the same patient, such as, for example, images of the same anatomy acquired at different times. Also, in some embodiments, the medical images 90, 92 can be images of different subjects. Furthermore, in some embodiments, one of the medical images 90 may comprise or form a portion of an anatomical atlas.

レジストレーション回路26は、参照画像90及び変換画像92を、入力として生成器66へと提供する。生成器66のニューラルネットワークは、予測された変位場を出力するために訓練されている。訓練された生成器66により実行される処理は、レジストレーション処理と呼ばれることがある。   Registration circuit 26 provides reference image 90 and transformed image 92 as input to generator 66. The neural network of generator 66 is trained to output the predicted displacement field. The process performed by trained generator 66 may be referred to as a registration process.

生成器66は、参照画像90及び変換画像92の間の変換を表す、予測された変位場94を出力する。予測された変位場は、参照画像90及び変換画像92をアライメントするために、適用することができる。   The generator 66 outputs a predicted displacement field 94 representing the transformation between the reference image 90 and the transformed image 92. The predicted displacement field can be applied to align the reference image 90 and the transformed image 92.

処理回路22は、更なる処理を実行するために、変位場94及び/又はアライメントされた画像を利用することができる。更なる処理は、画像のレジストレーションが必須条件の任意の処理とすることができる。例えば、更なる処理は、更なるレジストレーションを具備する場合がある。更なる処理は、セグメンテーションを具備する場合もある。また処理は、画像における少なくとも1つの解剖学的特徴の検出を具備する場合もある。また更なる処理は、例えば画像における損傷の検出当、画像における少なくとも1つの病変の検出を具備する。幾つかの実施形態において、解剖学的特徴及び/又は病変の検出は、セグメンテーションを具備することがある。その他の実施形態において、解剖学的特徴及び/又は病変の検出は、それらの存在の検出を具備することがある。またその他の実施形態において、解剖学的特徴及び/又は病変の検出は、それらに関する位置(例えば、単一の座標)の決定を具備することもある。幾つかの実施形態において、生成器66は、アトラスベースのセグメンテーション又は別のアトラスベースの処理を実行するために、画像をアトラスへとレジストレーションするために使用される。   Processing circuitry 22 may utilize displacement field 94 and / or the aligned image to perform further processing. The further processing can be any processing where registration of the image is a prerequisite. For example, the further processing may comprise further registration. Further processing may comprise segmentation. The processing may also comprise the detection of at least one anatomical feature in the image. Further processing comprises detection of at least one lesion in the image, for example detection of damage in the image. In some embodiments, detection of anatomical features and / or lesions may comprise segmentation. In other embodiments, detection of anatomical features and / or lesions may comprise detection of their presence. In yet other embodiments, detection of anatomical features and / or lesions may comprise the determination of a position (eg, a single coordinate) relative thereto. In some embodiments, the generator 66 is used to register an image into an atlas to perform atlas-based segmentation or another atlas-based processing.

更なる処理は、サブトラクション又はその他のプーリアン演算を具備することができる。更なる処理は、単一の画像を形成するために、アライメントされた画像の特徴が組み合わせられる、画像フュージョンを具備することもできる。   The further processing may comprise subtraction or other Poulian arithmetic. Further processing may comprise image fusion, in which features of the aligned image are combined to form a single image.

図4a、図4b、そして図5を参照し上で説明された実施形態において、深層学習モデルは、2つの画像をアライメントする非剛体変換に回帰するために使用される。   In the embodiment described above with reference to FIGS. 4a, 4b, and 5, the deep learning model is used to regress to a non-rigid transformation that aligns the two images.

生成器66のニューラルネットワークは、変位場を作り出すよう訓練されているので、生成器66は、1ステップで予測された変位場を作り出す。1ステップで予測された変位場を作り出すことは、レジストレーションを実行するために、レジストレーション処理の多くの逐次を使用する幾つかの既知のレジストレーション法と異なる。訓練されたニューラルネットワークを使用することにより、レジストレーションは、幾つかの既知のレジストレーション法を用いることに比べて、より素早く取得することができる。   Since the neural network of generator 66 is trained to create a displacement field, generator 66 produces the predicted displacement field in one step. Producing the predicted displacement field in one step differs from some known registration methods which use many successive steps of the registration process to perform the registration. By using a trained neural network, registration can be obtained more quickly than using some known registration methods.

生成器66は、画像間の非剛体変位場を予測するよう構成された、単一パスの生成器である。訓練された生成器66は、高速且つ非逐次であるレジストレーション法を提供することができる。   Generator 66 is a single pass generator configured to predict non-rigid displacement fields between images. The trained generator 66 can provide a fast and non-sequential registration method.

生成器66は、訓練にわたり、平均二乗誤差を最小化するだけでなく、存在している識別器も騙す、変位場を作り出すように学習していることだろう。識別器を騙すよう、生成器66は訓練されているので、訓練された生成器は、リアルな変位場(すなわち、リアルにほぼ近い変位場)を出力するだろう、ということが期待できる。   The generator 66 will be learning to create a displacement field over training not only to minimize the mean squared error, but also to overwhelm existing classifiers. Since the generator 66 is trained to mislead the discriminator, it can be expected that the trained generator will output a real displacement field (ie, a displacement field near to real).

生成器を訓練するために、決定論的敵対的ネットワークを使用することは、生成器を訓練と同様に、解となる変位場の付加的な正則化であると考えることができる。識別器は、生成器の訓練の間において、付加的な正則化として考えることができる。それは、識別器が、生成器が偽物と予測した変位解に罰則を与えることで、生成器が予測する変位場を拘束するのと同様である。   Using a deterministic hostile network to train the generator can be thought of as an additive regularization of the solution displacement field, as well as training. The classifier can be thought of as an additional regularization during generator training. It is similar to the discriminator constraining the displacement field that the generator predicts by penalizing the displacement solution that the generator predicted as fake.

敵対的な手法で生成器66及び識別器76を訓練することにより、生成器66が識別器76からの出力を使用することなく単独で訓練された場合に比べ、より良い生成器66を作り出すことができる。   By training the generator 66 and the identifier 76 in a hostile manner, a better generator 66 is created compared to when the generator 66 is trained alone without using the output from the identifier 76. Can.

生成器66により作り出された変位場は、より良く正則化する場合がある。識別器76は、生成器66によって学習された、予測された変換/変位場を間接的に正則化する。識別器76は、生成器66の訓練を助けるために、別の形式のフィードバックを提供する。識別器76は、3つの入力を取る。即ち、真の変位場と予測された変位場、そして差分画像である。識別器76は、2つの供給された場のうちのどちらが真の変位場であるかに関する可能性を生成する。生成器66は、識別器76を仕掛けることを目的に、加えてリアル及び予測された変位場間の差分を最小化することも目的に、訓練されている。   The displacement fields created by the generator 66 may be better regularized. The classifier 76 indirectly regularizes the predicted transformation / displacement field learned by the generator 66. Identifier 76 provides another form of feedback to aid in training generator 66. The identifier 76 takes three inputs. A true displacement field, a predicted displacement field, and a difference image. The identifier 76 generates the possibility as to which of the two supplied fields is the true displacement field. The generator 66 is trained to set the discriminator 76 and additionally to minimize the difference between real and predicted displacement fields.

本実施形態において、生成器66の敵対的な訓練は、画像全体を使用して訓練され、訓練された生成器66は、画像全体をその入力として使用する。その他の実施形態において、生成器66の訓練及び/又は使用は、画像全体のレベルでの代わりに、画像の部分に関してパッチワイズに実行することが出来る。パッチワイズ法において、画像又は画像ボリュームは、パッチと呼ぶことができる、サブ画像又はサブボリュームへと分割される。レジストレーションは、個別のパッチをアライメントするために実行される。個別のパッチの初期アライメントは、パッチのペアが、生成器66が同じ情報を含むことを使用してアライメントされる予定となるようにすることができる。その様な初期的なアライメントは、例えば変換画像を作るため参照画像の制御された合成の歪み;画像をパッチへと分割する前に、剛体レジストレーション前処理ステップ;又はパッチが十分に大きい場合、を通して達成することができる。 状況次第で、パッチワイズレジストレーションは、フル画像レジストレーションに比べてコンピュータ的により実現可能な場合がある。パッチワイズレジストレーションは、より少ない計算リソースを必要とする場合がある。パッチワイズレジストレーション法において、フル変位場は、パッチレベル変位場の集約を通して、生成することができる。   In this embodiment, the hostile training of generator 66 is trained using the entire image, and trained generator 66 uses the entire image as its input. In other embodiments, training and / or use of the generator 66 can be performed patchwise with respect to portions of the image instead of at the level of the entire image. In patchwise methods, an image or image volume is divided into sub-images or sub-volumes, which can be called patches. Registration is performed to align individual patches. The initial alignment of the individual patches can be such that pairs of patches will be aligned using that the generator 66 contains the same information. Such initial alignment may, for example, be distortion of the controlled synthesis of the reference image to create a transformed image; a rigid body registration pre-processing step before dividing the image into patches; or if the patches are large enough, Can be achieved through Depending on the circumstances, patch-wise registration may be computationally feasible compared to full image registration. Patch-wise registration may require less computational resources. In patchwise registration methods, full displacement fields can be generated through aggregation of patch level displacement fields.

幾つかの実施形態において、生成器66の訓練は、特定の身体部分及び/又は特定の画像モダリティに特有である。例えば、一実施形態において、生成器66を訓練するために使用される画像は、全て頭部スライスのMR画像であり、生成器66は従って、頭部スライスのMR画像をレジストレーションするよう訓練される。その他の実施形態において、生成器66は、任意の身体部分の画像について訓練することができ、例えば心臓画像又は任意の適切な臓器の画像について、訓練することができる。生成器66は、任意のモダリティの2D又は3D画像について訓練されたものである。   In some embodiments, the training of generator 66 is specific to a particular body part and / or a particular imaging modality. For example, in one embodiment, the images used to train generator 66 are all MR images of head slices, and generator 66 is thus trained to register MR images of head slices Ru. In other embodiments, the generator 66 can be trained on images of any body part, for example, on cardiac images or images of any suitable organ. The generator 66 is trained on 2D or 3D images of any modality.

ある例で、2つの生成器66がMR頭部画像スライスに関して訓練されている。
1. 平均二乗誤差のみを使用し訓練された生成器(図2を参照し上で説明されたものと同様)
2. 平均二乗誤差及び識別器を使用し訓練された生成器(図5を参照し上で説明されたものと同様)
生成器は、2つの入力画像(参照画像と変換画像)が与えられて変位場を出力するよう訓練されたものである。
In one example, two generators 66 are trained on MR head image slices.
1. Trained generator using only mean squared error (similar to that described above with reference to FIG. 2)
2. Trained generator using mean squared error and classifier (similar to that described above with reference to FIG. 5)
The generator is trained to output displacement fields given two input images (a reference image and a transformed image).

図6は、変換画像108を合成するために、予め定めたガウス変位場104、106をMR頭部画像スライス(参照画像100)へと適用する処理のイラストである。   FIG. 6 is an illustration of a process for applying predetermined Gaussian displacement fields 104, 106 to an MR head image slice (reference image 100) to synthesize the transformed image 108.

矢印102は、変換画像108を取得するために、変位場104、106を参照画像100へと適用する処理を示す。プロット104、106は、X及びYについての変位場をそれぞれ表す。プロット104、106において、色値(図では濃淡で示される)は、歪みの程度を表す。色は、適用されたワープフィールドの振幅を表す。プロット104における各ピクセルに対する色値(濃淡で示される)は、画像の対応するピクセルについてのX変位の量を表す。またプロット106における各ピクセルに対する色値(濃淡で示される)は、画像の対応するピクセルについてのY変位の量を表す。   Arrow 102 illustrates the process of applying displacement fields 104, 106 to reference image 100 to obtain transformed image 108. The plots 104, 106 represent displacement fields for X and Y, respectively. In the plots 104, 106, the color values (indicated by shading in the figure) represent the degree of distortion. The color represents the amplitude of the applied warp field. The color values (indicated by shading) for each pixel in plot 104 represent the amount of X displacement for the corresponding pixel of the image. Also, the color value (shown in gray) for each pixel in plot 106 represents the amount of Y displacement for the corresponding pixel of the image.

2つの訓練された生成器の比較結果は次の通りである。   The comparison results of the two trained generators are as follows.

平均二乗誤差及び識別器の組み合わせを使用して訓練された生成器は、平均二乗誤差のみを使用して訓練された生成器により達成されたものに比べて、より高いピーク信号対ノイズ比を達成したということが実証されている。   A generator trained using a combination of mean squared error and classifier achieves higher peak signal to noise ratio than that achieved by a trained generator using only mean squared error It has been proven that.

図7生成器の訓練についての識別器フィードバックの効果を示す画像の表である。図7は、次を提供する。グラウンドトゥルース変位場の視覚的なデモンストレーション;平均二乗誤差だけを使用して訓練された生成器から予測された変位場;決定論的敵対的ネットワークにおいて訓練された生成器からの予測された変位場、である。結果は、3つの検証用例のそれぞれに対して示される(図1、図2、図3)。   7 is a table of images showing the effect of classifier feedback on the training of the generator. FIG. 7 provides the following. Visual demonstration of ground truth displacement fields; displacement fields predicted from generators trained using only mean squared errors; predicted displacement fields from generators trained in deterministic hostile networks, It is. The results are shown for each of the three verification examples (FIG. 1, FIG. 2, FIG. 3).

合成の、グラウンドトゥルース変位場が表の上段に示される。X及びY変位は、3つの例のそれぞれに対して示される。変位の程度は、色(濃淡)として示される。示された変位場は、レジストレーションされるべき画像ペアを生み出すために、MR頭部画像スライスへと適用されたものである。   The combined ground truth displacement fields are shown at the top of the table. The X and Y displacements are shown for each of the three examples. The degree of displacement is indicated as color (shade). The displacement field shown is that applied to the MR head image slice to produce the image pair to be registered.

表の中段は、図2に関連して上で説明されたのと同じ方法に従って、平均二乗誤差のみを使って訓練されたシステムを使用し予測された、変位場を示す。   The middle part of the table shows the displacement fields predicted using a system trained using only the mean squared error according to the same method as described above in connection with FIG.

表の下段は、図4a及び4bに関連して上で説明されたのと同じ敵対的な方法に従って、平均二乗誤差及び識別器フィードバックを使って訓練されたシステムを使用し予測された、変位場を示す。   The lower part of the table is a displacement field predicted using a system trained using mean squared error and classifier feedback according to the same hostile method as described above in connection with FIGS. 4a and 4b. Indicates

110から117までの円は、中段(平均二乗誤差のみ)及び下段(敵対的)間の変位場における改善を視覚的に目立たせている。   The circles 110 to 117 visually highlight the improvement in the displacement field between the middle (mean squared error only) and the bottom (hostile).

中段における変位場は、上段に示されるグラウンドトゥルース変位場とは異なる。中段における変位場は、円110、111、112、113で示されるノイジーな領域を示す。   The displacement field in the middle stage is different from the ground truth displacement field shown in the upper stage. The displacement field in the middle shows a noisy area shown by circles 110, 111, 112, 113.

下段における円114、115、116、117は、中段で円により示された対応する110、111、112、113をそれぞれ示す。これらのずれたエリア周辺のノイズに低減があることが見受けられる。また上段に示されたグラウンドトゥルース対象との類似性も増している。   The circles 114, 115, 116, 117 in the lower row show the corresponding 110, 111, 112, 113 respectively indicated by the circles in the middle. It can be seen that there is a reduction in the noise around these offset areas. Also, the similarity to the ground truth object shown in the upper row is increasing.

2つの画像間の変位場に回帰するニューラルネットワークの訓練を拡張するための敵対的なコンポーネントを使用することにより、改善されたPSNR統計という結果になる場合がある。敵対的なコンポーネントを使用することにより、より視覚的に満足のいく変位場という結果をもたらすこともある。   Using hostile components to extend the training of neural networks that regress to displacement fields between two images may result in improved PSNR statistics. The use of hostile components can also result in more visually pleasing displacement fields.

図7に示された視覚的な結果は、DANフレームワーク(下段)において訓練されたモデルにより予測された変位が、変位場のx及びyコンポーネント両方における真の変位の周りに、より少ない偽雑音(spurious clutter)を有するように見えることを実証している。   The visual results shown in FIG. 7 show that the displacements predicted by the trained model in the DAN framework (bottom) are less spurious noise around the true displacements in both the x and y components of the displacement field It has been demonstrated that it appears to have (spurious clutter).

図4a及び4bに関連して上で説明された訓練法は、単一の識別器76を使用する。更なる実施形態において、多重識別器が生成器の訓練に使用される。   The training method described above in connection with FIGS. 4a and 4b uses a single identifier 76. In a further embodiment, multiple classifiers are used to train the generator.

状況次第で、分類器(classifier)のアンサンブルが、単一の分類器に比べより正確な予測を提供する場合があることが知られている。従って、多重識別器が敵対的なフィードバックを提供するために、単一の生成器に対して用いられる場合がある。   In some circumstances, it is known that an ensemble of classifiers may provide more accurate predictions than a single classifier. Thus, multiple classifiers may be used for a single generator to provide hostile feedback.

実施形態において、多重識別器は、予測された変位を受け取る各識別器と共に、使用される。   In an embodiment, multiple classifiers are used with each classifier receiving the predicted displacement.

図8は、多重識別器が生成器124を訓練するために使用される、実施形態に係る方法の概要を描くフローチャートである。   FIG. 8 is a flowchart outlining a method according to an embodiment in which multiple classifiers are used to train the generator 124.

訓練において、訓練回路24は、生成器124への入力である参照画像120及び変換画像122を受け取る。生成器124は、予測された変位126を出力する。   In training, training circuit 24 receives reference image 120 and transformed image 122, which are inputs to generator 124. The generator 124 outputs the predicted displacement 126.

予測された変位126は、複数の識別器130a、130b、・・・130nへと提供される。各識別器130a、130b、・・・130nは、それぞれへと提供された変位が、予め定めたものか又は予測されたものかの個別の決定を出力する。   The predicted displacement 126 is provided to a plurality of classifiers 130a, 130b, ... 130n. Each classifier 130a, 130b,... 130n outputs a separate determination of whether the displacement provided to it is predetermined or predicted.

幾つかの実施形態において、識別器のうちの幾つか又は全ては、参照画像及び変換画像、又は係る2つの間の計算された幾つかの残差画像、及び/又は利用可能な場合は、グラウンドトゥルース変位等、その他の入力を受け取る。   In some embodiments, some or all of the classifiers may be a reference image and a transformed image, or some residual image calculated between two such and / or ground, if available. Receive other inputs such as truth displacement.

幾つかの実施形態において、各識別器は、個別の敵対的なフィードバックを提供する。その他の実施形態において、識別器のそれぞれからのクラス分類が集約され、そして敵対的なフィードバックが係る集約されたクラス分類から導出される。   In some embodiments, each classifier provides individual hostile feedback. In other embodiments, the classifications from each of the classifiers are aggregated, and hostile feedback is derived from such aggregated classifications.

多重識別器は、様々な形で互いに異なる場合がある。例えば、多重識別器のうちの異なるものについては、異なるデータについて訓練することができる。また多重識別器のうちの異なるものについては、異なる構造を有することができる。更に多重識別器のうちの異なるものについては、異なる重みを使用して初期化することができる。   Multiple classifiers may differ from one another in various ways. For example, different ones of the multiple classifiers can be trained on different data. Also, different ones of the multiple classifiers can have different structures. Furthermore, different ones of the multiple classifiers can be initialized using different weights.

多重識別器のうちの異なるものは、異なる入力を使うことがある。例えば、識別器の中には、参照画像及び変換画像(又は、参照画像及び/又は変換画像から導出された画像又はデータ)を受け取ることができる一方で、別のものは受け取らないことがある。   Different ones of the multiple classifiers may use different inputs. For example, some classifiers may receive a reference image and a transformed image (or an image or data derived from the reference image and / or the transformed image), but not another.

上で説明された実施形態において、識別器(又は、多重識別器のうちのそれぞれ)は、深層学習モデルを具備する。その他の実施形態において、識別器は、深層学習モデルを具備しないものが使用されることもある。識別器により提供されるエラー信号が、生成器の重みに対して弁別可能である限り、任意の適切な識別器を使用することができる。   In the embodiment described above, the classifiers (or each of the multiple classifiers) comprise a deep learning model. In other embodiments, the discriminator may be used without the deep learning model. Any suitable discriminator can be used as long as the error signal provided by the discriminator is distinguishable with respect to the generator weights.

上で説明された実施形態において、識別器は、予め定めた変位場及び生成器により予測された変位場を受け取り、係る受け取った変位場のうちのどちらが予め定めた変位場であり、どちらが予測された変位場であるかの決定を出力する、よう構成された2アーム識別器(又は複数の多重識別器のそれぞれ)である。識別器は、2つのチャンネルを有し、うち一方は生成器の出力を受け取り、他方はグラウンドトゥルース変位を受け取る。   In the embodiment described above, the classifier receives the predetermined displacement field and the displacement field predicted by the generator, and which of the received displacement fields is the predetermined displacement field and which is predicted A two-arm discriminator (or each of a plurality of multiple discriminators) configured to output a decision as to whether it is a displacement field. The identifier has two channels, one of which receives the output of the generator and the other of which receives the ground truth displacement.

その他の実施形態において、識別器(又は多重識別器のうちの少なくとも1つ)は、単一の変位場を受け取り、係る受け取った変位場が予め定めた変位場であるのか、又は生成器により予測された変位場であるのかどうかの決定を出力する、よう構成することができる。識別器は、変位の単一のセットを受け取る単一のチャンネルを有する。   In other embodiments, the classifier (or at least one of the multiple classifiers) receives a single displacement field and whether such received displacement field is a predetermined displacement field or predicted by a generator It can be configured to output a determination of whether it is a displaced displacement field. The identifier has a single channel that receives a single set of displacements.

状況によって、2アーム識別器は、1アーム識別器に比べて、生成器に対して、より安定した敵対的なフィードバックを提供する場合があることが分かっている。   Depending on the circumstances, it has been found that a two-arm identifier may provide more stable, hostile feedback to the generator as compared to a one-arm identifier.

上で説明された実施形態において、生成器は、医用画像に関して訓練される。生成器は、第一の医用画像データと、例えば、異なる時間で収集された、又は異なる撮像モダリティを使用し収集された、同じ生体構造の画像等、被検体の同じ解剖学的領域を表す第二の医用画像データと、について訓練される。その他の実施形態において、第一の医用画像データは、被検体の解剖学的領域を表し、且つ第二の医用画像データは、被検体の解剖学的領域を、又は被検体の若しくは更なる被検体の対応する解剖学的領域を表す。幾つかの実施形態において、医用画像データの1セットは、アトラスデータを具備する。   In the embodiments described above, the generator is trained on medical images. The generator represents the same anatomical region of the subject, such as an image of the same anatomy acquired with the first medical image data and, for example, acquired at different times or using different imaging modalities. Train about two medical image data. In other embodiments, the first medical image data is representative of an anatomical region of the subject, and the second medical image data is representative of an anatomical region of the subject, or of the subject or a further subject. Represents the corresponding anatomical area of the specimen. In some embodiments, one set of medical image data comprises atlas data.

更なる実施形態において、生成器は、任意のタイプの画像(医用画像の場合もあるし、そうでない場合もある)に関して訓練することができる。生成器は、任意の画像タイプをレジストレーションするために使用することができる。画像は、任意の撮像法を使用して収集することができる。   In a further embodiment, the generator can be trained on any type of image (which may or may not be a medical image). The generator can be used to register any image type. Images can be collected using any imaging method.

その他の実施形態において、上で説明された方法と似た方法が、ステレオ画像のペアに対するデプスフィールド(depth field)を推定するために、生成器を訓練するよう使用される。ステレオ撮像において、2つの画像は、2つの撮像デバイスを使用して異なる視点(パースペクティブ)から収集される。2つの画像間の差分は、2つの撮像デバイスから画像に表された物体までの距離の関数である。2つの画像における点間の距離を処理することにより、撮像デバイスから画像における物体までの距離を推定するデプスフィールドを、作り出すことができる。   In other embodiments, a method similar to that described above is used to train the generator to estimate the depth field for a pair of stereo images. In stereo imaging, two images are acquired from different perspectives using two imaging devices. The difference between the two images is a function of the distance from the two imaging devices to the object represented in the images. By processing the distance between points in the two images, a depth field can be created that estimates the distance from the imaging device to the object in the image.

幾つかの実施形態において、医用画像のペアは、第一の及び第二の画像がステレオ画像を形成するような位置においてオフセットされる、第一の及び第二の撮像デバイス(例えば、第一の及び第二のカメラ)により収集される。医用画像のペアは、生成器に対する入力であり、生成器は、医用画像のペアに対するデプスフィールドを出力するよう訓練される。生成器は、予測されたデプスフィールドがよりリアルになるように、識別器を用いて敵対的に訓練される。生成器がデプスフィールドを予測するよう訓練される生成器訓練処理と、識別器が予め定めたデプスフィールドと生成器により予測されたデプスフィールドとを区別するよう訓練される識別器訓練処理とは、繰り返し入れ替えられる。   In some embodiments, the medical image pair is offset from the first and second imaging devices (e.g., the first and second imaging devices) such that the first and second images form a stereo image. And the second camera). The medical image pair is an input to a generator, which is trained to output a depth field for the medical image pair. The generator is trained hostilely with the discriminator so that the predicted depth field is more realistic. A generator training process in which the generator is trained to predict depth fields, and a classifier training process in which the classifier is trained to distinguish between the predetermined depth fields and the depth fields predicted by the generator. It is repeatedly replaced.

幾つかの実施形態において、第二の撮像デバイスは、第一の撮像デバイスと同じデバイスの場合がある。例えば、撮像デバイスの位置は、第一の画像の収集と第二の画像の収集との間で動いている場合がある。幾つかの実施形態において、例えば単一のカメラの異なるセンサ等、第一の撮像デバイス及び第二の撮像デバイスは、単一の装置の異なる部分を具備することがある。   In some embodiments, the second imaging device may be the same device as the first imaging device. For example, the position of the imaging device may be moving between the acquisition of the first image and the acquisition of the second image. In some embodiments, the first imaging device and the second imaging device may comprise different parts of a single device, for example different sensors of a single camera.

変位場を予測するために生成器の訓練及びその利用に関する上で説明された特徴は、ステレオ画像に対するデプスフィールドを予測するために、生成器の訓練及びその利用へと適用することもできる。   The features described above with respect to generator training and its use to predict displacement fields can also be applied to generator training and its use to predict depth fields for stereo images.

特定の実施形態は、2つ以上の画像を敵対的な手法でアライメントする非剛体変位場を推定するために、ニューラルネットワークの訓練に対する方法、ここでは生成器と呼ぶ、を提供する。上記敵対的な手法は、従来的な損失関数の最小化及び識別的な損失の最大化から成り立っている。   Certain embodiments provide a method for training a neural network, referred to herein as a generator, to estimate a non-rigid displacement field that aligns two or more images in a hostile manner. The above hostile approach consists of traditional loss function minimization and discriminatory loss maximization.

生成器は、2つ以上の画像をアライメントするために、パラメトリックか又は非パラメトリックな変換かの、どちらかを予測することができる。識別器により提供される敵対的な訓練は、画像全体のレベルで適用することができる。また識別器により提供される敵対的な訓練は、パッチワイズの原則へと適用することができる。   The generator can predict either parametric or non-parametric transformations to align two or more images. The hostile training provided by the classifier can be applied at the whole image level. Also, the hostile training provided by the classifier can be applied to patchwise principles.

識別器は、変位の単一のセットを受け取る、単一のチャンネルを有することできる。識別器は、2つのチャンネルを有する場合もあり、一方のチャンネルが生成器の出力を受け取り、他方のチャンネルがグラウンドトゥルース変位を受け取る。   The identifier can have a single channel that receives a single set of displacements. The identifier may have two channels, one channel receiving the output of the generator and the other channel receiving the ground truth displacement.

識別器は、残差画像、変位場に回帰するニューラルネットワークに対する画像入力間での、任意の距離関数/類似性メトリックを追加として受け取る場合もある。   The classifier may additionally receive an arbitrary distance function / similarity metric between the residual image, the image input to the neural network that regresses to the displacement field.

多重識別器は、変位の単一の所定のセットに対する、敵対的/識別的損失コンポーネントを提供するために、用いることができる。   Multiple classifiers can be used to provide a hostile / discriminatory loss component for a single predetermined set of displacements.

ニューラルネットワークに対する画像入力は、同じモダリティのものの場合がある。ニューラルネットワークに対する画像入力は、異なるモダリティの場合もある。   The image inputs to the neural network may be of the same modality. The image input to the neural network may be of different modalities.

従来的な損失関数は、予測された及びグラウンドトゥルース変位間で評価することができる。従来的な変換関数は、参照画像と予測された変位で歪められたテンプレート画像との間で評価することができる。   Conventional loss functions can be evaluated between predicted and ground truth displacements. Conventional transformation functions can be evaluated between the reference image and the predicted displacement-distorted template image.

予測された変位場は、更なるレジストレーション、セグメンテーション、又はアトラスベースのタスクに対して使用することができる。   The predicted displacement field can be used for further registration, segmentation or atlas based tasks.

生成器は、画像のステレオペアに対するデプスフィールドを推定することができる。   The generator can estimate the depth field for stereo pairs of images.

上で説明された方法は、任意の適当なヒト又は動物の生体構造に対して適用することができる。方法は、例えば任意の適当なモダリティ、シーケンス、収集タイプ又は処理技法等、任意の適当な撮像手順タイプを使用して取得された、画像データの処理へと適用することができる。   The methods described above can be applied to any suitable human or animal anatomy. The method may be applied to the processing of image data acquired using any suitable imaging procedure type, such as any suitable modality, sequence, acquisition type or processing technique.

方法は、例えば参照画像、変換画像、及び差分画像等、画像に関連して上で説明された。画像に実行されているとして上で説明された操作は、これらの画像を表す画像データのセットに実際には実行することもある。例えば、ピクセル又はボクセル位置のセット及び関連した輝度を具備するデータに関し、操作を実行することができる。多くの場合、対応する画像が表示されることなく、操作が画像データに実行される。   The method has been described above in connection with images, such as, for example, reference images, transformed images, and difference images. The operations described above as being performed on images may actually be performed on a set of image data representing these images. For example, operations may be performed on data comprising a set of pixel or voxel locations and associated luminance. In many cases, operations are performed on image data without the corresponding image being displayed.

本明細書では、特定の回路について説明してきた。いくつかの実施形態では、これらの回路のうち1つ又は複数の機能は単一の処理リソース又はその他の構成要素によって提供可能であり、又は、単一の回路によって提供される機能は、組み合わされた2つ以上の処理リソース又はその他構成要素によって提供可能である。単一のユニットへの言及は、その回路の機能を提供する複数の構成要素が互いに遠隔であるかどうかに関わりなく、そのような構成要素を包含し、複数の回路への言及は、それらの回路の機能を提供する単一の構成要素を包含する。   Specific circuits have been described herein. In some embodiments, one or more functions of these circuits may be provided by a single processing resource or other component, or the functions provided by a single circuit may be combined. It may be provided by more than one processing resource or other component. References to a single unit encompass such components, regardless of whether the components providing the functionality of the circuit are remote from one another, and references to the circuits refer to their components. Includes a single component that provides the functionality of the circuit.

特定の実施形態について説明してきたが、これらの実施形態は、例として提示したにすぎず、本発明の範囲を限定することを意図したものではない。実際、本明細書で説明する新規な方法及びシステムはさまざまなその他の形態で実施することができる。そのうえ、本明細書で説明する方法及びシステムの形態におけるさまざまな省略、置き換え、及び変更は、本発明の趣旨から逸脱することなく行うことができる。添付の特許請求の範囲及びその等価物は、本発明の範囲に含まれるこのような形態又は変形形態を包含することを意図するものである。   While specific embodiments have been described, these embodiments are presented by way of example only and are not intended to limit the scope of the present invention. In fact, the novel methods and systems described herein may be implemented in various other forms. Moreover, various omissions, substitutions and changes in the form of the methods and systems described herein may be made without departing from the spirit of the invention. The appended claims and their equivalents are intended to cover such forms or variations that fall within the scope of the present invention.

10…画像データ処理装置、12…計算装置、14…スキャナ、16…表示スクリーン、18…入力デバイス、20…データストア、22…処理回路、22…処理装置、24…訓練回路、26…レジストレーション回路、30…参照画像、34…変換画像、36…生成器、56…識別器、66…生成器、76…識別器、124…生成器、130a…識別器、130b…識別器 DESCRIPTION OF SYMBOLS 10 ... Image data processing apparatus, 12 ... Calculation apparatus, 14 ... Scanner, 16 ... Display screen, 18 ... Input device, 20 ... Data store, 22 ... Processing circuit, 22 ... Processing apparatus, 24 ... Training circuit, 26 ... Registration Circuit 30 30 Reference image 34 Transformed image 36 Generator 56 56 Identifier 66 66 Generator 76 Identifier 124 124 Generator 130a Identifier 130b Identifier 130

Claims (15)

第一の画像データと第二の画像データとを受け取る取得部と、
前記第一の画像データと前記第二の画像データとの間のレジストレーション処理を実行するための予測変位を生成する生成部と、
を具備し、
前記生成部は、前記予測変位の生成と識別部を用いた訓練とを繰り返し実行することで訓練されており、
前記識別部は、予め定めた変位と前記予測変位とを区別するように訓練されること、
を特徴とする医用画像処理装置。
An acquisition unit for receiving the first image data and the second image data;
A generation unit configured to generate a predicted displacement for performing registration processing between the first image data and the second image data;
Equipped with
The generation unit is trained by repeatedly executing the generation of the predicted displacement and training using the identification unit,
The identification unit is trained to distinguish between a predetermined displacement and the predicted displacement;
Medical image processing apparatus characterized by
前記生成部及び前記識別部のうちの少なくとも一方は、ニューラルネットワークを有することを特徴とする請求項1記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein at least one of the generation unit and the identification unit has a neural network. 前記生成部は、前記予測変位に基づいて、更なるレジストレーション、サブトラクション、セグメンテーション、アトラスベースを用いた処理、画像フュージョン、生体構造検出、病変検出、のうちの少なくとも一つを実行することを特徴とする請求項1又は2記載の医用画像処理装置。   The generation unit is characterized in that at least one of registration, subtraction, segmentation, atlas-based processing, image fusion, anatomy detection, and lesion detection is performed based on the predicted displacement. The medical image processing apparatus according to claim 1 or 2. 前記第一の画像データ及び前記第二の画像データは、二次元画像データ又は三次元画像データであることを特徴とする請求項1乃至3のうちいずれか一項記載の医用画像処理装置。   The medical image processing apparatus according to any one of claims 1 to 3, wherein the first image data and the second image data are two-dimensional image data or three-dimensional image data. 識別部及び生成部を学習させる学習装置であって、
複数の訓練画像データセットと、前記複数の訓練画像データセットに対応する複数の予め定めた変位と、を受け取る取得部と、
前記生成部が前記複数の訓練画像データセットに基づいて予測変位を生成する生成処理と、前記識別部が前記予測変位と前記複数の予め定めた変位とを識別する識別処理と、を敵対的に繰り返し実行して前記生成部及び前記識別部を訓練する学習部と、
を特徴とする学習装置。
A learning device for learning an identification unit and a generation unit,
An acquisition unit for receiving a plurality of training image data sets and a plurality of predetermined displacements corresponding to the plurality of training image data sets;
The generation processing for generating the predicted displacement based on the plurality of training image data sets; and the identification processing for identifying the predicted displacement and the plurality of predetermined displacements as the identification processing. A learning unit that repeatedly executes to train the generation unit and the identification unit;
A learning device characterized by
前記学習部は、前記生成部及び前記識別部の識別的損失を最大化する又は増加させ、前記複数の訓練画像データセットのレジストレーションに対する損失関数を最小化する又は減少させることを特徴とする請求項5記載の学習装置。   The learning unit is characterized by maximizing or increasing discriminative loss of the generating unit and the identifying unit, and minimizing or reducing a loss function for registration of the plurality of training image data sets. The learning device according to Item 5. 前記生成処理は、
前記複数の訓練画像データセットのそれぞれに対して、更なる画像データセットとの間の変換を表す前記予測変位を生成し、
前記識別部は、
前記予測変位が前記生成部により生成された前記予測変位か又は前記予め定めた変位かの識別結果を出力すること、
を特委長とする請求項5又は6記載の学習装置。
The generation process is
Generating, for each of the plurality of training image data sets, the predicted displacement representing a transformation between the further image data set;
The identification unit
Outputting an identification result as to whether the predicted displacement is the predicted displacement generated by the generation unit or the predetermined displacement;
The learning apparatus according to claim 5 or 6, wherein
前記更なる画像データセットは、前記予め定めた変位のうちの1つを使用する前記訓練画像データセットから合成されたものである請求項7記載の学習装置。   8. A learning device according to claim 7, wherein the further image data set is synthesized from the training image data set using one of the predetermined displacements. 前記学習部は、前記予め定めた変位及び前記予測変位の識別において、前記識別部のエラーを最小化する又は減少させることを特徴とする請求項5乃至7のうちいずれか一項記載の学習装置。   The learning device according to any one of claims 5 to 7, wherein the learning unit minimizes or reduces an error of the identification unit in the identification of the predetermined displacement and the predicted displacement. . 前記識別部は、前記予め定めた変位と前記生成部からの前記予測変位とを受け取り、
前記学習部は、前記予め定めた変位と前記予測変位を識別するように前記識別部を訓練すること、を特徴とする請求項5乃至9のうちいずれか一項記載の学習装置。
The identification unit receives the predetermined displacement and the predicted displacement from the generator;
The learning device according to any one of claims 5 to 9, wherein the learning unit trains the identification unit to identify the predetermined displacement and the predicted displacement.
前記識別部は、前記予め定めた変位と前記予測変位との識別において、残差画像データ、差分画像データ、類似性計測、距離関数、のうちの少なくとも一つを用いて前記識別処理を実行する請求項5乃至10のうちいずれか一項記載の学習装置。   The identification unit executes the identification processing using at least one of residual image data, difference image data, similarity measurement, and a distance function in the identification between the predetermined displacement and the predicted displacement. The learning device according to any one of claims 5 to 10. 前記識別部は、多重識別部を有する請求項5乃至11のうちいずれか一項記載の学習装置。   The learning apparatus according to any one of claims 5 to 11, wherein the identification unit has a multiple identification unit. 前記複数の訓練画像データセットは、二次元画像データ又は三次元画像データであることを特徴とする請求項5乃至12のうちいずれか一項記載の学習装置。   The learning apparatus according to any one of claims 5 to 12, wherein the plurality of training image data sets are two-dimensional image data or three-dimensional image data. コンピュータに、
第一の画像データと第二の画像データとを取得させる取得機能と、
前記第一の画像データと前記第二の画像データとの間のレジストレーション処理を実行するための予測変位を生成させる生成機能と、
を実現させ、
前記生成機能は、前記予測変位の生成と識別機能を用いた訓練とを繰り返し実行することで訓練されており、
前記識別機能は、予め定めた変位と前記予測変位とを区別するように訓練されること、
を特徴とする医用画像処理プログラム。
On the computer
An acquisition function for acquiring the first image data and the second image data;
A generation function for generating a predicted displacement for performing registration processing between the first image data and the second image data;
To achieve
The generation function is trained by repeatedly executing the generation of the predicted displacement and training using the identification function,
The identification function is trained to distinguish between a predetermined displacement and the predicted displacement;
Medical image processing program characterized by
生成部及び識別部を学習させる学習プログラムであって、
コンピュータに、
複数の訓練画像データセットと、前記複数の訓練画像データセットに対応する複数の予め定めた変位と、を取得させる取得機能と、
前記生成部が前記複数の訓練画像データセットに基づいて予測変位を生成する生成処理と、前記識別部が前記予測変位と前記複数の予め定めた変位とを識別する識別処理と、を敵対的に繰り返し実行させて前記生成部及び前記識別部を訓練する学習機能と、
を実現させることを特徴とする学習プログラム。
A learning program for learning a generation unit and an identification unit, wherein
On the computer
An acquisition function for acquiring a plurality of training image data sets and a plurality of predetermined displacements corresponding to the plurality of training image data sets;
The generation processing for generating the predicted displacement based on the plurality of training image data sets; and the identification processing for identifying the predicted displacement and the plurality of predetermined displacements as the identification processing. A learning function which is repeatedly executed to train the generation unit and the identification unit;
A learning program characterized by realizing
JP2018240283A 2017-12-22 2018-12-21 Medical image processing device, medical image processing program, learning device and learning program Active JP7325954B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762609431P 2017-12-22 2017-12-22
US62/609,431 2017-12-22
US16/206,388 2018-11-30
US16/206,388 US10878529B2 (en) 2017-12-22 2018-11-30 Registration method and apparatus

Publications (2)

Publication Number Publication Date
JP2019114262A true JP2019114262A (en) 2019-07-11
JP7325954B2 JP7325954B2 (en) 2023-08-15

Family

ID=66951336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018240283A Active JP7325954B2 (en) 2017-12-22 2018-12-21 Medical image processing device, medical image processing program, learning device and learning program

Country Status (2)

Country Link
US (2) US10878529B2 (en)
JP (1) JP7325954B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021521993A (en) * 2018-04-26 2021-08-30 エレクタ、インク.Elekta, Inc. Image enhancement using a hostile generation network
JP2022547594A (en) * 2019-11-22 2022-11-14 エヌイーシー ラボラトリーズ アメリカ インク Joint rolling shutter correction and image deblurring
US11699281B2 (en) 2018-04-13 2023-07-11 Elekta, Inc. Image synthesis using adversarial networks such as for radiation therapy

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10943352B2 (en) * 2018-12-17 2021-03-09 Palo Alto Research Center Incorporated Object shape regression using wasserstein distance
US20210049757A1 (en) * 2019-08-14 2021-02-18 Nvidia Corporation Neural network for image registration and image segmentation trained using a registration simulator
WO2021102436A1 (en) * 2019-11-22 2021-05-27 Northwestern University Analysis tool for performing patient-specific analysis of flows through flexible tubular organs
CN113724301B (en) * 2021-04-23 2023-09-08 天津师范大学 Biological tissue transmission image registration system based on mutual convolution
CN113706450A (en) * 2021-05-18 2021-11-26 腾讯科技(深圳)有限公司 Image registration method, device, equipment and readable storage medium
US11551432B1 (en) 2021-07-16 2023-01-10 The Government of the United States of America, as represented by the Secretary of Homeland Security System and method for training an artificial intelligence (AI) classifier of scanned items
US11379693B1 (en) * 2021-07-16 2022-07-05 The Government of the United States of America, as represented by the Secretary of Homeland Security System and method of new understandable training for AI as applied to electromagnetic sensor detection
US11903760B2 (en) * 2021-09-08 2024-02-20 GE Precision Healthcare LLC Systems and methods for scan plane prediction in ultrasound images
WO2023049210A2 (en) * 2021-09-21 2023-03-30 Hyperfine Operations, Inc. Unsupervised contrastive learning for deformable and diffeomorphic multimodality image registration

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013132402A2 (en) 2012-03-08 2013-09-12 Koninklijke Philips N.V. Intelligent landmark selection to improve registration accuracy in multimodal image fusion
JP5832938B2 (en) 2012-03-15 2015-12-16 富士フイルム株式会社 Image processing apparatus, method, and program
US10087163B2 (en) 2014-04-07 2018-10-02 Eni S.P.A. Process for preparing cyclic acetals which can be used as fuel components
US9740710B2 (en) 2014-09-02 2017-08-22 Elekta Inc. Systems and methods for segmenting medical images based on anatomical landmark-based features
US10102451B2 (en) * 2015-10-13 2018-10-16 Elekta, Inc. Pseudo-CT generation from MR data using tissue parameter estimation
US10002415B2 (en) * 2016-04-12 2018-06-19 Adobe Systems Incorporated Utilizing deep learning for rating aesthetics of digital images
US10346974B2 (en) 2017-05-18 2019-07-09 Toshiba Medical Systems Corporation Apparatus and method for medical image processing
WO2019019199A1 (en) * 2017-07-28 2019-01-31 Shenzhen United Imaging Healthcare Co., Ltd. System and method for image conversion
EP3664705A4 (en) * 2017-08-09 2021-09-29 Allen Institute Systems, devices, and methods for image processing to generate an image having predictive tagging
US10540578B2 (en) * 2017-12-21 2020-01-21 International Business Machines Corporation Adapting a generative adversarial network to new data sources for image classification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BOB D. DE VOS ET AL.: "End-to-End Unsupervised Deformable Image Registration with a Convolutional Neural Network", ARXIV:1704.06065V1, JPN6022044179, 20 April 2017 (2017-04-20), ISSN: 0005005375 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11699281B2 (en) 2018-04-13 2023-07-11 Elekta, Inc. Image synthesis using adversarial networks such as for radiation therapy
JP2021521993A (en) * 2018-04-26 2021-08-30 エレクタ、インク.Elekta, Inc. Image enhancement using a hostile generation network
JP7039153B2 (en) 2018-04-26 2022-03-22 エレクタ、インク. Image enhancement using a hostile generation network
US11501438B2 (en) 2018-04-26 2022-11-15 Elekta, Inc. Cone-beam CT image enhancement using generative adversarial networks
JP2022547594A (en) * 2019-11-22 2022-11-14 エヌイーシー ラボラトリーズ アメリカ インク Joint rolling shutter correction and image deblurring
JP7357150B2 (en) 2019-11-22 2023-10-05 エヌイーシー ラボラトリーズ アメリカ インク Joint rolling shutter correction and image blur removal

Also Published As

Publication number Publication date
US11494871B2 (en) 2022-11-08
US20210073939A1 (en) 2021-03-11
JP7325954B2 (en) 2023-08-15
US10878529B2 (en) 2020-12-29
US20190197662A1 (en) 2019-06-27

Similar Documents

Publication Publication Date Title
JP7325954B2 (en) Medical image processing device, medical image processing program, learning device and learning program
US11257259B2 (en) Topogram prediction from surface data in medical imaging
US11151721B2 (en) System and method for automatic detection, localization, and semantic segmentation of anatomical objects
US10043088B2 (en) Image quality score using a deep generative machine-learning model
US10346974B2 (en) Apparatus and method for medical image processing
US11610313B2 (en) Systems and methods for generating normative imaging data for medical image processing using deep learning
EP3365869B1 (en) System and method for image registration in medical imaging system
US9892361B2 (en) Method and system for cross-domain synthesis of medical images using contextual deep network
US9760983B2 (en) System and method for image registration in medical imaging system
El-Baz et al. Automatic analysis of 3D low dose CT images for early diagnosis of lung cancer
US11615508B2 (en) Systems and methods for consistent presentation of medical images using deep neural networks
EP3107031A1 (en) Method, apparatus and system for spine labeling
Cai et al. Accurate weakly supervised deep lesion segmentation on CT scans: Self-paced 3D mask generation from RECIST
Ramana Alzheimer disease detection and classification on magnetic resonance imaging (MRI) brain images using improved expectation maximization (IEM) and convolutional neural network (CNN)
Soliman et al. Segmentationof pathological lungs from CT chest images
Mazaheri et al. Hybrid pixel-based method for cardiac ultrasound fusion based on integration of PCA and DWT
US9402549B2 (en) Methods and apparatus to estimate ventricular volumes
Sreelekshmi et al. A Review on Multimodal Medical Image Fusion
JP7325310B2 (en) Medical image processing device, medical image analysis device, and standard image creation program
JP7446570B2 (en) Program, learning device, learning method, learned program, and skeleton segmentation device
Jin A Quality Assurance Pipeline for Deep Learning Segmentation Models for Radiotherapy Applications
Nasim et al. Review on multimodality of different medical image fusion techniques
WO2023017438A1 (en) System and method for medical image translation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221222

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7325954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150