JPWO2020041503A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020041503A5
JPWO2020041503A5 JP2021510116A JP2021510116A JPWO2020041503A5 JP WO2020041503 A5 JPWO2020041503 A5 JP WO2020041503A5 JP 2021510116 A JP2021510116 A JP 2021510116A JP 2021510116 A JP2021510116 A JP 2021510116A JP WO2020041503 A5 JPWO2020041503 A5 JP WO2020041503A5
Authority
JP
Japan
Prior art keywords
machine learning
learning system
image
target image
source image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021510116A
Other languages
Japanese (ja)
Other versions
JP2021535482A (en
JP7433297B2 (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2019/047552 external-priority patent/WO2020041503A1/en
Publication of JP2021535482A publication Critical patent/JP2021535482A/en
Publication of JPWO2020041503A5 publication Critical patent/JPWO2020041503A5/ja
Application granted granted Critical
Publication of JP7433297B2 publication Critical patent/JP7433297B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (37)

プロセッサ実行可能命令またはデータの少なくとも1つを格納する、少なくとも1つの非一時的プロセッサ可読記憶媒体と、
前記少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサと、
を備えた機械学習システムであって、
前記少なくとも1つのプロセッサが、作動中、
ラベルなし画像セットの複数のバッチを含む学習データを受信し、各画像セットが少なくとも1人の患者の医用画像スキャンをそれぞれ表すソース画像およびターゲット画像を含み、
1つまたは複数の畳み込みニューラルネットワーク(CNN)モデルをトレーニングして、前記ターゲット画像の前記ソース画像へのコレジストレーションを可能にする前記ラベルなし画像セットの複数のバッチ間の1つまたは複数の変換関数を学習し、
前記1つまたは複数のトレーニングされたCNNモデルを、前記機械学習システムの前記少なくとも1つの非一時的プロセッサ可読記憶媒体に格納する、
機械学習システム。
A non-temporary processor-readable storage medium that stores at least one of a processor executable instruction or data.
With at least one processor communicably coupled to said at least one non-temporary processor readable storage medium.
It is a machine learning system equipped with
While the at least one processor is in operation
Receiving training data containing multiple batches of unlabeled image sets, each image set contains a source image and a target image each representing a medical image scan of at least one patient.
One or more between multiple batches of the unlabeled image set that trains one or more convolutional neural network (CNN) models to allow registration of the target image to the source image. Learn the conversion function of
The one or more trained CNN models are stored in the at least one non-temporary processor readable storage medium of the machine learning system.
Machine learning system.
前記少なくとも1つのプロセッサが教師なしトレーニングアルゴリズムを使用して前記1つまたは複数のCNNモデルをトレーニングする、請求項1に記載の機械学習システム。 The machine learning system of claim 1, wherein the at least one processor trains the one or more CNN models using an unsupervised training algorithm. 前記教師なしトレーニングアルゴリズムが前記ソース画像および前記ターゲット画像のペアから計算され、前記画像上の任意の明示的な人間作成のアノテーションからは計算されない損失関数を含む、請求項2に記載の機械学習システム。 The machine learning system of claim 2, wherein the unsupervised training algorithm comprises a loss function that is calculated from the source image and the pair of target images and not from any explicit human-generated annotation on the image. .. 前記損失関数が前記ソース画像および前記ターゲット画像間のピクセルごとの二乗平均平方根誤差を含む、請求項3に記載の機械学習システム。 The machine learning system of claim 3, wherein the loss function comprises a root mean square error per pixel between the source image and the target image. 微分可能な目的関数が前記ソース画像および前記ターゲット画像間の相互情報損失を含む、請求項3に記載の機械学習システム。 The machine learning system of claim 3, wherein the differentiable objective function comprises a mutual information loss between the source image and the target image. 微分可能な目的関数が前記ソース画像および前記ターゲット画像間のL2損失を含む、請求項3に記載の機械学習システム。 The machine learning system of claim 3, wherein the differentiable objective function comprises an L2 loss between the source image and the target image. 微分可能な目的関数が前記ソース画像および前記ターゲット画像間の中心加重L2損失関数を含む、請求項3に記載の機械学習システム。 The machine learning system of claim 3, wherein the differentiable objective function comprises a center weighted L2 loss function between the source image and the target image. 微分可能な目的関数が前記ソース画像および前記ターゲット画像間の正規化された相互相関損失関数を含む、請求項3に記載の機械学習システム。 The machine learning system of claim 3, wherein the differentiable objective function comprises a normalized cross-correlation loss function between the source image and the target image. 前記ラベルなし画像セットの複数のバッチが2Dまたは3D画像の一方または両方を含む、請求項1に記載の機械学習システム。 The machine learning system of claim 1, wherein the plurality of batches of the unlabeled image set comprises one or both of 2D or 3D images. 前記変換関数がアフィン変換または高密度の非線形対応マップの一方または両方を含む、請求項1に記載の機械学習システム。 The machine learning system of claim 1, wherein the transformation function comprises one or both of an affine transformation or a dense non-linear correspondence map. 前記変換関数が高密度変形フィールド(DDF)を含む前記高密度の非線形対応マップを含む、請求項10に記載の機械学習システム。 10. The machine learning system of claim 10, wherein the transformation function comprises the high density nonlinear correspondence map comprising a high density deformation field (DDF). 前記1つまたは複数のCNNモデルがグローバルネットワークモデルを含み、前記グローバルネットワークモデルが前記学習データを受信しアフィン変換行列を出力する、請求項1に記載の機械学習システム。 The machine learning system according to claim 1, wherein the one or more CNN models include a global network model, and the global network model receives the training data and outputs an affine transformation matrix. 前記アフィン変換行列が前記ソース画像に関して前記ターゲット画像上で計算される、請求項12に記載の機械学習システム。 The machine learning system according to claim 12, wherein the affine transformation matrix is calculated on the target image with respect to the source image. 前記ソース画像および前記ターゲット画像がすべての可能な画像ペアリングの組み合わせを含む、請求項12に記載の機械学習システム。 12. The machine learning system of claim 12, wherein the source image and the target image include all possible combinations of image pairings. 前記ソース画像および前記ターゲット画像が単一の心臓MRスキャンにおけるすべての画像を含む、請求項14に記載の機械学習システム。 15. The machine learning system of claim 14, wherein the source image and the target image include all images in a single cardiac MR scan. 前記ソース画像および前記ターゲット画像が1つまたは複数の異種のMRスキャンボリュームからのすべての画像を含む、請求項14に記載の機械学習システム。 14. The machine learning system of claim 14, wherein the source image and the target image include all images from one or more heterogeneous MR scan volumes. 前記グローバルネットワークモデルが、少なくとも1つの畳み込み層、最大プーリング層、バッチ正規化層、およびドロップアウト層を含む少なくとも1つの層のグループを含む収縮経路を含む、請求項12に記載の機械学習システム。 12. The machine learning system of claim 12, wherein the global network model comprises a contraction path comprising a group of at least one layer including at least one convolution layer, a maximum pooling layer, a batch normalization layer, and a dropout layer. 前記グローバルネットワークモデルが前記収縮経路内の前記層のグループの前記少なくとも1つに続く整流器または漏出性整流器を含む、請求項17に記載の機械学習システム。 17. The machine learning system of claim 17, wherein the global network model comprises a rectifier or a leaky rectifier that follows at least one of the groups of layers in the contraction path. 前記グローバルネットワークモデルによって出力された前記アフィン変換行列がアフィン空間変換レイヤーを含む、請求項12に記載の機械学習システム。 The machine learning system according to claim 12, wherein the affine transformation matrix output by the global network model includes an affine space transformation layer. 前記アフィン変換行列のアフィン変換がスケーリング係数によって制限される、請求項12に記載の機械学習システム。 The machine learning system according to claim 12, wherein the affine transformation of the affine transformation matrix is limited by a scaling coefficient. 前記アフィン変換行列が正則化演算を含む、請求項12に記載の機械学習システム。 The machine learning system according to claim 12, wherein the affine transformation matrix includes a regularization operation. 前記正則化演算が曲げエネルギー損失を含む、請求項21に記載の機械学習システム。 21. The machine learning system of claim 21, wherein the regularization operation comprises bending energy loss. 前記正則化演算が勾配エネルギー損失を含む、請求項21に記載の機械学習システム。 21. The machine learning system of claim 21, wherein the regularization operation comprises gradient energy loss. 前記1つまたは複数のCNNモデルが前記学習データを受信し、ローカルネットワークの高密度変形フィールドを出力するローカルネットワークモデルを含む、請求項1に記載の機械学習システム。 The machine learning system according to claim 1, wherein the one or more CNN models include a local network model that receives the training data and outputs a high density deformation field of the local network. 前記少なくとも1つのプロセッサが前記ターゲット画像をワープしワープターゲット画像を提供して、前記ワープターゲット画像が元のターゲット画像にアフィン変換フィールドを適用することによって取得される、請求項24に記載の機械学習システム。 24. The machine learning of claim 24, wherein the at least one processor warps the target image to provide a warp target image, and the warp target image is acquired by applying an affine transformation field to the original target image. system. 前記ローカルネットワークモデルが収縮経路および拡張経路を含み、前記収縮経路が1つまたは複数の畳み込み層および1つまたは複数のプーリング層を含み、各プーリング層が少なくとも1つの畳み込み層に先行し、前記拡張経路がいくつかの畳み込み層およびいくつかのアップサンプリング層を含み,各アップサンプリング層が少なくとも1つの畳み込み層に先行し、各アップサンプリング層が、少なくとも1つのアップサンプリング演算および学習されたカーネルを備えた補間演算を実行する転置畳み込み演算、または前記補間演算の後に続くアップサンプリング演算を含む、請求項24に記載の機械学習システム。 The local network model comprises a contraction path and an expansion path, the contraction path comprises one or more convolutional layers and one or more pooling layers, each pooling layer precedes at least one convolutional layer, said expansion. The path comprises several convolution layers and several upsampling layers, each upsampling layer precedes at least one convolutional layer, and each upsampling layer comprises at least one upsampling operation and trained kernel. 24. The machine learning system according to claim 24, comprising a translocation convolution operation for executing the interpolation operation, or an upsampling operation following the interpolation operation. 前記ローカルネットワークの高密度変形フィールドの出力が、自由形式類似性空間変換器を含む、請求項24に記載の機械学習システム。 24. The machine learning system of claim 24, wherein the output of the high density deformation field of the local network comprises a free-form similarity space converter. 前記自由形式類似性空間変換器がアフィン変換を含む、請求項27に記載の機械学習システム。 27. The machine learning system of claim 27, wherein the free-form similarity space converter comprises an affine transformation. 前記自由形式類似性空間変換器が高密度自由形式変形フィールドワーピングを含む、請求項27に記載の機械学習システム。 27. The machine learning system of claim 27, wherein the freeform similarity space converter comprises high density freeform transformation field warping. 前記ローカルネットワークの高密度変形フィールドの出力が正則化演算を含む、請求項24に記載の機械学習システム。 24. The machine learning system of claim 24, wherein the output of the high density transformation field of the local network comprises a regularization operation. 前記正則化演算が曲げエネルギー損失を含む、請求項30に記載の機械学習システム。 30. The machine learning system of claim 30, wherein the regularization operation comprises bending energy loss. 前記正則化演算が勾配エネルギー損失を含む、請求項30に記載の機械学習システム。 30. The machine learning system of claim 30, wherein the regularization operation comprises gradient energy loss. 前記1つまたは複数のCNNモデルが、グローバルネットワーク、ローカルネットワーク、および出力された高密度変形フィールドを含む、請求項1に記載の機械学習システム。 The machine learning system of claim 1, wherein the one or more CNN models include a global network, a local network, and an output high density deformation field. 前記少なくとも1つのプロセッサが教師なし微分可能損失関数を使用するアダムオプティマイザを使用して、前記1つまたは複数のCNNモデルを最適化する、請求項1に記載の機械学習システム。 The machine learning system of claim 1, wherein the at least one processor uses an Adam optimizer that uses an unsupervised differentiable loss function to optimize the one or more CNN models. 前記少なくとも1つのプロセッサが前記ソース画像およびワープターゲット画像との間の前記教師なし損失関数を計算する、請求項34に記載の機械学習システム。 34. The machine learning system of claim 34, wherein the at least one processor calculates the unsupervised loss function between the source image and the warp target image. 前記ワープターゲット画像が高密度変形フィールドを元のターゲット画像に適用することによって獲得される、請求項35に記載の機械学習システム。 35. The machine learning system of claim 35, wherein the warp target image is acquired by applying a high density deformation field to the original target image. 前記画像セットが心臓短軸CINE MRシリーズを含む、請求項1に記載の機械学習システム The machine learning system of claim 1, wherein the image set includes the cardiac short axis CINE MR series .
JP2021510116A 2018-08-24 2019-08-21 Deep learning-based coregistration Active JP7433297B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862722663P 2018-08-24 2018-08-24
US62/722,663 2018-08-24
PCT/US2019/047552 WO2020041503A1 (en) 2018-08-24 2019-08-21 Deep learning-based coregistration

Publications (3)

Publication Number Publication Date
JP2021535482A JP2021535482A (en) 2021-12-16
JPWO2020041503A5 true JPWO2020041503A5 (en) 2022-05-30
JP7433297B2 JP7433297B2 (en) 2024-02-19

Family

ID=69591123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021510116A Active JP7433297B2 (en) 2018-08-24 2019-08-21 Deep learning-based coregistration

Country Status (5)

Country Link
US (1) US20210216878A1 (en)
EP (1) EP3821377A4 (en)
JP (1) JP7433297B2 (en)
CN (1) CN112602099A (en)
WO (1) WO2020041503A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11693919B2 (en) * 2020-06-22 2023-07-04 Shanghai United Imaging Intelligence Co., Ltd. Anatomy-aware motion estimation
US11521323B2 (en) * 2020-10-21 2022-12-06 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for generating bullseye plots
US11822620B2 (en) * 2021-02-18 2023-11-21 Microsoft Technology Licensing, Llc Personalized local image features using bilevel optimization
CN113112534B (en) * 2021-04-20 2022-10-18 安徽大学 Three-dimensional biomedical image registration method based on iterative self-supervision
CN113240699B (en) * 2021-05-20 2022-02-08 推想医疗科技股份有限公司 Image processing method and device, model training method and device, and electronic equipment
CN113723456B (en) * 2021-07-28 2023-10-17 南京邮电大学 Automatic astronomical image classification method and system based on unsupervised machine learning
CN113763441B (en) * 2021-08-25 2024-01-26 中国科学院苏州生物医学工程技术研究所 Medical image registration method and system without supervision learning
CN114035656B (en) * 2021-11-09 2023-11-14 吕梁学院 Medical image processing device and method based on deep learning
US20230274386A1 (en) * 2022-02-28 2023-08-31 Ford Global Technologies, Llc Systems and methods for digital display stabilization
CN114693755B (en) * 2022-05-31 2022-08-30 湖南大学 Non-rigid registration method and system for multimode image maximum moment and space consistency
WO2024023911A1 (en) * 2022-07-26 2024-02-01 日本電信電話株式会社 Learning device, learning method, and program
CN115291730B (en) * 2022-08-11 2023-08-15 北京理工大学 Wearable bioelectric equipment and bioelectric action recognition and self-calibration method
CN117173401B (en) * 2022-12-06 2024-05-03 南华大学 Semi-supervised medical image segmentation method and system based on cross guidance and feature level consistency dual regularization

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0917154D0 (en) * 2009-09-30 2009-11-11 Imp Innovations Ltd Method and apparatus for processing medical images
US9552526B2 (en) * 2013-12-19 2017-01-24 University Of Memphis Research Foundation Image processing using cellular simultaneous recurrent network
EP3111373B1 (en) * 2014-02-27 2020-04-08 Koninklijke Philips N.V. Unsupervised training for an atlas-based registration
WO2017091833A1 (en) * 2015-11-29 2017-06-01 Arterys Inc. Automated cardiac volume segmentation
US20170337682A1 (en) * 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent
US10970887B2 (en) 2016-06-24 2021-04-06 Rensselaer Polytechnic Institute Tomographic image reconstruction via machine learning
CN107545584B (en) * 2017-04-28 2021-05-18 上海联影医疗科技股份有限公司 Method, device and system for positioning region of interest in medical image

Similar Documents

Publication Publication Date Title
Maier et al. A gentle introduction to deep learning in medical image processing
US20230368383A1 (en) Method and System for Image Registration Using an Intelligent Artificial Agent
JP7433297B2 (en) Deep learning-based coregistration
US20220028085A1 (en) Method and system for providing an at least 3-dimensional medical image segmentation of a structure of an internal organ
JPWO2020041503A5 (en)
CN109993730B (en) 3D/2D blood vessel registration method and device
CN116012344B (en) Cardiac magnetic resonance image registration method based on mask self-encoder CNN-transducer
CN113902761B (en) Knowledge distillation-based unsupervised segmentation method for lung disease focus
Zhu et al. Test-time training for deformable multi-scale image registration
JP2021190128A (en) System for generating whole body pose
CN114846524A (en) Medical image analysis using machine learning and anatomical vectors
CN114004817A (en) Segmented network semi-supervised training method, system, equipment and storage medium
CN111260702B (en) Laser three-dimensional point cloud and CT three-dimensional point cloud registration method
Yang et al. Reconstruct dynamic soft-tissue with stereo endoscope based on a single-layer network
Laumer et al. Weakly supervised inference of personalized heart meshes based on echocardiography videos
Guo et al. Automatic landmark detection and registration of brain cortical surfaces via quasi-conformal geometry and convolutional neural networks
AU2022241513B2 (en) Transformer-based shape models
JP7490737B2 (en) Smart image navigation for intracardiac echocardiography
CN110717402A (en) Pedestrian re-identification method based on hierarchical optimization metric learning
CN115861396A (en) Medical image registration method based on deep learning
JP7166738B2 (en) Information processing device, information processing method, and program
CN113850710A (en) Cross-modal medical image accurate conversion method
CN111667515A (en) Manifold regularization-based blood vessel 3D/2D elastic registration method and device
Cai et al. Ske2Grid: skeleton-to-grid representation learning for action recognition
Shu et al. Non-rigid Medical Image Registration Based on Unsupervised Self-driven Prior Fusion