JP2023133132A - Transformer feature sharing-based pet image reconstruction method, apparatus and device and medium - Google Patents

Transformer feature sharing-based pet image reconstruction method, apparatus and device and medium Download PDF

Info

Publication number
JP2023133132A
JP2023133132A JP2023007950A JP2023007950A JP2023133132A JP 2023133132 A JP2023133132 A JP 2023133132A JP 2023007950 A JP2023007950 A JP 2023007950A JP 2023007950 A JP2023007950 A JP 2023007950A JP 2023133132 A JP2023133132 A JP 2023133132A
Authority
JP
Japan
Prior art keywords
image
pet
encoder
decoder
pet image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023007950A
Other languages
Japanese (ja)
Other versions
JP7246116B1 (en
Inventor
聞▲タオ▼ 朱
Wentao Zhu
宝 楊
Bao Yang
元鋒 呉
Yuanfeng Wu
少杰 李
Shaojie Li
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Application granted granted Critical
Publication of JP7246116B1 publication Critical patent/JP7246116B1/en
Publication of JP2023133132A publication Critical patent/JP2023133132A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Nuclear Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

To provide transformer feature sharing-based PET image reconstruction method, apparatus and device, and medium.SOLUTION: The invention comprises the steps: obtaining a back projection image containing PET original data information; and obtaining a PET image with a pre-trained PET image reconstruction network model based on transformer feature sharing. The PET image reconstruction network model is composed of two groups of encoders-decoders, one group establishes mapping from a PET back projection image to a PET reconstruction image, and the other group establishes mapping from the PET back projection image to a prior information image. Meanwhile, the two groups of encoders-decoders are optimized, so that noise in the target PET image is reduced by utilizing a prior information image, and image detail information is reserved at the same time. And a transform unit is used between the two groups of encoders, so that parameter sharing of the autonomous learning encoders in a reconstruction network training process is realized, reconstruction errors are further reduced, and the quality of the reconstructed image is improved.SELECTED DRAWING: Figure 1

Description

本発明は、医用画像技術の分野に関し、特に、トランスフォーマ(transformer)特徴共有に基づくPET画像再構成方法、装置、デバイス及び媒体に関する。 The present invention relates to the field of medical imaging technology, and in particular to PET image reconstruction methods, apparatus, devices and media based on transformer feature sharing.

陽電子放出断層撮影(Positron Emission Tomography、PET)は、人体の生物学的機能・代謝情報及び形態学・解剖学的構造情報を同時に提供できる医用画像技術であり、腫瘍の診断、神経精神疾患、心血管疾患の診断・治療及び評価などの臨床応用に広く用いられている。PET画像を生成するプロセスは、スキャン前に患者に放射性トレーサーを注入することと、トレーサーが体内の生理学的代謝に参加する際に崩壊して陽電子を生成することと、陽電子が近くの組織の中の電子と対消滅して逆方向に移動する高エネルギーの光子対を生成することと、反対の位置にある2つの検出器で光子対の一致検出を行って一致応答線を記録することと、一定数の一致応答線を収集し、位置及び角度情報に従って三次元PET生データとして配列することと、生データを補正した後、再構成アルゴリズムを用いて体内の各組織の代謝強度を表現する三次元PET画像を得ることとを含む。 Positron emission tomography (PET) is a medical imaging technology that can simultaneously provide biological function/metabolic information as well as morphological/anatomical structural information of the human body, and is useful for tumor diagnosis, neuropsychiatric disorders, and cardiac disease. It is widely used for clinical applications such as diagnosis, treatment, and evaluation of vascular diseases. The process of producing a PET image involves injecting a radioactive tracer into the patient before the scan, and as the tracer takes part in physiological metabolism in the body, it decays to produce positrons, which are then released into nearby tissues. generating a high-energy photon pair that annihilates with an electron and moves in the opposite direction; detecting a coincidence of the photon pair with two detectors at opposite positions and recording a coincidence response line; A certain number of matched response lines are collected and arranged as three-dimensional PET raw data according to position and angle information, and after correcting the raw data, a reconstruction algorithm is used to express the metabolic intensity of each tissue in the body. obtaining an original PET image.

コンピュータハードウェアのアップグレード及びディープラーニング技術の急速な発展に伴い、近年、ディープラーニングに基づくPET画像再構成ネットワークの構築がホットな課題となっている。そのうち、エンコーダとデコーダを用いた低品質のPET画像と高品質のPET画像の間のエンドツーエンドのマッピングの確立や、PET生データとPET画像の間のマッピングの確立などの技術は進歩を遂げている。しかしながら、単一の符号化-復号構造に基づく既存の再構成ネットワークは再構成プロセスにおいて他のモダリティの医用画像(例えば、コンピュータ断層撮影CT、磁気共鳴画像法MRI)に存在するPET画像に関する事前知識を導入できないため、PET画像の品質は依然として向上する余地がある。 With the upgrade of computer hardware and the rapid development of deep learning technology, the construction of a PET image reconstruction network based on deep learning has become a hot topic in recent years. Over time, advances have been made in techniques such as establishing end-to-end mapping between low-quality and high-quality PET images using encoders and decoders, and establishing mapping between PET raw data and PET images. ing. However, existing reconstruction networks based on a single encoding-decoding structure rely on prior knowledge about PET images present in medical images of other modalities (e.g. computed tomography CT, magnetic resonance imaging MRI) in the reconstruction process. Since it is not possible to introduce PET images, there is still room for improvement in the quality of PET images.

複数組のエンコーダ-デコーダから構成されるマルチタスクディープニューラルネットワークはすでに自然画像及び医用画像の分割、検出などのタスクへの適用に成功している。当該ネットワーク構造は、メインタスクにサブタスクの事前情報を導入することを実現でき、そのネットワーク構造でよく用いられる特徴共有方式は、エンコーダ共用、又は畳み込みベースの空間、チャネルアテンションメカニズムを用いるエンコーダのパラメータ共有の学習である。エンコーダ共用の強制的なパラメータ共有と比べて、学習可能なパラメータ共有メカニズムは、ネットワークトレーニングをより優れるソリューションに導くことができる。それにも関わらず、既存の畳み込みベースのパラメータ共有の学習はグローバル性を欠いており、局所的な特徴間のアテンション係数を計算して、局所的なパラメータ共有しか実現できない。一方、従来の畳み込み構造に代わるトランスフォーマというネットワーク構造は、テキスト翻訳や音声認識などの分野で画期的な進歩を遂げている。トランスフォーマはグローバルなマルチヘッド自己アテンションメカニズム及び多層パーセプトロンから構成される。 Multitask deep neural networks consisting of multiple sets of encoders and decoders have already been successfully applied to tasks such as segmentation and detection of natural and medical images. The network structure can realize the introduction of prior information of subtasks into the main task, and the feature sharing methods commonly used in the network structure are encoder sharing, or encoder parameter sharing using convolution-based spatial and channel attention mechanisms. It is learning. Compared to encoder-shared forced parameter sharing, a learnable parameter sharing mechanism can lead network training to a better solution. Nevertheless, existing convolution-based parameter sharing learning lacks globality and can only realize local parameter sharing by calculating attention coefficients between local features. Meanwhile, a network structure called a transformer, which replaces the traditional convolutional structure, is making groundbreaking progress in fields such as text translation and speech recognition. The transformer consists of a global multi-head self-attention mechanism and a multilayer perceptron.

本発明の目的は、ディープラーニングに基づく既存のPET画像再構成技術の欠点に対し、トランスフォーマ特徴共有に基づくPET画像再構成方法、装置、デバイス及び媒体を提供することである。 An object of the present invention is to provide a PET image reconstruction method, apparatus, device and medium based on transformer feature sharing to address the shortcomings of existing PET image reconstruction techniques based on deep learning.

本発明は、トランスフォーマの構造及び機能に基づいて、トランスフォーマ特徴共有に基づく新規なPET画像再構成ネットワークモデルを構築する。当該モデルは、2組のエンコーダ-デコーダから構成され、そのうち1組のエンコーダ-デコーダはPET逆投影画像とPET再構成画像の間のマッピングを確立し、もう1組のエンコーダ-デコーダはPET逆投影画像と事前情報画像の間のマッピングを確立し、2組のエンコーダ-デコーダを同時に最適化することにより、事前情報画像中の事前知識を用いてPET画像再構成ネットワークの再構成誤差を低減することを実現する。2組のエンコーダの間で、畳み込みベースのアテンションメカニズムの代わりにトランスフォーマユニットを用いて、再構成ネットワークのトレーニングプロセスでエンコーダのパラメータ共有の自己学習を実現し、具体的には、トランスフォーマユニットに基づくインターリーブ接続を設計し、グローバルなチャネル及び空間的アテンション係数の計算を実現することにより、再構成ネットワークのトレーニングプロセスでエンコーダのパラメータ共有は自己学習され、ネットワークの再構成誤差をさらに低減し、再構成PET画像の品質を改善する。 Based on the structure and function of transformers, the present invention constructs a novel PET image reconstruction network model based on transformer feature sharing. The model consists of two encoder-decoder sets, one set of encoder-decoders establishes the mapping between the PET backprojection image and the PET reconstructed image, and the other set of encoder-decoders establishes the mapping between the PET backprojection image and the PET reconstructed image. To reduce the reconstruction error of PET image reconstruction network using prior knowledge in prior information images by establishing a mapping between images and prior information images and optimizing two sets of encoder-decoders simultaneously. Realize. A transformer unit is used instead of a convolution-based attention mechanism between two sets of encoders to realize self-learning of encoder parameter sharing in the training process of the reconstruction network, specifically, interleaving based on the transformer unit. By designing the connections and realizing the calculation of global channel and spatial attention coefficients, the parameter sharing of the encoder is self-learning in the training process of the reconstruction network, further reducing the reconstruction error of the network, and improving the reconstruction PET Improve image quality.

本発明は、次の技術的解決手段により実現される。
トランスフォーマ特徴共有に基づくPET画像再構成方法であって、
PET生データ情報を含む逆投影画像を得るステップと、
前記PET生データ情報を含む逆投影画像を予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルに入力して、PET画像を得るステップと、を含む。
The present invention is realized by the following technical solutions.
A PET image reconstruction method based on transformer feature sharing, the method comprising:
obtaining a backprojection image containing PET raw data information;
inputting the back-projection image containing the PET raw data information into a pre-trained transformer feature sharing based PET image reconstruction network model to obtain a PET image.

トランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルは、第1エンコーダ-デコーダと、第2エンコーダ-デコーダと、少なくとも1つのトランスフォーマユニットとを含み、第1エンコーダ-デコーダは逆投影画像をマッピングして予測PET画像を生成するために用いられ、第2エンコーダ-デコーダは逆投影画像をマッピングして予測事前情報画像を生成するために用いられ、事前情報画像はPET画像と同じバッチで収集される他のモダリティの画像の1種であり、トランスフォーマユニットは第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における畳み込みユニットを接続し、第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における畳み込みユニットの出力を受信し、処理後の出力を第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における次の畳み込みユニットに送り込むために用いられ、各トランスフォーマユニットは順に接続されたアテンションメカニズムモジュール及び多層パーセプトロンモジュールを含み、
前記予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルは、トレーニングデータセットに基づいて、第1エンコーダ-デコーダによって生成される予測PET画像、第2エンコーダ-デコーダによって生成される予測事前情報画像と真値との損失を最小にし、第1エンコーダ-デコーダによって生成される予測PET画像と第2エンコーダ-デコーダによって生成される予測事前情報画像との間の構造的類似性を最大にすることを目的としてトレーニングすることにより得られる。
The PET image reconstruction network model based on transformer feature sharing includes a first encoder-decoder, a second encoder-decoder, and at least one transformer unit, the first encoder-decoder mapping and predicting a backprojected image. A second encoder-decoder is used to map the back-projection image to generate a predictive prior information image, which is used to generate a predicted prior information image from other images collected in the same batch as the PET images. A type of image of modality, the transformer unit connects the convolution unit in the first encoder-decoder, the second encoder-decoder encoding structure, and the convolution unit in the first encoder-decoder, second encoder-decoder encoding structure. and feed the processed output to the next convolution unit in the first encoder-decoder, second encoder-decoder encoding structure, each transformer unit being connected in turn to an attention mechanism module and a multi-layer Contains a perceptron module,
The PET image reconstruction network model based on pre-trained transformer feature sharing comprises a predicted PET image generated by a first encoder-decoder, a predicted a priori information generated by a second encoder-decoder, based on a training data set. Minimizing the image-to-truth loss and maximizing the structural similarity between the predicted PET image generated by the first encoder-decoder and the predicted a priori information image generated by the second encoder-decoder. This can be obtained by training for the purpose of

さらに、
前記トレーニングデータセット中の各組のトレーニングデータは、PET生データ情報を含む逆投影画像、再構成して得られたPET画像及び事前情報画像を含むことをさらに含む。
moreover,
Each set of training data in the training data set further includes a back-projected image including PET raw data information, a reconstructed PET image, and a priori information image.

さらに、前記事前情報画像は、PET画像と同じバッチで収集されるCT画像又はMRI画像である。 Furthermore, the prior information image is a CT image or an MRI image acquired in the same batch as the PET image.

さらに、前記PET生データ情報を含む逆投影画像は、
PET生データを正則化、減衰、ランダム化、散乱補正した後、画像領域に逆投影して、PET生データ情報を含む逆投影画像を得ることで得られる。
Furthermore, the back projection image containing the PET raw data information is
It is obtained by regularizing, attenuating, randomizing, and scattering correcting the PET raw data and then back-projecting it onto the image area to obtain a back-projected image containing the PET raw data information.

さらに、前記PET画像は、
物理的に補正されたPET生データを反復再構成することでPET画像を得ることで得られる。
Furthermore, the PET image is
It is obtained by repeatedly reconstructing physically corrected PET raw data to obtain a PET image.

さらに、前記アテンションメカニズムモジュールは、第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における畳み込みユニットの出力スプライシング特徴に基づいてクエリベクトルグループ、キーワードベクトルグループ、特徴ベクトルグループを得て、クエリベクトルグループ中の各ベクトルをキーワードベクトルグループ中の全てのベクトルと順に内積演算を行い、内積演算により対応するベクトルの自身及び他の全てのベクトルに対するアテンションパラメータを得て、得られたアテンションパラメータを用いて特徴ベクトルグループ中の全てのベクトルの加重和を計算して、対応する特徴ベクトルの更新を完了し、さらに全ての特徴ベクトルを順に更新し、更新後の全ての特徴ベクトルをスプライシングし、出力特徴を算出し、出力特徴と畳み込みユニットの出力スプライシング特徴を加算する結果をアテンションメカニズムモジュールの最終出力とするために用いられる。 Further, the attention mechanism module obtains a query vector group, a keyword vector group, a feature vector group based on the output splicing features of the convolution unit in the first encoder-decoder, second encoder-decoder encoding structure, and obtains the query vector group. Perform an inner product operation on each vector in the keyword vector group with all vectors in the keyword vector group in order, obtain the attention parameters of the corresponding vector for itself and all other vectors by the inner product operation, and use the obtained attention parameters to calculate the features. Calculate the weighted sum of all vectors in the vector group, complete the update of the corresponding feature vector, then update all feature vectors in order, splice all updated feature vectors, and calculate the output feature. Then, the result of adding the output features and the output splicing features of the convolution unit is used to be the final output of the attention mechanism module.

PET画像再構成装置であって、前記装置は、
PET生データ情報を含む逆投影画像を得るための画像取得モジュールと、
前記PET生データ情報を含む逆投影画像を予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルに入力して、PET画像を得るための再構成モジュールと、を含む。
A PET image reconstruction device, the device comprising:
an image acquisition module for obtaining backprojection images containing PET raw data information;
a reconstruction module for inputting the back-projection image containing the PET raw data information into a pre-trained transformer feature sharing based PET image reconstruction network model to obtain a PET image.

さらに、前記装置は、
トレーニングデータセットに基づいて、第1エンコーダ-デコーダによって生成される予測PET画像、第2エンコーダ-デコーダによって生成される予測事前情報画像と真値との損失を最小にし、第1エンコーダ-デコーダによって生成される予測PET画像と第2エンコーダ-デコーダによって生成される予測事前情報画像との間の構造的類似性を最大にすることを目的としてトレーニングすることにより予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルを得るためのトレーニングモジュールをさらに含む。
Furthermore, the device includes:
Based on the training data set, minimize the loss between the predicted PET image generated by the first encoder-decoder, the predicted a priori information image generated by the second encoder-decoder, and the true value, and generate the predicted PET image by the first encoder-decoder. a PET image based on pre-trained transformer feature sharing by training with the aim of maximizing the structural similarity between the predicted PET image to be generated and the predicted a priori information image generated by the second encoder-decoder; It further includes a training module for obtaining a reconstructed network model.

メモリと、プロセッサと、メモリに記憶され、プロセッサにおいて動作できるコンピュータプログラムとを含む電子デバイスであって、前記プロセッサが前記コンピュータプログラムを実行すると、前記PET画像再構成方法を実施する。 An electronic device including a memory, a processor, and a computer program stored in the memory and operable on the processor, wherein when the processor executes the computer program, the PET image reconstruction method is performed.

コンピュータ実行可能命令を含む記憶媒体であって、前記コンピュータ実行可能命令がコンピュータプロセッサによって実行されると、前記PET画像再構成方法が実施される。 A storage medium containing computer-executable instructions that, when executed by a computer processor, perform the PET image reconstruction method.

本発明は、既存のPET画像再構成方法と比べて、次の有益な効果を有する。本発明は、2組のエンコーダ-デコーダを同時にトレーニングすることによりPET逆投影画像からPET再構成画像及び他のモダリティの医用画像(例えば、CT、MRI)へのマッピングを実現し、CT又はMRI画像中の事前情報を、PET画像再構成の品質を向上させ、再構成ネットワークの汎化能力を改善するために用いる。本発明は、畳み込み層の代わりにトランスフォーマユニットを用いて、2組のエンコーダをインターリーブ接続して、異なるチャネル、異なる空間的位置特徴の間のグローバル性を計算するアテンションメカニズムを実現することを提案し、局所的な特徴に基づく畳み込みネットワークによって実現される既存のアテンションメカニズムの性能より優れる。また、本発明は、1つの損失関数を最適化することにより、2組のエンコーダの間で特徴共有をいかに行うかの自己学習を実現し、1つのエンコーダを共用する既存のネットワーク構造と比べて、有用な情報を選択的に増やし、無用な情報を捨てることを実現することにより、ネットワークの最適なソリューションに近づく。 The present invention has the following beneficial effects compared to existing PET image reconstruction methods. The present invention realizes mapping from PET backprojection images to PET reconstructed images and medical images of other modalities (e.g., CT, MRI) by training two encoder-decoder sets simultaneously, The prior information in is used to improve the quality of PET image reconstruction and improve the generalization ability of the reconstruction network. The present invention proposes to use a transformer unit instead of a convolution layer and connect two sets of encoders in an interleaved manner to realize an attention mechanism to calculate globality between different channels and different spatial location features. , outperforms existing attention mechanisms realized by convolutional networks based on local features. Furthermore, by optimizing one loss function, the present invention realizes self-learning on how to share features between two sets of encoders, and compared to existing network structures that share one encoder, By selectively increasing useful information and discarding useless information, we approach an optimal network solution.

本発明の実施例1によって提供されるトランスフォーマ特徴共有に基づくPET画像再構成方法のフローの概略図である。1 is a schematic diagram of the flow of a PET image reconstruction method based on transformer feature sharing provided by Example 1 of the present invention; FIG. 本発明の実施例1によって提供されるトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルの構造図である。FIG. 2 is a structural diagram of a PET image reconstruction network model based on transformer feature sharing provided by Example 1 of the present invention; 本発明の実施例1によって提供されるアテンションメカニズムモジュールの動作の概略図である。FIG. 3 is a schematic diagram of the operation of the attention mechanism module provided by the embodiment 1 of the present invention; 本発明の実施例1によって提供されるトランスフォーマ特徴共有に基づくPET画像再構成方法と単一のエンコーダ-デコーダに基づくPET画像再構成方法の再構成結果の比較図である。FIG. 2 is a comparison diagram of the reconstruction results of the PET image reconstruction method based on transformer feature sharing and the PET image reconstruction method based on a single encoder-decoder provided by Example 1 of the present invention. 本発明の実施例2によって提供されるPET再構成装置の構造概略図である。FIG. 2 is a structural schematic diagram of a PET reconstruction device provided by Example 2 of the present invention; 本発明の実施例3によって提供される電子デバイスの構造概略図である。FIG. 3 is a structural schematic diagram of an electronic device provided by Example 3 of the present invention;

例示的な実施例をここで詳細に説明し、その例示は添付の図面に示される。以下の説明が図面に言及している場合、特に断りのない限り、異なる図面の同じ番号は、同じ又は類似の要素を示す。以下の例示的な実施例に記載の実施形態は、本発明と一致する全ての実施形態を表すわけではない。それどころか、それらは、添付の特許請求の範囲に詳述されているような、本発明のいくつかの態様と一致する装置及び方法の例に過ぎない。 Exemplary embodiments will now be described in detail, examples of which are illustrated in the accompanying drawings. Where the following description refers to drawings, the same numbers in different drawings indicate the same or similar elements, unless stated otherwise. The embodiments described in the illustrative examples below do not represent all embodiments consistent with the present invention. On the contrary, they are merely examples of apparatus and methods consistent with certain aspects of the invention, as detailed in the appended claims.

本発明で使用される用語は、特定の実施例を説明するためのものに過ぎず、本発明を限定するものではない。 The terminology used in the present invention is for the purpose of describing particular embodiments only and is not intended to limit the invention.

本発明及び添付の特許請求の範囲で使用される単数形「一種」、「前記」及び「当該」は、文脈が明らかに他の意味を示さない限り、複数形も含むことを意図している。また、本明細書において使用される用語「及び/又は」は、1つ又は複数の関連する列挙された項目の任意の又は全ての可能な組み合わせを指し、包含することを理解されたい。 As used in this invention and the appended claims, the singular forms "a", "a", and "the" are intended to include the plural as well, unless the context clearly dictates otherwise. . It should also be understood that the term "and/or" as used herein refers to and encompasses any or all possible combinations of one or more of the associated listed items.

なお、本発明では「第1」、「第2」、「第3」などの用語で様々な情報を説明するかもしれないが、これらの情報はこれらの用語に限定されない。これらの用語は同じタイプの情報を互いに区別するためだけに用いられる。例えば、本発明の範囲から逸脱しない限り、第1情報は第2情報とも呼ばれてもよいし、同様に、第2情報は第1情報と呼ばれてもよい。文脈によって、ここで使用される言葉「もし」は、「…とき」又は「…と」又は「決定に応じて」と解釈されてもよい。 Note that in the present invention, various information may be explained using terms such as "first," "second," and "third," but these information are not limited to these terms. These terms are only used to distinguish information of the same type from each other. For example, first information may also be referred to as second information, and similarly, second information may be referred to as first information without departing from the scope of the invention. Depending on the context, the word "if" as used herein may be interpreted as "when" or "with" or "as determined."

実施例1:図1は、本発明の実施例1によって提供されるトランスフォーマ特徴共有に基づくPET画像再構成方法のフローの概略図であり、図1に示されるように、当該方法は、具体的に以下のステップを含む。
ステップ101、PET生データ情報を含む逆投影画像を得る。
具体的には、PET生データを正則化、減衰、ランダム化、散乱補正した後、画像領域に逆投影して、生データ情報を含む逆投影画像を得る。
Embodiment 1: FIG. 1 is a flow diagram of a PET image reconstruction method based on transformer feature sharing provided by Embodiment 1 of the present invention, and as shown in FIG. includes the following steps:
Step 101: Obtain a backprojection image containing PET raw data information.
Specifically, the PET raw data is regularized, attenuated, randomized, and scatter-corrected, and then back-projected onto the image area to obtain a back-projected image containing the raw data information.

ステップ102、前記PET生データ情報を含む逆投影画像を予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルに入力して、PET画像を得る。 Step 102, inputting the back-projection image containing the PET raw data information into a pre-trained PET image reconstruction network model based on transformer feature sharing to obtain a PET image.

トランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルは、第1エンコーダ-デコーダと、第2エンコーダ-デコーダと、トランスフォーマユニットとを含み、第1エンコーダ-デコーダは逆投影画像をマッピングして予測PET画像を生成するために用いられ、第2エンコーダ-デコーダは逆投影画像をマッピングして予測事前情報画像を生成するために用いられ、前記事前情報画像はPET画像と同じバッチで収集される他のモダリティの画像の1種であり、トランスフォーマユニットは第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における畳み込みユニットを接続し、第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における畳み込みユニットの出力を受信し、処理後の出力を第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における次の畳み込みユニットに送り込むために用いられ、各トランスフォーマユニットは順に接続されたアテンションメカニズムモジュール及び多層パーセプトロンモジュールを含む。 The PET image reconstruction network model based on transformer feature sharing includes a first encoder-decoder, a second encoder-decoder, and a transformer unit, and the first encoder-decoder maps a backprojected image to generate a predicted PET image. a second encoder-decoder is used to map the back-projection image to generate a predictive prior information image, said prior information image being acquired in the same batch as the PET images of other modalities; The transformer unit connects the convolution unit in the first encoder-decoder, second encoder-decoder encoding structure, and connects the convolution unit in the first encoder-decoder, second encoder-decoder encoding structure. The transformer unit is used to receive the output and feed the processed output to the next convolution unit in the first encoder-decoder, second encoder-decoder encoding structure, and each transformer unit is connected in turn to an attention mechanism module and a multilayer perceptron. Contains modules.

前記エンコーダ-デコーダは、一般的なニューラルネットワーク構造であり、複数の畳み込みユニット及び逆畳み込みユニットから構成される。 The encoder-decoder has a general neural network structure and is composed of a plurality of convolution units and deconvolution units.

本発明は、エンコーダ-デコーダを確立して、マッピングにより、それぞれ予測PET画像及び予測事前情報画像を生成し、事前情報画像中の事前知識を用いて目標PET画像中のノイズを低減しつつ、画像の詳細情報を保持し、同時にトランスフォーマユニットがマルチヘッド自己アテンションメカニズム及び多層パーセプトロンから構成されることを利用して、グローバルなアテンション係数を計算することができ、2組のエンコーダの間で、トランスフォーマユニットに基づくインターリーブ接続を設計し、グローバルなチャネル及び空間的なアテンション係数の計算を実現することにより、再構成ネットワークのトレーニングプロセスでエンコーダのパラメータ共有は自己学習され、ネットワークの再構成誤差をさらに低減し、再構成PET画像の品質を改善する。 The present invention establishes an encoder-decoder to generate a predicted PET image and a predicted prior information image by mapping, respectively, and uses the prior knowledge in the prior information image to reduce the noise in the target PET image while At the same time, by using the fact that the transformer unit is composed of a multi-head self-attention mechanism and a multi-layer perceptron, the global attention coefficient can be calculated, and between the two sets of encoders, the transformer unit By designing interleaved connections based on , and realizing the calculation of global channel and spatial attention coefficients, the encoder parameter sharing is self-learning in the training process of the reconstruction network, which further reduces the reconstruction error of the network. , improving the quality of reconstructed PET images.

前記事前情報画像は、PET画像と同じバッチで収集される他のモダリティの画像の1種を指し、例えば、CT画像、MRI画像などである。事前情報画像の収集とPET画像の収集の時間間隔が短く、体内の各臓器、組織の構造変化が無視できるため、事前情報画像とPET画像は同じ解剖学的構造を有する。また、事前情報画像はPET画像より高い解像度を有するため、事前情報画像の局所的な平滑性を利用してPET画像の対応する臓器、組織の内部のノイズを低減し、構造の詳細情報を保持することができる。 The prior information image refers to one type of image of another modality that is collected in the same batch as the PET image, such as a CT image or an MRI image. Since the time interval between collecting the prior information image and collecting the PET image is short and structural changes in each organ and tissue in the body can be ignored, the prior information image and the PET image have the same anatomical structure. In addition, since the prior information image has a higher resolution than the PET image, the local smoothness of the prior information image is used to reduce internal noise of the organ or tissue corresponding to the PET image, preserving detailed structural information. can do.

前記トランスフォーマユニットは1つでも複数でもよく、第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造におけるいずれかの畳み込みユニットを接続するために用いられてもよく、好ましくは、図2が、本発明の実施例1によって提供されるトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルの構造図であり、前記トランスフォーマユニットの数と第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における畳み込みユニットの数は同じであり、各組の畳み込みユニットについてエンコーダパラメータの共有は自己学習され、再構成PET画像の品質を最大限に改善する。 The transformer unit may be one or more and may be used to connect any convolution unit in the first encoder-decoder, second encoder-decoder encoding structure, preferably as shown in FIG. FIG. 2 is a structural diagram of a PET image reconstruction network model based on transformer feature sharing provided by embodiment 1 of the invention, with the number of transformer units and convolution units in the first encoder-decoder and second encoder-decoder encoding structures; The number is the same and the sharing of encoder parameters for each set of convolution units is self-learned to maximize the quality of reconstructed PET images.

前記エンコーダ-デコーダ符号化構造における畳み込みユニットの出力は、複数のチャネルから構成され、好ましい実施形態として、前記アテンションメカニズムモジュールは各チャネルについて、図3に示されるように操作処理を行い、具体的には次のとおりである。
第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における畳み込みユニットの出力スプライシング特徴の各チャネルのデータに基づいて投影行列W qry、W key、W valによって(iはi番目のチャネルを表す)、それぞれクエリベクトルグループ、キーワードベクトルグループ、特徴ベクトルグループとして投影し、クエリベクトルグループ中の各ベクトルをキーワードベクトルグループ中の全てのベクトルと順に内積演算を行い、内積演算により対応するベクトルの自身及び他の全てのベクトルに対するアテンションパラメータを得て、得られたアテンションパラメータを用いて特徴ベクトルグループ中の全てのベクトルの加重和を計算して、対応する特徴ベクトルの更新を完了し、さらに全ての特徴ベクトルを順に更新し、前記ステップを繰り返して他のチャネルの特徴ベクトルグループの更新を完了する。更新後の各チャネルの特徴ベクトルグループをスプライシングし、投影行列Wによって出力特徴1を算出し、出力特徴1と畳み込みユニットの出力スプライシング特徴を加算する結果をアテンションメカニズムモジュールの最終出力とする。
The output of the convolution unit in the encoder-decoder encoding structure is composed of a plurality of channels, and in a preferred embodiment, the attention mechanism module performs the operation processing as shown in FIG. 3 for each channel, specifically is as follows.
The output splicing features of the convolution unit in the first encoder-decoder and the second encoder-decoder encoding structure are determined by projection matrices W i qry , W i key , W i val (where i is the i-th channel ), respectively, and project each vector in the query vector group as a query vector group, keyword vector group, and feature vector group, perform an inner product operation on each vector in the query vector group with all vectors in the keyword vector group in order, and calculate the corresponding vector by the inner product operation. Obtain the attention parameters for itself and all other vectors, use the obtained attention parameters to calculate the weighted sum of all vectors in the feature vector group, complete the update of the corresponding feature vector, and then The feature vectors of the other channels are updated one after another, and the steps are repeated to complete the update of the feature vector groups of other channels. The updated feature vector group of each channel is spliced, the output feature 1 is calculated by the projection matrix W o , and the result of adding the output feature 1 and the output splicing feature of the convolution unit is the final output of the attention mechanism module.

単一のチャネルのあるベクトルの特徴ベクトルに対する更新方法は次のように表されてもよい。
ただし、fは第1エンコーダ-デコーダ及び第2エンコーダ-デコーダにおける畳み込みユニットの単一のチャネルから出力されるスプライシング特徴である。f qry、(W keyτ、f valは3つの投影演算である。softmax()は非線形活性化関数であり、dは単一のチャネルの特徴ベクトルグループの次元である。上記で提案されるアテンションメカニズムモジュールは畳み込み層の代わりに、2組のエンコーダをインターリーブ接続して、異なるチャネル、異なる空間的位置特徴の間のグローバル性を計算するアテンションメカニズムを実現し、局所的な特徴に基づく畳み込みネットワークによって実現される既存のアテンションメカニズムの性能より優れる。
An update method for a feature vector of a vector of a single channel may be expressed as follows.
where f i is the splicing feature output from a single channel of the convolution unit in the first encoder-decoder and the second encoder-decoder. f i W i qry , (W i key ) τ f i , f i W i val are three projection operations. softmax( ) is a nonlinear activation function and d is the dimension of the single channel feature vector group. The attention mechanism module proposed above connects two sets of encoders in an interleaved manner instead of a convolutional layer to realize an attention mechanism that calculates the globality between different channels and different spatial location features, and Outperforms existing attention mechanisms realized by feature-based convolutional networks.

前記予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルは、トレーニングデータセットに基づいて、第1エンコーダ-デコーダによって生成される予測PET画像、第2エンコーダ-デコーダによって生成される予測事前情報画像と真値との損失を最小にし、第1エンコーダ-デコーダによって生成される予測PET画像と第2エンコーダ-デコーダによって生成される予測事前情報画像との間の構造的類似性を最大にすることを目的としてトレーニングすることにより得られる。 The PET image reconstruction network model based on pre-trained transformer feature sharing comprises a predicted PET image generated by a first encoder-decoder, a predicted a priori information generated by a second encoder-decoder, based on a training data set. Minimizing the image-to-truth loss and maximizing the structural similarity between the predicted PET image generated by the first encoder-decoder and the predicted a priori information image generated by the second encoder-decoder. This can be obtained by training for the purpose of

具体的に、前記トレーニングデータセット中の各組のトレーニングデータは、PET生データ情報を含む逆投影画像、再構成して得られたPET画像及び事前情報画像を含む。PET生データ情報を含む逆投影画像はトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルの入力となり、再構成して得られたPET画像は第1エンコーダ-デコーダの学習ラベル(第1エンコーダ-デコーダによって生成される予測PET画像に対応する真値)となり、事前情報画像は第2エンコーダ-デコーダの学習ラベル(第2エンコーダ-デコーダによって生成される予測事前情報画像に対応する真値)となる。 Specifically, each set of training data in the training data set includes a back-projection image including PET raw data information, a reconstructed PET image, and a priori information image. The back-projection image containing PET raw data information becomes the input of the PET image reconstruction network model based on transformer feature sharing, and the reconstructed PET image is used as the learning label of the first encoder-decoder (by the first encoder-decoder). The prior information image becomes the learning label of the second encoder-decoder (the true value corresponding to the predicted prior information image generated by the second encoder-decoder).

学習ラベルとなるデータは、PET放射性トレーサーの体内の各臓器における分布状況を可能な限り高品質で表現する必要があり、本実施例において、前記PET画像は、
物理的に補正されたPET生データを反復再構成することでPET画像を得ることで得られる。
The data serving as the learning label needs to express the distribution situation of the PET radioactive tracer in each organ in the body with the highest possible quality, and in this example, the PET image is
It is obtained by repeatedly reconstructing physically corrected PET raw data to obtain a PET image.

さらに、トレーニングする時に勾配最適化アルゴリズムを用いて第1エンコーダ-デコーダによって生成される予測PET画像、第2エンコーダ-デコーダによって生成される予測事前情報画像と真値との損失を最小にし、第1エンコーダ-デコーダによって生成される予測PET画像と第2エンコーダ-デコーダによって生成される予測事前情報画像との間の構造的類似性を最大にし、トランスフォーマユニットによってインターリーブ接続される第1エンコーダ-デコーダ、第2エンコーダ-デコーダのパラメータを更新する。第1エンコーダ-デコーダによって生成される予測PET画像、第2エンコーダ-デコーダによって生成される予測事前情報画像と真値との損失は次のように定義される。
ただし、
は第1エンコーダ-デコーダの出力であり、IPETは第1エンコーダ-デコーダの学習ラベルであり、即ち再構成して得られたPET画像であり、
は第2エンコーダ-デコーダの出力であり、ICTは第2エンコーダ-デコーダの学習ラベルであり、本実施例ではCT画像である。SSIM()は、構造的類似性指標測定関数であり、2組のエンコーダ-デコーダの出力の間の構造的類似性を計算するために用いられる。βは重み係数であり、構造的類似性の損失関数に対する重要度を調節するために用いられる。1つの損失関数で2組のエンコーダ-デコーダを同時にトレーニングすることによりPET逆投影画像からPET再構成画像及び他のモダリティの医用画像(例えば、CT、MRI)へのマッピングを実現し、CT又はMRI画像中の事前情報を、PET画像再構成の品質を向上させ、再構成ネットワークの汎化能力を改善するために用いる。また、ネットワークのトレーニングは2組のエンコーダの間で特徴共有をいかに行うかの自己学習を実現し、1つのエンコーダを共用する既存のネットワーク構造と比べて、有用な情報を選択的に増やし、無用な情報を捨てることを実現することにより、エンコーダ-デコーダの出力を最適なソリューションに近づける。
Furthermore, during training, a gradient optimization algorithm is used to minimize the loss between the predicted PET image generated by the first encoder-decoder, the predicted a priori information image generated by the second encoder-decoder, and the true value; The first encoder-decoder, which is interleaved by the transformer unit, maximizes the structural similarity between the predicted PET image generated by the encoder-decoder and the predicted a priori information image generated by the second encoder-decoder. 2 Update encoder-decoder parameters. The loss between the predicted PET image generated by the first encoder-decoder, the predicted a priori information image generated by the second encoder-decoder, and the true value is defined as follows.
however,
is the output of the first encoder-decoder, I PET is the learning label of the first encoder-decoder, that is, the PET image obtained by reconstruction,
is the output of the second encoder-decoder, and ICT is the learning label of the second encoder-decoder, which is a CT image in this example. SSIM( ) is a structural similarity index measurement function, which is used to calculate the structural similarity between the outputs of two encoder-decoder sets. β is a weighting factor and is used to adjust the importance of structural similarity to the loss function. Mapping from PET backprojection images to PET reconstructed images and medical images of other modalities (e.g., CT, MRI) is realized by training two sets of encoder-decoders with one loss function simultaneously, A priori information in the images is used to improve the quality of PET image reconstruction and improve the generalization ability of the reconstruction network. In addition, network training realizes self-learning on how to share features between two sets of encoders, and compared to existing network structures that share one encoder, useful information is selectively increased and useless information is increased. By discarding such information, the encoder-decoder output can be brought closer to the optimal solution.

図4は、本発明の実施例1によって提供されるトランスフォーマ特徴共有に基づくPET画像再構成方法と単一のエンコーダ-デコーダに基づくPET画像再構成方法による患者のPET全身画像に対する再構成結果の比較図であり、ここで、単一のエンコーダ-デコーダに基づくものはPET逆投影画像を入力とし、従来の反復再構成画像を学習ラベルとしてトレーニングして得られるものであり、単一のエンコーダ-デコーダによる再構成結果は図4の(a)に示され、当該再構成結果は従来の反復再構成の結果に非常に近い。本発明によって提案されるトランスフォーマ特徴共有に基づくマルチ符号化-復号ネットワークを用いて再構成する結果は図4の(b)に示され、生成されるPET画像中のノイズは図4の(a)より明らかに少なく、また、肺腫瘍(例えば、矢印で示す)のコントラストは低下しておらず、PET再構成画像の品質が顕著に向上している。 FIG. 4 is a comparison of reconstruction results for a patient's PET whole body image by the PET image reconstruction method based on transformer feature sharing provided by the first embodiment of the present invention and the PET image reconstruction method based on a single encoder-decoder. Here, the one based on a single encoder-decoder is obtained by using PET back projection images as input and training conventional iteratively reconstructed images as learning labels, and the one based on a single encoder-decoder The reconstruction result is shown in FIG. 4(a), and the reconstruction result is very close to the conventional iterative reconstruction result. The reconstruction result using the multi-encoding-decoding network based on transformer feature sharing proposed by the present invention is shown in Fig. 4(b), and the noise in the generated PET image is shown in Fig. 4(a). It is clearly less and the contrast of the lung tumor (eg, indicated by the arrow) is not reduced and the quality of the PET reconstructed image is significantly improved.

実施例2:前記トランスフォーマ特徴共有に基づくPET画像再構成方法の実施例に対応して、本実施例は、さらに、トランスフォーマ特徴共有に基づくPET画像再構成装置を提供し、図5は、本発明の実施例2によって提供されるPET再構成装置の構造概略図であり、図5に示されるように、前記装置は、画像取得モジュール110と、再構成モジュール120とを含み、
画像取得モジュール110は、PET生データ情報を含む逆投影画像を得るために用いられ、
再構成モジュール120は、前記PET生データ情報を含む逆投影画像を予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルに入力して、PET画像を得る。
Embodiment 2: Corresponding to the embodiment of the PET image reconstruction method based on transformer feature sharing, this embodiment further provides a PET image reconstruction device based on transformer feature sharing, and FIG. 5 is a structural schematic diagram of a PET reconstruction device provided by Example 2, and as shown in FIG. 5, the device includes an image acquisition module 110 and a reconstruction module 120;
The image acquisition module 110 is used to obtain backprojected images containing PET raw data information;
The reconstruction module 120 inputs the back-projection image containing the PET raw data information into a pre-trained PET image reconstruction network model based on transformer feature sharing to obtain a PET image.

前記トランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルの構造は図2に示されており、ここで説明を省略する。 The structure of the PET image reconstruction network model based on the transformer feature sharing is shown in FIG. 2 and will not be described here.

さらに、当該装置は、トレーニングデータセットに基づいて、第1エンコーダ-デコーダによって生成される予測PET画像、第2エンコーダ-デコーダによって生成される予測事前情報画像と真値との損失を最小にし、第1エンコーダ-デコーダによって生成される予測PET画像と第2エンコーダ-デコーダによって生成される予測事前情報画像との間の構造的類似性を最大にすることを目的としてトレーニングすることにより予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルを得るためのトレーニングモジュール130をさらに含む。 Furthermore, the apparatus minimizes the loss between the predicted PET image generated by the first encoder-decoder, the predicted a priori information image generated by the second encoder-decoder, and the true value based on the training data set; a transformer pre-trained by training with the aim of maximizing the structural similarity between the predicted PET image produced by one encoder-decoder and the predicted a priori image produced by a second encoder-decoder; It further includes a training module 130 for obtaining a PET image reconstruction network model based on feature sharing.

本実施例によって提供されるPET画像再構成装置は、PET再構成画像の品質を顕著に向上させることができる。 The PET image reconstruction device provided by this embodiment can significantly improve the quality of PET reconstructed images.

実施例3:前記トランスフォーマ特徴共有に基づくPET画像再構成方法の実施例に対応して、本実施例は、さらに、トランスフォーマ特徴共有に基づく電子デバイスを提供し、図6は、本発明の実施例3によって提供される電子デバイスの構造概略図であり、図6に示されるように、本発明の実施例によって提供される電子デバイスは、メモリと、プロセッサと、メモリに記憶され、プロセッサにおいて動作できるコンピュータプログラムとを含み、前記プロセッサが前記コンピュータプログラムを実行すると、前記トランスフォーマ特徴共有に基づくPET画像再構成方法を実施する。 Embodiment 3: Corresponding to the embodiment of the PET image reconstruction method based on transformer feature sharing, this embodiment further provides an electronic device based on transformer feature sharing, and FIG. 6 shows an embodiment of the present invention. 6 is a structural schematic diagram of an electronic device provided by an embodiment of the present invention, as shown in FIG. a computer program; when the processor executes the computer program, the PET image reconstruction method based on transformer feature sharing is implemented.

本発明の電子デバイスは、データ処理能力を有する任意のデバイスに配置され、当該データ処理能力を有する任意のデバイスは、例えば、コンピュータなどのデバイス又は装置であってもよい。 The electronic device of the present invention may be placed in any device having data processing capability, and the any device having data processing capability may be, for example, a device or apparatus such as a computer.

論理的な意味での装置としては、それが配置されているデータ処理能力を有する任意のデバイスのプロセッサによって不揮発性メモリ中の対応するコンピュータプログラム命令をメモリに読み込んで実行することによって形成される。ハードウェア面では、本発明の電子デバイスのハードウェア構造図である図6に示されるように、図6に示されるプロセッサ、メモリ、ネットワークインタフェース及び不揮発性メモリの他に、実施例におけるデータ処理能力を有する任意のデバイスは通常、当該データ処理能力を有する任意のデバイスの実際の機能に応じて、他のハードウェアを含んでもよく、これに関しては説明を省略する。 As an apparatus in the logical sense, it is formed by reading corresponding computer program instructions in a non-volatile memory into memory and executing them by a processor of any device having data processing capacity in which it is located. In terms of hardware, as shown in FIG. 6, which is a hardware structural diagram of the electronic device of the present invention, in addition to the processor, memory, network interface, and nonvolatile memory shown in FIG. Any device with data processing capabilities may typically include other hardware, which will not be described here, depending on the actual functionality of any device with data processing capabilities.

前記電子デバイスの各ユニットの機能及び効果を実現するプロセスについては、具体的に前記方法における対応するステップを実現するプロセスを参照することができ、ここで説明を省略する。 Regarding the process of realizing the functions and effects of each unit of the electronic device, the process of realizing the corresponding step in the method can be specifically referred to, and the description thereof will be omitted here.

電子デバイスの実施例について、実質的に方法実施例に対応しているため、関連する部分は方法実施例の説明を参照すればよい。上記の電子デバイスの実施例は例示的なものに過ぎず、分離部品として説明されるユニットは物理的に分離しているものでもよいし、そうでなくてもよく、ユニットとして記されている部品は物理的なユニットでもよいし、そうでなくてもよく、即ち同じ場所に位置してもよいし、又は複数のネットワークユニットに分布していてもよい。本発明の解決策の目的を達成するために、実際のニーズに応じてその中から一部又は全てのモジュールを選んでもよい。当業者は創造的な努力をすることなく理解し、実施することができる。 Since the electronic device embodiment substantially corresponds to the method embodiment, reference may be made to the description of the method embodiment for related parts. The electronic device embodiments described above are illustrative only, and units described as separate parts may or may not be physically separate, and parts described as units may or may not be physically separate. may or may not be a physical unit, i.e., co-located or distributed over multiple network units. In order to achieve the objective of the solution of the present invention, some or all modules may be selected among them according to actual needs. Those skilled in the art can understand and implement without creative efforts.

本発明の実施例は、さらに、コンピュータ可読記憶媒体を提供し、プログラムが記憶されており、当該プログラムがプロセッサによって実行されると、前記実施例におけるトランスフォーマ特徴共有に基づくPET画像再構成方法が実施される。 Embodiments of the present invention further provide a computer-readable storage medium storing a program, which when executed by a processor performs the PET image reconstruction method based on transformer feature sharing of the embodiments. be done.

前記コンピュータ可読記憶媒体は、上記のいずれかの実施例において記載されているデータ処理能力を有する任意のデバイスの内部記憶ユニットであってもよく、例えば、ハードディスク又はメモリである。前記コンピュータ可読記憶媒体は、データ処理能力を有する任意のデバイスであってもよく、例えば、前記デバイスに搭載されているプラグインハードディスク、スマートメモリカード(Smart Media(登録商標) Card、SMC)、SDカード、フラッシュメモリカード(Flash Card)などである。さらに、前記コンピュータ可読記憶媒体は、データ処理能力を有する任意のデバイスの内部記憶ユニット及び外部記憶デバイスの両方を含んでもよい。前記コンピュータ可読記憶媒体は、前記コンピュータプログラム及び前記データ処理能力を有する任意のデバイスに必要な他のプログラムとデータを記憶するために用いられ、すでに出力している又は出力する予定のデータを一時的に記憶するために用いられてもよい。 The computer readable storage medium may be an internal storage unit of any device having data processing capabilities described in any of the embodiments above, such as a hard disk or memory. The computer readable storage medium may be any device having data processing capability, such as a plug-in hard disk installed in the device, a smart memory card (Smart Media Card, SMC), an SD card, etc. cards, flash memory cards, etc. Further, the computer-readable storage medium may include both internal storage units and external storage devices of any device that has data processing capabilities. The computer-readable storage medium is used to store the computer program and other programs and data necessary for any device having the data processing capability, and is used to temporarily store data that has already been output or is to be output. It may also be used to store information in

なお、上述したのは本発明の好ましい実施例及び使用される技術的原理に過ぎない。当業者であれば、本発明はここに記載されている特定の実施例に限定されず、当業者にとって本発明の保護範囲を逸脱することなく様々な明白な変更、再調整及び置換が可能であることを理解するであろう。従って、上記の実施例を通じて本発明を詳細に説明しているが、本発明は上記の実施例に限定されず、本発明の構想を逸脱しない限り、さらに多くの他の等価な実施例を含んでもよく、本発明の範囲は添付の特許請求の範囲により決定される。 It should be noted that what has been described above are only preferred embodiments of the present invention and the technical principles used. Those skilled in the art will understand that the present invention is not limited to the specific embodiments described herein, and that various obvious changes, readjustments and substitutions can be made by those skilled in the art without departing from the protection scope of the invention. You will understand something. Therefore, although the present invention has been described in detail through the above embodiments, the present invention is not limited to the above embodiments, and may include many other equivalent embodiments without departing from the concept of the present invention. However, the scope of the invention is determined by the claims appended hereto.

Claims (10)

トランスフォーマ特徴共有に基づくPET画像再構成方法であって、
PET生データ情報を含む逆投影画像を得るステップと、
前記PET生データ情報を含む逆投影画像を予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルに入力して、PET画像を得るステップと、を含み、
トランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルは、第1エンコーダ-デコーダと、第2エンコーダ-デコーダと、少なくとも1つのトランスフォーマユニットとを含み、前記第1エンコーダ-デコーダは逆投影画像をマッピングして予測PET画像を生成するために用いられ、第2エンコーダ-デコーダは逆投影画像をマッピングして予測事前情報画像を生成するために用いられ、事前情報画像はPET画像と同じバッチで収集される他のモダリティの画像の1種であり、トランスフォーマユニットは第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における畳み込みユニットを接続し、第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における畳み込みユニットの出力を受信し、処理後の出力を第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における次の畳み込みユニットに送り込むために用いられ、各トランスフォーマユニットは順に接続されたアテンションメカニズムモジュール及び多層パーセプトロンモジュールを含み、
前記予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルは、トレーニングデータセットに基づいて、第1エンコーダ-デコーダによって生成される予測PET画像、第2エンコーダ-デコーダによって生成される予測事前情報画像と真値との損失を最小にし、第1エンコーダ-デコーダによって生成される予測PET画像と第2エンコーダ-デコーダによって生成される予測事前情報画像との間の構造的類似性を最大にすることを目的としてトレーニングすることにより得られることを特徴とするトランスフォーマ特徴共有に基づくPET画像再構成方法。
A PET image reconstruction method based on transformer feature sharing, the method comprising:
obtaining a backprojection image containing PET raw data information;
inputting the back-projection image containing the PET raw data information into a pre-trained transformer feature sharing based PET image reconstruction network model to obtain a PET image;
The PET image reconstruction network model based on transformer feature sharing includes a first encoder-decoder, a second encoder-decoder, and at least one transformer unit, the first encoder-decoder mapping a backprojected image. A second encoder-decoder is used to map the backprojection image to generate a predicted prior information image, the prior information image being collected in the same batch as the PET image, and The transformer unit connects the convolution unit in the first encoder-decoder, second encoder-decoder encoding structure, and performs the convolution in the first encoder-decoder, second encoder-decoder encoding structure. The transformer unit is used to receive the output of the unit and feed the processed output to the next convolution unit in the first encoder-decoder, second encoder-decoder encoding structure, and each transformer unit is connected in turn to the attention mechanism module and Contains a multilayer perceptron module,
The PET image reconstruction network model based on pre-trained transformer feature sharing comprises a predicted PET image generated by a first encoder-decoder, a predicted a priori information generated by a second encoder-decoder, based on a training data set. Minimizing the image-to-truth loss and maximizing the structural similarity between the predicted PET image generated by the first encoder-decoder and the predicted a priori information image generated by the second encoder-decoder. A PET image reconstruction method based on transformer feature sharing, characterized in that it is obtained by training for the purpose of.
前記トレーニングデータセット中の各組のトレーニングデータは、PET生データ情報を含む逆投影画像、再構成して得られたPET画像、及び事前情報画像を含むことをさらに含むこと特徴とする請求項1に記載の方法。 1 . Each set of training data in the training data set further comprises a back-projection image including PET raw data information, a reconstructed PET image, and a priori information image. The method described in. 前記事前情報画像は、PET画像と同じバッチで収集されるCT画像又はMRI画像であることを特徴とする請求項1に記載の方法。 2. The method of claim 1, wherein the prior information image is a CT image or an MRI image acquired in the same batch as the PET image. 前記PET生データ情報を含む逆投影画像は、
PET生データを正則化、減衰、ランダム化、散乱補正した後、画像領域に逆投影して、PET生データ情報を含む逆投影画像を得ることで得られることを特徴とする請求項1に記載の方法。
The back-projection image containing the PET raw data information is
2. The method according to claim 1, wherein the PET raw data is regularized, attenuated, randomized, and scatter-corrected, and then back-projected onto an image area to obtain a back-projected image containing the PET raw data information. the method of.
前記PET画像は、
物理的に補正されたPET生データを反復再構成することでPET画像を得ることで得られることを特徴とする請求項1に記載の方法。
The PET image is
2. The method of claim 1, wherein the PET images are obtained by iteratively reconstructing physically corrected raw PET data.
前記アテンションメカニズムモジュールは、第1エンコーダ-デコーダ、第2エンコーダ-デコーダ符号化構造における畳み込みユニットの出力スプライシング特徴に基づいてクエリベクトルグループ、キーワードベクトルグループ、特徴ベクトルグループを得て、クエリベクトルグループ中の各ベクトルをキーワードベクトルグループ中の全てのベクトルと順に内積演算を行い、内積演算により対応するベクトルの自身及び他の全てのベクトルに対するアテンションパラメータを得て、得られたアテンションパラメータを用いて特徴ベクトルグループ中の全てのベクトルの加重和を計算して、対応する特徴ベクトルの更新を完了し、さらに全ての特徴ベクトルを順に更新し、更新後の全ての特徴ベクトルをスプライシングし、出力特徴を算出し、出力特徴と畳み込みユニットの出力スプライシング特徴を加算する結果をアテンションメカニズムモジュールの最終出力とするために用いられることを特徴とする請求項1に記載の方法。 The attention mechanism module obtains a query vector group, a keyword vector group, and a feature vector group based on the output splicing features of the convolution unit in the first encoder-decoder and the second encoder-decoder encoding structure, and Perform an inner product operation on each vector with all vectors in the keyword vector group in order, obtain the attention parameters of the corresponding vector for itself and all other vectors by the inner product operation, and use the obtained attention parameters to group the feature vectors. Calculate the weighted sum of all the vectors in the process, complete the updating of the corresponding feature vectors, update all the feature vectors in order, splice all the updated feature vectors, and calculate the output features. 2. The method of claim 1, wherein the result of adding the output features and the output splicing features of the convolution unit is used to be the final output of the attention mechanism module. 請求項1に記載のPET画像再構成方法を実施するPET画像再構成装置であって、
PET生データ情報を含む逆投影画像を得るための画像取得モジュールと、
前記PET生データ情報を含む逆投影画像を予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルに入力して、PET画像を得るための再構成モジュールと、を含むことを特徴とするPET画像再構成装置。
A PET image reconstruction device that implements the PET image reconstruction method according to claim 1, comprising:
an image acquisition module for obtaining backprojection images containing PET raw data information;
a reconstruction module for inputting the back-projection image containing the PET raw data information into a pre-trained PET image reconstruction network model based on transformer feature sharing to obtain a PET image. Image reconstruction device.
トレーニングデータセットに基づいて、第1エンコーダ-デコーダによって生成される予測PET画像、第2エンコーダ-デコーダによって生成される予測事前情報画像と真値との損失を最小にし、第1エンコーダ-デコーダによって生成される予測PET画像と第2エンコーダ-デコーダによって生成される予測事前情報画像との間の構造的類似性を最大にすることを目的としてトレーニングすることにより予めトレーニングされたトランスフォーマ特徴共有に基づくPET画像再構成ネットワークモデルを得るためのトレーニングモジュールをさらに含むことを特徴とする請求項7に記載の装置。 Based on the training data set, minimize the loss between the predicted PET image generated by the first encoder-decoder, the predicted a priori information image generated by the second encoder-decoder, and the true value, and generate the predicted PET image by the first encoder-decoder. a PET image based on pre-trained transformer feature sharing by training with the aim of maximizing the structural similarity between the predicted PET image to be generated and the predicted a priori information image generated by the second encoder-decoder; 8. The apparatus of claim 7, further comprising a training module for obtaining a reconstructed network model. メモリと、プロセッサと、メモリに記憶され、プロセッサにおいて動作できるコンピュータプログラムとを含む電子デバイスであって、前記プロセッサが前記コンピュータプログラムを実行すると、請求項1~6のいずれか1項に記載のPET画像再構成方法を実施することを特徴とする電子デバイス。 7. An electronic device comprising a memory, a processor, and a computer program stored in the memory and operable on the processor, when the processor executes the computer program, the PET according to any one of claims 1 to 6. An electronic device that performs an image reconstruction method. コンピュータ実行可能命令を含む記憶媒体であって、前記コンピュータ実行可能命令がコンピュータプロセッサによって実行されると、請求項1~6のいずれか1項に記載のPET画像再構成方法が実施されることを特徴とする記憶媒体。 A storage medium comprising computer-executable instructions, the computer-executable instructions, when executed by a computer processor, performing a PET image reconstruction method according to any one of claims 1 to 6. Characteristic storage media.
JP2023007950A 2022-03-11 2023-01-23 PET image reconstruction method, apparatus, device and medium based on transformer feature sharing Active JP7246116B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210235862.7A CN114332287B (en) 2022-03-11 2022-03-11 Method, device, equipment and medium for reconstructing PET (positron emission tomography) image based on transformer feature sharing
CN202210235862.7 2022-03-11

Publications (2)

Publication Number Publication Date
JP7246116B1 JP7246116B1 (en) 2023-03-27
JP2023133132A true JP2023133132A (en) 2023-09-22

Family

ID=81033499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023007950A Active JP7246116B1 (en) 2022-03-11 2023-01-23 PET image reconstruction method, apparatus, device and medium based on transformer feature sharing

Country Status (2)

Country Link
JP (1) JP7246116B1 (en)
CN (1) CN114332287B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115423893B (en) * 2022-11-03 2023-04-28 南京应用数学中心 Low-dose PET-CT reconstruction method based on multi-modal structure similarity neural network
CN116843679B (en) * 2023-08-28 2023-12-26 南方医科大学 PET image partial volume correction method based on depth image prior frame
CN117011673B (en) * 2023-10-07 2024-03-26 之江实验室 Electrical impedance tomography image reconstruction method and device based on noise diffusion learning

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257134A (en) * 2017-12-21 2018-07-06 深圳大学 Nasopharyngeal Carcinoma Lesions automatic division method and system based on deep learning
US20190340793A1 (en) * 2018-05-04 2019-11-07 General Electric Company Systems and methods for improved pet imaging
JP2019211475A (en) * 2018-05-31 2019-12-12 キヤノンメディカルシステムズ株式会社 Medical image processor and program
JP2021018109A (en) * 2019-07-18 2021-02-15 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, medical image diagnostic apparatus, and nuclear medicine diagnostic apparatus
CN113256753A (en) * 2021-06-30 2021-08-13 之江实验室 PET image region-of-interest enhancement reconstruction method based on multitask learning constraint

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3095109A1 (en) * 2018-03-23 2019-09-26 Memorial Sloan Kettering Cancer Center Deep encoder-decoder models for reconstructing biomedical images
CN109584324B (en) * 2018-10-24 2022-12-06 南昌大学 Positron Emission Tomography (PET) reconstruction method based on automatic encoder network
CN110580695B (en) * 2019-08-07 2022-06-21 深圳先进技术研究院 Multi-mode three-dimensional medical image fusion method and system and electronic equipment
CN111325686B (en) * 2020-02-11 2021-03-30 之江实验室 Low-dose PET three-dimensional reconstruction method based on deep learning
CN111462020B (en) * 2020-04-24 2023-11-14 上海联影医疗科技股份有限公司 Method, system, storage medium and apparatus for motion artifact correction of cardiac images
CN111627082B (en) * 2020-05-21 2022-06-21 浙江大学 PET image reconstruction method based on filtering back projection algorithm and neural network
CN112150568A (en) * 2020-09-16 2020-12-29 浙江大学 Magnetic resonance fingerprint imaging reconstruction method based on Transformer model
CN112651890A (en) * 2020-12-18 2021-04-13 深圳先进技术研究院 PET-MRI image denoising method and device based on dual-coding fusion network model

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257134A (en) * 2017-12-21 2018-07-06 深圳大学 Nasopharyngeal Carcinoma Lesions automatic division method and system based on deep learning
US20190340793A1 (en) * 2018-05-04 2019-11-07 General Electric Company Systems and methods for improved pet imaging
JP2019211475A (en) * 2018-05-31 2019-12-12 キヤノンメディカルシステムズ株式会社 Medical image processor and program
JP2021018109A (en) * 2019-07-18 2021-02-15 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, medical image diagnostic apparatus, and nuclear medicine diagnostic apparatus
CN113256753A (en) * 2021-06-30 2021-08-13 之江实验室 PET image region-of-interest enhancement reconstruction method based on multitask learning constraint

Also Published As

Publication number Publication date
JP7246116B1 (en) 2023-03-27
CN114332287A (en) 2022-04-12
CN114332287B (en) 2022-07-15

Similar Documents

Publication Publication Date Title
CN109697741B (en) PET image reconstruction method, device, equipment and medium
Zhou et al. Deep learning of the sectional appearances of 3D CT images for anatomical structure segmentation based on an FCN voting method
JP7246116B1 (en) PET image reconstruction method, apparatus, device and medium based on transformer feature sharing
US10762398B2 (en) Modality-agnostic method for medical image representation
US20230127939A1 (en) Multi-task learning based regions-of-interest enhancement in pet image reconstruction
Cheng et al. Applications of artificial intelligence in nuclear medicine image generation
Xue et al. LCPR-Net: low-count PET image reconstruction using the domain transform and cycle-consistent generative adversarial networks
Chen et al. Generative adversarial U-Net for domain-free medical image augmentation
Singh et al. Medical image generation using generative adversarial networks
Kläser et al. Deep boosted regression for MR to CT synthesis
Misra et al. Deep learning‐based multimodal fusion network for segmentation and classification of breast cancers using B‐mode and elastography ultrasound images
Reader et al. AI for PET image reconstruction
Xia et al. Deep residual neural network based image enhancement algorithm for low dose CT images
Chan et al. An attention-based deep convolutional neural network for ultra-sparse-view CT reconstruction
Chen et al. DuSFE: Dual-Channel Squeeze-Fusion-Excitation co-attention for cross-modality registration of cardiac SPECT and CT
Anas et al. Ct scan registration with 3d dense motion field estimation using lsgan
Liu et al. Multi‐Indices Quantification for Left Ventricle via DenseNet and GRU‐Based Encoder‐Decoder with Attention
CN116091412A (en) Method for segmenting tumor from PET/CT image
CN113052840A (en) Processing method based on low signal-to-noise ratio PET image
Qin et al. Multicenter Computer‐Aided Diagnosis for Lymph Nodes Using Unsupervised Domain‐Adaptation Networks Based on Cross‐Domain Confounding Representations
WO2022120588A1 (en) Low-dose pet image restoration method and system, device, and medium
CN113379863B (en) Dynamic double-tracing PET image joint reconstruction and segmentation method based on deep learning
Wang et al. Optimization algorithm of CT image edge segmentation using improved convolution neural network
US20240029324A1 (en) Method for image reconstruction, computer device and storage medium
WO2023131061A1 (en) Systems and methods for positron emission computed tomography image reconstruction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230123

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230307

R150 Certificate of patent or registration of utility model

Ref document number: 7246116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150