JP7454402B2 - Detection system and learning method - Google Patents
Detection system and learning method Download PDFInfo
- Publication number
- JP7454402B2 JP7454402B2 JP2020027273A JP2020027273A JP7454402B2 JP 7454402 B2 JP7454402 B2 JP 7454402B2 JP 2020027273 A JP2020027273 A JP 2020027273A JP 2020027273 A JP2020027273 A JP 2020027273A JP 7454402 B2 JP7454402 B2 JP 7454402B2
- Authority
- JP
- Japan
- Prior art keywords
- cherenkov
- detection
- light
- cerenkov
- detector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 222
- 238000000034 method Methods 0.000 title claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 84
- 230000003993 interaction Effects 0.000 claims description 70
- 239000002245 particle Substances 0.000 claims description 17
- 230000000052 comparative effect Effects 0.000 description 32
- 238000007781 pre-processing Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 20
- 238000004088 simulation Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000000342 Monte Carlo simulation Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000002600 positron emission tomography Methods 0.000 description 3
- 230000005466 cherenkov radiation Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000002603 single-photon emission computed tomography Methods 0.000 description 2
- 229910004298 SiO 2 Inorganic materials 0.000 description 1
- FPHIOHCCQGUGKU-UHFFFAOYSA-L difluorolead Chemical compound F[Pb]F FPHIOHCCQGUGKU-UHFFFAOYSA-L 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000005355 lead glass Substances 0.000 description 1
- 238000010791 quenching Methods 0.000 description 1
- 230000000171 quenching effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Measurement Of Radiation (AREA)
- Nuclear Medicine (AREA)
Description
本発明は、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システム、および、該ニューラルネットワークを学習させる方法に関するものである。 The present invention relates to a detection system including a Cherenkov detector and a signal processing unit using a neural network, and a method for training the neural network.
輻射体中における荷電粒子(例えば、電子、ミューオン)の移動速度が該輻射体中の光速度より速いと、荷電粒子と輻射体との間の相互作用により光が放射される。また、荷電していない粒子(例えば、γ線、ニュートリノ)が輻射体中において光電効果により電子等の荷電粒子を発生させる場合があり、その荷電粒子の移動速度が該輻射体中の光速度より速いと光が放射される。このような現象はチェレンコフ効果またはチェレンコフ放射と呼ばれ、放射される光はチェレンコフ輻射光またはチェレンコフ光と呼ばれる。 When the moving speed of charged particles (eg, electrons, muons) in a radiator is faster than the speed of light in the radiator, light is emitted due to the interaction between the charged particles and the radiator. In addition, uncharged particles (e.g., gamma rays, neutrinos) may generate charged particles such as electrons due to the photoelectric effect in a radiator, and the moving speed of the charged particles is faster than the speed of light in the radiator. If it is fast, light is emitted. Such a phenomenon is called Cherenkov effect or Cherenkov radiation, and the emitted light is called Cherenkov radiation or Cherenkov light.
チェレンコフ検出器は、チェレンコフ効果を利用することで、到来した粒子を検出することができる。チェレンコフ検出器は、入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、この輻射体で発生したチェレンコフ光を検出する光検出器と、を備える。チェレンコフ検出器は、例えば、PET(Positron Emission Tomography)装置またはSPECT(Single Photon Emission Computed Tomography)装置において、被検体から到来したγ線(PETではエネルギ511keV)を検出する放射線検出器として用いられる。 A Cerenkov detector can detect arriving particles by using the Cerenkov effect. A Cerenkov detector includes a radiator that generates Cerenkov light through interaction with incident particles, and a photodetector that detects the Cerenkov light generated by the radiator. A Cerenkov detector is used, for example, in a PET (Positron Emission Tomography) device or a SPECT (Single Photon Emission Computed Tomography) device as a radiation detector that detects γ rays (energy 511 keV in PET) arriving from a subject.
非特許文献1に、チェレンコフ検出器の光検出器によるチェレンコフ光検出事象に基づいて輻射体における相互作用位置をニューラルネットワークにより推定する技術が記載されている。 Non-Patent Document 1 describes a technique for estimating an interaction position in a radiator using a neural network based on a Cerenkov light detection event by a photodetector of a Cerenkov detector.
上記の技術においては、大量の学習用データを用いてニューラルネットワークを学習させた上で、その学習済みのニューラルネットワークにより相互作用位置を推定する必要がある。しかし、学習に用いる大量の学習用データの収集には長時間を要するので、ニューラルネットワークの学習は容易でない。 In the above technique, it is necessary to train a neural network using a large amount of training data, and then estimate an interaction position using the trained neural network. However, since it takes a long time to collect a large amount of training data used for learning, learning a neural network is not easy.
本発明は、上記問題点を解消する為になされたものであり、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システムにおいて該ニューラルネットワークを容易に学習させることができる装置および方法を提供することを目的とする。 The present invention has been made to solve the above problems, and provides an apparatus and method for easily learning a neural network in a detection system equipped with a Cerenkov detector and a signal processing unit using a neural network. The purpose is to provide
本発明の第1態様の検出システムは、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を含むチェレンコフ検出器と、(2) 光検出器から出力される信号を入力して、輻射体における相互作用事象毎に、受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、輻射体における相互作用位置を推定する推定部と、(3) 相互作用事象毎に、チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を学習用データとする学習用データ作成部と、(4) 学習用データ作成部により作成された学習用データを用いてニューラルネットワークを学習させる学習部と、を備える。 The detection system according to the first aspect of the present invention includes: (1) a radiator that generates Cerenkov light by interaction with incident particles; and a light receiving surface that detects the Cerenkov light generated by the radiator; (2) a photodetector that outputs a signal representing the detection position and detection time of Cerenkov light; , an estimation unit that estimates the interaction position on the radiator using a neural network based on the number of Cerenkov light detection events on the light receiving surface and the detection position and detection time of each Cherenkov light detection event, and (3) for each interaction event. A plurality of sets of less than n Cherenkov light detection events are generated from among the n Cherenkov light detection events by the photodetector of the Cherenkov detector, and each Cherenkov light detection event included in each of the plurality of sets is generated. (4) a learning unit that causes a neural network to learn using the learning data created by the learning data creating unit; and (4) a learning unit that uses the learning data created by the learning data creating unit.
本発明の第2態様の検出システムは、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を各々含む第1チェレンコフ検出器および第2チェレンコフ検出器と、(2) 第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、(3) 同時計数事象毎に、第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第1学習用データとし、第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第2学習用データとする学習用データ作成部と、(4) 学習用データ作成部により作成された第1学習用データおよび第2学習用データを用いてニューラルネットワークを学習させる学習部と、を備える。 A detection system according to a second aspect of the present invention includes: (1) a radiator that generates Cerenkov light by interaction with incident particles; and a light receiving surface that detects the Cerenkov light generated by the radiator; (2) a first Cherenkov detector and a second Cherenkov detector, each including a photodetector that outputs a signal representing the detection position and detection time of Cherenkov light; The signal output from the photodetector is input, and for each coincidence event of photon pairs generated by the annihilation of a positron and an electron, the (3) a first Cerenkov detector for each coincidence event; (3) a first Cerenkov detector for each coincidence event; Generate a plurality of sets of less than n1 Cherenkov light detection events from among the n1 Cherenkov light detection events by the photodetector, and determine the detection position and detection of each Cherenkov light detection event included in each of the plurality of sets. Using the time as the first learning data, a plurality of sets of Cerenkov light detection events of less than n2 are generated from among the n2 Cerenkov light detection events by the photodetector of the second Cherenkov detector, and these multiple sets are (4) a learning data creation unit that uses the detection position and detection time of each Cherenkov light detection event contained therein as second learning data; and (4) the first learning data and the second learning data created by the learning data creation unit. A learning unit that causes the neural network to learn using learning data.
本発明の第1態様の学習方法は、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を含むチェレンコフ検出器と、(2) 光検出器から出力される信号を入力して、輻射体における相互作用事象毎に、受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、輻射体における相互作用位置を推定する推定部と、を備える検出システムのニューラルネットワークを学習させる方法である。本発明の第1態様の学習方法は、(a) 相互作用事象毎に、チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を学習用データとする学習用データ作成ステップと、(b) 学習用データ作成ステップにおいて作成された学習用データを用いてニューラルネットワークを学習させる学習ステップと、を備える。 The learning method of the first aspect of the present invention includes (1) a radiator that generates Cerenkov light by interaction with incident particles, and a light-receiving surface that detects the Cerenkov light generated by the radiator; (2) a photodetector that outputs a signal representing the detection position and detection time of Cerenkov light; a neural network for a detection system, comprising: an estimator that estimates an interaction position on a radiator using a neural network based on the number of Cerenkov light detection events on a light receiving surface and the detection position and detection time of each Cherenkov light detection event; This is a method for making children learn. The learning method of the first aspect of the present invention includes (a) for each interaction event, a plurality of sets of less than n Cerenkov light detection events from among n Cerenkov light detection events by the photodetector of the Cherenkov detector; (b) learning data created in the learning data creation step; and a learning step of training the neural network using the data.
本発明の第2態様の学習方法は、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を各々含む第1チェレンコフ検出器および第2チェレンコフ検出器と、(2) 第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、を備える検出システムのニューラルネットワークを学習させる方法である。本発明の第2態様の学習方法は、(a) 同時計数事象毎に、第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第1学習用データとし、第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第2学習用データとする学習用データ作成ステップと、(b) 学習用データ作成ステップにおいて作成された第1学習用データおよび第2学習用データを用いてニューラルネットワークを学習させる学習ステップと、を備える。 The learning method of the second aspect of the present invention includes (1) a radiator that generates Cerenkov light by interaction with incident particles, and a light-receiving surface that detects the Cerenkov light generated by the radiator; (2) a first Cherenkov detector and a second Cherenkov detector, each including a photodetector that outputs a signal representing the detection position and detection time of Cherenkov light; By inputting the signal output from the photodetector of The present invention is a method for training a neural network of a detection system including an estimator that estimates a photon pair generation position using a neural network based on the number of photodetection events and the detection position and detection time of each Cherenkov photodetection event. The learning method of the second aspect of the present invention includes: (a) for each coincidence event, a set of less than n1 Cherenkov light detection events from among n1 Cherenkov light detection events by the photodetector of the first Cherenkov detector; The detection position and detection time of each Cerenkov light detection event included in each of these multiple sets is used as first learning data, and n2 Cerenkov light detections are performed by the photodetector of the second Cerenkov detector. A learning method in which a plurality of sets of less than n2 Cerenkov light detection events are generated from among the events, and the detection position and detection time of each Cerenkov light detection event included in each of the plurality of sets is used as second learning data. The method includes a data creation step, and (b) a learning step of learning a neural network using the first learning data and second learning data created in the learning data creation step.
本発明によれば、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システムにおいて、該ニューラルネットワークを容易に学習させることができる。 According to the present invention, in a detection system including a Cerenkov detector and a signal processing section using a neural network, the neural network can be easily trained.
以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。本発明は、これらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In addition, in the description of the drawings, the same elements are given the same reference numerals, and redundant description will be omitted. The present invention is not limited to these examples, but is indicated by the claims, and is intended to include all changes within the meaning and scope equivalent to the claims.
図1は、第1実施形態の検出システム1の構成を示す図である。検出システム1は、チェレンコフ検出器3および信号処理部4を備える。チェレンコフ検出器3は、輻射体10および光検出器20を備える。図2は、チェレンコフ検出器3の構成を示す斜視図である。
FIG. 1 is a diagram showing the configuration of a detection system 1 according to the first embodiment. The detection system 1 includes a Cerenkov
輻射体10は、入射した粒子(例えばγ線)との相互作用によりチェレンコフ光を発生させる。輻射体10は、屈折率が既知であってチェレンコフ効果が生じ得るモノリシックな材料からなる。輻射体10は、シンチレーション光が生じ難い材料であるのが好ましい。輻射体10の材料は、例えば、鉛ガラス(SiO2+PbO)、フッ化鉛(PbF2)、PWO(PbWO4)等である。輻射体10は直方体形状を有するのが好ましい。
The
光検出器20は、輻射体10で発生したチェレンコフ光を検出する受光面21を有する。光検出器20の受光面21は、直方体形状の輻射体10の一つの面に対向しており、その面と平行である。光検出器20の受光面21は、輻射体10の一つの面に接していてもよい。光検出器20は、受光面21におけるチェレンコフ光検出に基づいて、受光面21上のチェレンコフ光の検出位置(x,y)および検出時刻tを表す信号を出力する。その信号は、チェレンコフ光検出時のパルス出力により、検出時刻tを表すことができる。
The
光検出器20は、フォトンカウンティング動作をすることができる高速・高感度のものであるのが好適である。光検出器20として例えばマルチアノード光電子増倍管またはMPPC(登録商標)が好適に用いられる。マルチアノード光電子増倍管(multi-anode photo multiplier tube)は、複数の画素として複数のアノードを有し、各アノードの受光量に応じた検出信号を出力することができる。MPPC(Multi-Pixel Photon Counter)は、ガイガー・モードで動作するアバランシェ・フォトダイオードにクエンチング抵抗が接続されたものを1つの画素として、複数の画素が2次元配列されたものである。これらは高速・高感度の光検出をすることができる。
Preferably, the
信号処理部4は、光検出器20から出力される信号を入力する。信号処理部4は、この入力信号を処理することで、輻射体10における相互作用事象毎に、光検出器20の受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tに基づいて、ニューラルネットワークにより、輻射体10における相互作用位置(x,y,z)を推定する。なお、x,y,z直交座標系のx軸およびy軸は、光検出器20の受光面21に平行であって、互いに直交している。z軸は、光検出器20の受光面21に垂直である。
The
また、信号処理部4は、輻射体10における相互作用事象毎に、光検出器20の受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tに基づいて、ニューラルネットワークを学習させる為の学習用データを作成する。そして、信号処理部4は、この学習用データを用いてニューラルネットワークを学習させる。
The
信号処理部4は例えばコンピュータにより構成される。信号処理部4は、ニューラルネットワークによる処理をCPU(Central Processing Unit)により行ってもよいが、より高速な処理が可能なDSP(Digital Signal Processor)またはGPU(Graphics Processing Unit)により行うのが好適である。
The
信号処理部4は、前処理部41、推定部42、学習用データ作成部43、学習部44および記憶部45を備える。
The
前処理部41は、光検出器20から出力される信号に基づいて、各チェレンコフ光検出事象について検出位置(x,y)および検出時刻tを求める。検出時刻tは、入力信号のパルスのタイミングから求めることができる。その後、前処理部41は、各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tを含むデータを検出時刻tでソートする。そして、前処理部41は、ソートしたデータのうち一定幅のタイムウィンドウ内にあるデータを、共通の相互作用事象により生じたチェレンコフ光検出事象のデータであると判断する。
The preprocessing
このようにして、前処理部41は、各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tを含むデータを相互作用事象毎に区分する。これにより、相互作用事象毎に、受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tを求めることができる。
In this way, the preprocessing
また、前処理部41は、チェレンコフ光検出事象の数nが閾値th未満である相互作用事象のデータを破棄して、推定部42は、チェレンコフ光検出事象の数nが閾値th以上である相互作用事象について選択的に相互作用位置を推定するのが好適である。これは、チェレンコフ光検出事象の数nが閾値th未満である相互作用事象の場合、推定部42による相互作用位置の推定の精度が悪いからである。同様に、学習用データ作成部43は、チェレンコフ光検出事象の数nが閾値th以上である相互作用事象について学習用データを作成するのが好適である。例えば閾値thは3である。
Further, the preprocessing
推定部42は、前処理部41により前処理が為された後のデータを入力して、相互作用事象毎に、光検出器20の受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tに基づいて、ニューラルネットワークにより相互作用位置(x,y,z)を推定する。ここで用いられるニューラルネットワークは、例えば、多層パーセプトロン(Multi-layer Perceptron、MLP)、畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)、再帰型ニューラルネットワーク(Recurrent Neural Network、RNN)等である。
The
推定部42は、複数のニューラルネットワークを有し、チェレンコフ光検出事象の数nに対応したニューラルネットワークにより相互作用位置を推定してもよい。すなわち、チェレンコフ光検出事象の数がnである相互作用事象については、その数nに対応して設けられたニューラルネットワークにより、相互作用位置を推定してもよい。
The
学習用データ作成部43は、相互作用事象毎に、チェレンコフ検出器3の光検出器20によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を学習用データとする。相互作用事象に含まれるチェレンコフ光検出事象がn個であって、そのうちからm個のチェレンコフ光検出事象の組を生成する場合(ただし、m<n)、n個の集合の中からm個を取り出す組合せの個数はnCm である。
The learning
学習部44は、学習用データ作成部43により作成された学習用データを用いてニューラルネットワークを学習させる。記憶部45は、前処理部41、推定部42、学習用データ作成部43および学習部44それぞれによる処理の前、途中および後のデータを記憶する。
The
図3は、相互作用位置の推定の際の信号処理部4の推定部42による処理の一例を説明する図である。推定部42は、前処理部41により前処理が為された後の相互作用事象毎のデータを入力する。すなわち、推定部42は、各相互作用事象に含まれるn個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。推定部42は、各相互作用事象に含まれるn個のチェレンコフ光検出事象のうちから検出タイミングの早い5個のチェレンコフ光検出事象のデータを選択し、その5個のチェレンコフ光検出事象のデータ(x,y,t)を学習済みのニューラルネットワークへ入力させる。これによりニューラルネットワークから出力されるデータは、輻射体10における相互作用位置(x,y,z)を推定した結果を表すものとなる。
FIG. 3 is a diagram illustrating an example of processing by the
図4は、ニューラルネットワークの学習の際の信号処理部4の学習用データ作成部43および学習部44による処理の一例を説明する図である。学習用データ作成部43は、前処理部41により前処理が為された後の相互作用事象毎のデータを入力する。すなわち、学習用データ作成部43は、各相互作用事象に含まれるn個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。
FIG. 4 is a diagram illustrating an example of processing by the learning
学習用データ作成部43は、各相互作用事象に含まれるn個のチェレンコフ光検出事象のうちから5個のチェレンコフ光検出事象の組を複数生成する。このとき最大でnC5個の組を生成することができる。学習用データ作成部43は、各組に含まれる5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を学習用データとし、その学習用データをニューラルネットワークへ入力させる。これによりニューラルネットワークから組の個数と同じ数の出力データ(x,y,z)が得られる。学習部44は、ニューラルネットワークから出力されるデータ(x,y,z)と教師データ(X,Y,Z)との間の誤差を評価し、その誤差が小さくなるように誤差逆伝播法によりニューラルネットワークのパラメータを調整して、ニューラルネットワークを学習させる。
The learning
図5は、ニューラルネットワークの構成の一例を示す図である。この図に示されるニューラルネットワークは、入力層、出力層および3つの中間層を含む5層構造を有する多層パーセプトロン(MLP)である。このMLPは、5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力し、相互作用位置(x,y,z)の推定の結果を出力する。なお、ニューラルネットワークからの出力データは、位置を表すものであってもよいし、各位置の相互作用の確信度を表すものであってもよい。 FIG. 5 is a diagram showing an example of the configuration of a neural network. The neural network shown in this figure is a multilayer perceptron (MLP) with a five-layer structure including an input layer, an output layer and three hidden layers. This MLP inputs data (x, y, t) for each of the five Cerenkov photodetection events and outputs the result of estimating the interaction position (x, y, z). Note that the output data from the neural network may represent a position or may represent the reliability of interaction at each position.
次に、第1実施形態についてモンテカルロ法を用いて行ったシミュレーションの結果を説明する。輻射体10として、PbF2からなり、40×40×10mm3の直方体形状を有するものを想定した。光検出器20の受光面21は、輻射体10の40×40mm2の面に接しているものとした。光検出器20として、空間分解能および時間分解能の双方が無限小である理想的なものを想定した。ニューラルネットワークとして図5に示したMLPを用い、そのMLPから位置を表すデータを出力させた。
Next, the results of a simulation performed using the Monte Carlo method for the first embodiment will be explained. The
シミュレーションでは、輻射体における各粒子の相互作用を逐一トラッキングしており、その履歴を参照することで輻射体における相互作用位置が分かるので、これを教師データ(X,Y,Z)とすることができる。 In the simulation, the interaction of each particle in the radiator is tracked one by one, and by referring to the history, the interaction position in the radiator can be determined, so this can be used as training data (X, Y, Z). can.
実験の場合は、例えば、コリメーションされたγ線(ペンシルビーム)を使用する。このペンシルビームをxy平面に垂直に入射させたときの位置を相互作用位置(X,Y)の代わりとする。同様に、ペンシルビームをxz平面に垂直に入射させると(X,Z)が分かり、ペンシルビームをyz平面に垂直に入射させると(Y,Z)が分かる。この方法では、一発で教師データ(X,Y,Z)を得ることができないので、各平面用のニューラルネットワークを個別に学習し、その予測を統合する。例えば、(X,Y)用、(X,Z)用および(Y,Z)用それぞれのニューラルネットワークの出力の平均を教師データ(X,Y,Z)とすることができる。 For experiments, for example, collimated gamma rays (pencil beam) are used. The position when this pencil beam is incident perpendicularly to the xy plane is used as the interaction position (X, Y). Similarly, when a pencil beam is made perpendicular to the xz plane, (X, Z) is found, and when a pencil beam is made perpendicular to the yz plane, (Y, Z) is found. In this method, since it is not possible to obtain the training data (X, Y, Z) in one go, the neural network for each plane is learned individually and the predictions thereof are integrated. For example, the average of the outputs of the neural networks for (X, Y), (X, Z), and (Y, Z) can be used as the teacher data (X, Y, Z).
シミュレーションは、第1比較例、第2比較例および第1実施例それぞれについて行った。第1比較例では、相互作用事象に含まれるチェレンコフ光検出事象の個数が5であるデータのみを学習用データとして用いてMLPを学習させた。第2比較例では、相互作用事象に含まれるチェレンコフ光検出事象の個数が5以上7以下であるデータのうち検出タイミングの早い5個のチェレンコフ光検出事象のデータを学習用データとして用いてMLPを学習させた。第1実施例では、相互作用事象に含まれるチェレンコフ光検出事象の個数nが5以上7以下であるデータに基づいて、図4を用いて一例として説明した条件で作成した学習用データを用いてMLPを学習させた。 The simulation was performed for each of the first comparative example, the second comparative example, and the first example. In the first comparative example, MLP was trained using only data in which the number of Cerenkov light detection events included in interaction events was 5 as training data. In the second comparative example, MLP is performed using data of five Cherenkov light detection events with early detection timings as learning data among data in which the number of Cherenkov light detection events included in the interaction event is 5 or more and 7 or less. Made me learn. In the first example, the learning data created under the conditions described as an example using FIG. I learned MLP.
第1比較例で作成された学習用データの個数は521,460個であった。第2比較例で作成された学習用データの個数は、875,000個であり、第1比較例の場合の1.68倍であった。第1実施例で作成された学習用データの個数は、4,170,600個であり、第1比較例の場合の8倍であった。このように、第1比較例および第2比較例と比べると、第1実施例では、より多くの学習用データを用意することができる。 The number of learning data created in the first comparative example was 521,460. The number of learning data created in the second comparative example was 875,000, which was 1.68 times that in the first comparative example. The number of learning data created in the first example was 4,170,600, which was eight times that of the first comparative example. In this way, compared to the first comparative example and the second comparative example, more learning data can be prepared in the first example.
図6は、シミュレーションの結果を示す図である。この図は、第1比較例、第2比較例および第1実施例それぞれについて、xy平面での相互作用位置の推定誤差のヒストグラム、および、z軸方向の相互作用位置の推定誤差のヒストグラムを示す。推定誤差は、真の相互作用位置から推定相互作用位置を引いた値である。横軸は誤差を表し、縦軸は頻度を表す。各ヒストグラムをローレンツ関数で近似して、そのローレンツ関数の半値全幅(Full Width at Half Maximum、FWHM)を求めた。 FIG. 6 is a diagram showing the results of the simulation. This figure shows a histogram of the estimation error of the interaction position in the xy plane and a histogram of the estimation error of the interaction position in the z-axis direction for each of the first comparative example, the second comparative example, and the first example. . The estimation error is the value obtained by subtracting the estimated interaction position from the true interaction position. The horizontal axis represents error, and the vertical axis represents frequency. Each histogram was approximated by a Lorentz function, and the full width at half maximum (FWHM) of the Lorentz function was determined.
第1比較例では、xy平面での推定誤差のFWHMは0.89mmであり、z軸方向の推定誤差のFWHMは1.57mmであった。第2比較例では、xy平面での推定誤差のFWHMは0.79mmであり、z軸方向の推定誤差のFWHMは1.42mmであった。第1実施例では、xy平面での推定誤差のFWHMは0.65mmであり、z軸方向の推定誤差のFWHMは1.40mmであった。第1比較例および第2比較例と比べると、第1実施例では、軸方向の推定誤差およびxy平面での推定誤差の何れも小さい値であった。第1実施例では、より多くの学習用データを用いてMLPを学習させたことにより、相互作用位置の推定の精度が向上したと考えられる。 In the first comparative example, the FWHM of the estimation error in the xy plane was 0.89 mm, and the FWHM of the estimation error in the z-axis direction was 1.57 mm. In the second comparative example, the FWHM of the estimation error in the xy plane was 0.79 mm, and the FWHM of the estimation error in the z-axis direction was 1.42 mm. In the first example, the FWHM of the estimation error in the xy plane was 0.65 mm, and the FWHM of the estimation error in the z-axis direction was 1.40 mm. Compared with the first comparative example and the second comparative example, in the first example, both the estimation error in the axial direction and the estimation error in the xy plane were small values. In the first example, it is considered that the accuracy of estimating the interaction position is improved by learning the MLP using more training data.
次に第2実施形態について説明する。図7は、第2実施形態の検出システム2の構成を示す図である。検出システム2は、第1チェレンコフ検出器3A、第2チェレンコフ検出器3Bおよび信号処理部5を備える。チェレンコフ検出器3A,3Bは、第1実施形態におけるチェレンコフ検出器3と同じ構成を有する。チェレンコフ検出器3A,3Bそれぞれの輻射体10の入射面11(光検出器20側と反対の面。図2参照)は互いに対向している。
Next, a second embodiment will be described. FIG. 7 is a diagram showing the configuration of the
第1チェレンコフ検出器3Aと第2チェレンコフ検出器3Bとの間の空間にRI線源があると、そのRI線源から放出された陽電子と電子とが対消滅し、その対消滅により光子対(エネルギ511keVのγ線の対)が発生する。光子対を構成する2つの光子は互いに反対方向に飛行する。一方の光子を第1チェレンコフ検出器3Aにより検出するとともに他方の光子を第2チェレンコフ検出器3Bにより検出することにより、すなわち、2つのチェレンコフ検出器3A,3Bにより光子対を同時計数すること(同時計数事象)により、光子対発生事象(対消滅事象)を検出することができる。
When an RI source is present in the space between the first Cherenkov detector 3A and the
信号処理部5は、チェレンコフ検出器3A,3Bそれぞれの光検出器20から出力される信号を入力する。信号処理部5は、これらの入力信号を処理することで、同時計数事象毎に、チェレンコフ検出器3A,3Bそれぞれの光検出器20の受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置(対消滅位置)を推定する。
The
また、信号処理部5は、同時計数事象毎に、チェレンコフ検出器3A,3Bそれぞれの光検出器20の受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークを学習させる為の学習用データを作成する。そして、信号処理部5は、この学習用データを用いてニューラルネットワークを学習させる。
Further, the
信号処理部5は例えばコンピュータにより構成される。信号処理部5は、ニューラルネットワークによる処理をCPUにより行ってもよいが、より高速な処理が可能なDSPまたはGPUにより行うのが好適である。
The
信号処理部5は、前処理部51、推定部52、学習用データ作成部53、学習部54および記憶部55を備える。
The
前処理部51は、第1チェレンコフ検出器3Aの光検出器20から出力される信号について第1実施形態における前処理部41と同様の処理を行う。前処理部51は、第2チェレンコフ検出器3Bの光検出器20から出力される信号についても第1実施形態における前処理部41と同様の処理を行う。
The preprocessing
前処理部51は次のような処理をも行う。前処理部51は、第1チェレンコフ検出器3Aの光検出器20から出力された信号に基づいて検出された相互作用事象データと、第2チェレンコフ検出器3Bの光検出器20から出力された信号に基づいて検出された相互作用事象のデータとが、同時計数タイムウィンドウ内にある場合に、両データが共通の光子対発生事象によるものであると判断する。このとき、両データの代表時刻が同時計数タイムウィンドウ内にあるか否かを判定すればよい。代表時刻は、各相互作用事象に含まれる検出時刻のうち最も早い検出時刻でもよいし、検出時刻の平均値でもよい。
The preprocessing
推定部52は、前処理部51により前処理が為された後のデータを入力して、同時計数事象毎に、チェレンコフ検出器3A,3Bそれぞれの光検出器20の受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより光子対発生位置(x,y,z)を推定する。ここで用いられるニューラルネットワークは、例えば、多層パーセプトロン(MLP)、畳み込みニューラルネットワーク(CNN)、再帰型ニューラルネットワーク(RNN)等である。
The
学習用データ作成部53は、同時計数事象毎に、第1チェレンコフ検出器3Aの光検出器20によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第1学習用データとし、また、第2チェレンコフ検出器3Bの光検出器20によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第2学習用データとする。
The learning
学習部54は、学習用データ作成部53により作成された第1学習用データおよび第2学習用データを用いてニューラルネットワークを学習させる。記憶部55は、前処理部51、推定部52、学習用データ作成部53および学習部54それぞれによる処理の前、途中および後のデータを記憶する。
The
図8は、光子対発生位置の推定の際の信号処理部5の推定部52による処理の一例を説明する図である。推定部52は、前処理部51により前処理が為された後の同時計数事象毎のデータを入力する。すなわち、推定部52は、同時計数事象毎に、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力するとともに、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。推定部52は、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象それぞれのデータのうちから検出タイミングの早い5個のチェレンコフ光検出事象のデータを選択し、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象それぞれのデータのうちから検出タイミングの早い5個のチェレンコフ光検出事象のデータを選択して、これらの選択したデータを学習済みのニューラルネットワークへ入力させる。これによりニューラルネットワークから出力されるデータは、光子対発生位置(x,y,z)を推定した結果を表すものとなる。
FIG. 8 is a diagram illustrating an example of processing by the
図9は、ニューラルネットワークの学習の際の信号処理部5の学習用データ作成部53および学習部54による処理の一例を説明する図である。学習用データ作成部53は、前処理部51により前処理が為された後の同時計数事象毎のデータを入力する。すなわち、学習用データ作成部53は、同時計数事象毎に、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力するとともに、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。
FIG. 9 is a diagram illustrating an example of processing by the learning
学習用データ作成部53は、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象のうちから5個のチェレンコフ光検出事象の組を複数生成する。このとき最大でn1C5個の組を生成することができる。学習用データ作成部53は、各組に含まれる5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を第1学習用データとする。
The learning
学習用データ作成部53は、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象のうちから5個のチェレンコフ光検出事象の組を複数生成する。このとき最大でn2C5個の組を生成することができる。学習用データ作成部53は、各組に含まれる5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を第2学習用データとする。
The learning
学習用データ作成部53は、第1学習用データおよび第2学習用データをニューラルネットワークへ入力させる。学習用データ作成部53は、最大でn1C5×n2C5 組の学習用データをニューラルネットワークへ入力させることができる。これによりニューラルネットワークから組の個数と同じ数の出力データ(x,y,z)が得られる。学習部54は、ニューラルネットワークから出力されるデータ(x,y,z)と教師データ(X,Y,Z)との間の誤差を評価し、その誤差が小さくなるように誤差逆伝播法によりニューラルネットワークのパラメータを調整して、ニューラルネットワークを学習させる。
The learning
図10は、ニューラルネットワークの構成の一例を示す図である。この図に示されるニューラルネットワークは、入力層、出力層および3つの中間層を含む5層構造を有する多層パーセプトロン(MLP)である。このMLPは、第1チェレンコフ検出器3Aにより検出されたn1個のチェレンコフ光検出事象のうちから選択した5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力するとともに、第2チェレンコフ検出器3Bにより検出されたn2個のチェレンコフ光検出事象のうちから選択した5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力して、光子対発生位置(x,y,z)の推定の結果を出力する。なお、ニューラルネットワークからの出力データは、位置を表すものであってもよいし、各位置の光子対発生の確信度を表すものであってもよい。
FIG. 10 is a diagram showing an example of the configuration of a neural network. The neural network shown in this figure is a multilayer perceptron (MLP) with a five-layer structure including an input layer, an output layer and three hidden layers. This MLP inputs the data (x, y, t) of each of the five Cherenkov light detection events selected from the n1 Cherenkov light detection events detected by the first Cherenkov detector 3A, and The data (x, y, t) of each of the 5 Cherenkov photodetection events selected from n2 Cherenkov photodetection events detected by the
次に、第2実施形態についてモンテカルロ法を用いて行ったシミュレーションの結果を説明する。第1チェレンコフ検出器3Aおよび第2チェレンコフ検出器3Bそれぞれとして、前述のものを想定した。第1チェレンコフ検出器3Aおよび第2チェレンコフ検出器3Bそれぞれの入射面11の中心位置を互いに結ぶ線分の中点をxyz直交座標系の原点とし、その線分がz軸上にあるとし、各々の入射面11の各辺がx軸またはy軸に平行であるとし、両入射面11の間の間隔を50mmとした。ニューラルネットワークとして図10に示したMLPを用い、そのMLPから各位置の光子対発生の確信度を表すデータを出力させた。
Next, the results of a simulation performed using the Monte Carlo method for the second embodiment will be explained. The above-described ones were assumed as the first Cherenkov detector 3A and the
光子対発生位置(教師データ(X,Y,Z))として、原点を中心としてx軸、y軸およびz軸それぞれの正負方向に5mm間隔で125(=5×5×5)個の位置を想定した。3次元空間の対称性を考慮して、或る一つの象限(および該象限の境界の軸上)にRI線源を配置して光子対を発生させで同時計数情報を収集し、この同時計数情報を用いることで他の象限についても同時計数情報を作成した。 As photon pair generation positions (teacher data (X, Y, Z)), 125 (=5 x 5 x 5) positions are set at 5 mm intervals in the positive and negative directions of the x-axis, y-axis, and z-axis, centering on the origin. I assumed. Considering the symmetry of three-dimensional space, an RI source is placed in one quadrant (and on the axis of the boundary of the quadrant) to generate photon pairs and collect coincidence information. By using this information, we created coincidence information for other quadrants as well.
シミュレーションは、第3比較例、第4比較例および第2実施例それぞれについて行った。第3比較例では、共通の光子対発生事象に含まれる相互作用事象の個数n1,n2が何れも5であるデータのみを学習用データとして用いてMLPを学習させた。第4比較例では、共通の光子対発生事象に含まれる相互作用事象の個数n1,n2が何れも5以上8以下であるデータのうち検出タイミングの早い5個ずつのチェレンコフ光検出事象のデータを学習用データとして用いてMLPを学習させた。第2実施例では、共通の光子対発生事象に含まれる相互作用事象の個数n1,n2が何れも5以上8以下であるデータに基づいて、図9を用いて一例として説明した条件で作成した学習用データを用いてMLPを学習させた。 The simulation was performed for each of the third comparative example, the fourth comparative example, and the second example. In the third comparative example, MLP was trained using only data in which the numbers n1 and n2 of interaction events included in a common photon pair occurrence event were both 5 as learning data. In the fourth comparative example, among the data in which the numbers n1 and n2 of interaction events included in a common photon pair generation event are both 5 or more and 8 or less, data of five Cherenkov photodetection events with early detection timings are used. This was used as training data to train MLP. The second example was created under the conditions described as an example using FIG. 9 based on data in which the numbers n1 and n2 of interaction events included in a common photon pair generation event are both 5 or more and 8 or less. MLP was trained using the training data.
第3比較例で作成された学習用データの個数は43,000個であった。第4比較例で作成された学習用データの個数は、122,125個であり、第3比較例の場合の2.84倍であった。第2実施例で作成された学習用データの個数は、6,666,375個であり、第3比較例の場合の155倍であった。このように、第3比較例および第4比較例と比べると、第2実施例では、より多くの学習用データを用意することができる。 The number of learning data created in the third comparative example was 43,000. The number of learning data created in the fourth comparative example was 122,125, which was 2.84 times that in the third comparative example. The number of learning data created in the second example was 6,666,375, which was 155 times that in the third comparative example. In this way, compared to the third comparative example and the fourth comparative example, more learning data can be prepared in the second example.
図11は、シミュレーションの結果を示す図である。この図は、第3比較例、第4比較例および第2実施例それぞれの光子対発生位置の推定の精度を示す。第3比較例では推定精度は91.45%であり、第4比較例では推定精度は93.80%であり、第2実施例では推定精度は95.11%であった。第3比較例および第4比較例と比べると、第2実施例では、光子対発生位置の推定の精度が高い値であった。第2実施例では、より多くの学習用データを用いてMLPを学習させたことにより、光子対発生位置の推定の精度が向上したと考えられる。 FIG. 11 is a diagram showing the results of the simulation. This figure shows the accuracy of estimating the photon pair generation position in each of the third comparative example, the fourth comparative example, and the second example. In the third comparative example, the estimation accuracy was 91.45%, in the fourth comparative example, the estimation accuracy was 93.80%, and in the second example, the estimation accuracy was 95.11%. Compared with the third comparative example and the fourth comparative example, in the second example, the accuracy of estimating the photon pair generation position was high. In the second example, it is considered that the accuracy of estimating the photon pair generation position was improved by learning the MLP using more learning data.
なお、光子対発生位置によって学習用データの数に偏りがあると、その偏りがある学習用データを用いて学習させたニューラルネットワークによる光子対発生位置の推定にも偏りが生じることが考えられる。そこで、2つのチェレンコフ検出器の間の各光子対発生位置について作成された学習用データの数を確認しながら同時計数データの収集を行い、或る光子対発生位置について作成された学習用データの数が或る目標値に達したら、その光子対発生位置については同時計数データの収集を終了するのが好ましい。この場合、各光子対発生位置についての同時計数データの収集の所要時間は位置によって異なることがある。 Note that if there is a bias in the number of learning data depending on the photon pair generation position, it is conceivable that the estimation of the photon pair generation position by a neural network trained using the biased learning data will also be biased. Therefore, we collected coincidence data while checking the number of learning data created for each photon pair generation position between two Cerenkov detectors, and we When the number reaches a certain target value, it is preferable to stop collecting coincidence data for that photon pair generation position. In this case, the time required to collect coincidence data for each photon pair generation position may vary depending on the position.
以上のとおり、本実施形態によれば、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システムにおいて、該ニューラルネットワークを学習させる際に用いる大量の学習用データを短時間で作成することができ、該ニューラルネットワークを容易に学習させることができる。ニューラルネットワークの学習は、検出システムの製造者においても容易に行うことができ、検出システムの利用者においても容易に行うことができる。例えば、検出システムのキャリブレーションを行うことが必要となった場合に、利用者自らがニューラルネットワークの再学習または追加学習を容易に行うことができる。 As described above, according to the present embodiment, in a detection system including a Cerenkov detector and a signal processing unit using a neural network, a large amount of training data used for training the neural network can be created in a short time. The neural network can be easily trained. Training of the neural network can be easily performed by the manufacturer of the detection system, and can also be easily performed by the user of the detection system. For example, if the detection system needs to be calibrated, the user can easily retrain or additionally train the neural network.
1,2…検出システム、3…チェレンコフ検出器、3A…第1チェレンコフ検出器、3B…第2チェレンコフ検出器、10…輻射体、20…光検出器、4…信号処理部、41…前処理部、42…推定部、43…学習用データ作成部、44…学習部、45…記憶部、5…信号処理部、51…前処理部、52…推定部、53…学習用データ作成部、54…学習部、55…記憶部。
DESCRIPTION OF
Claims (4)
前記光検出器から出力される信号を入力して、前記輻射体における相互作用事象毎に、前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、前記輻射体における相互作用位置を推定する推定部と、
相互作用事象毎に、前記チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を学習用データとする学習用データ作成部と、
前記学習用データ作成部により作成された前記学習用データを用いて前記ニューラルネットワークを学習させる学習部と、
を備える検出システム。 A radiator that generates Cherenkov light by interaction with incident particles, and a light receiving surface that detects the Cherenkov light generated by the radiator, and a signal indicating the detection position and detection time of the Cherenkov light on the light receiving surface. a Cerenkov detector including a photodetector that outputs;
A signal output from the photodetector is input, and for each interaction event in the radiator, the number of Cerenkov light detection events on the light receiving surface and the detection position and detection time of each Cerenkov light detection event are determined. an estimation unit that estimates an interaction position in the radiator using a neural network;
For each interaction event, a plurality of sets of less than n Cerenkov light detection events are generated from among the n number of Cerenkov light detection events by the photodetector of the Cherenkov detector, and each of the sets is included in each of the plurality of sets. a learning data creation unit that uses the detection position and the detection time of each Cerenkov light detection event as learning data;
a learning unit that causes the neural network to learn using the learning data created by the learning data creation unit;
A detection system comprising:
前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、
同時計数事象毎に、前記第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第1学習用データとし、前記第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第2学習用データとする学習用データ作成部と、
前記学習用データ作成部により作成された前記第1学習用データおよび前記第2学習用データを用いて前記ニューラルネットワークを学習させる学習部と、
を備える検出システム。 A radiator that generates Cherenkov light by interaction with incident particles, and a light receiving surface that detects the Cherenkov light generated by the radiator, and a signal indicating the detection position and detection time of the Cherenkov light on the light receiving surface. a first Cerenkov detector and a second Cerenkov detector each including a photodetector that outputs a photodetector;
The signal output from the photodetector of each of the first Cherenkov detector and the second Cherenkov detector is input, and the second Based on the number of Cherenkov light detection events on the light receiving surface of each of the first Cherenkov detector and the second Cherenkov detector, and the detection position and detection time of each Cherenkov light detection event, a photon pair generation position is determined by a neural network. an estimator that estimates;
For each coincidence event, a plurality of sets of less than n1 Cherenkov light detection events are generated from among the n1 Cherenkov light detection events by the photodetector of the first Cherenkov detector, and for each of these plurality of sets, The detection position and the detection time of each included Cherenkov light detection event are used as first learning data, and less than n2 Cherenkov light detection events are detected from among the n2 Cherenkov light detection events by the photodetector of the second Cherenkov detector. a learning data creation unit that generates a plurality of sets of detection events and uses the detection position and the detection time of each Cerenkov light detection event included in each of the plurality of sets as second learning data;
a learning unit that causes the neural network to learn using the first learning data and the second learning data created by the learning data creation unit;
A detection system comprising:
前記光検出器から出力される信号を入力して、前記輻射体における相互作用事象毎に、前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、前記輻射体における相互作用位置を推定する推定部と、
を備える検出システムの前記ニューラルネットワークを学習させる方法であって、
相互作用事象毎に、前記チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を学習用データとする学習用データ作成ステップと、
前記学習用データ作成ステップにおいて作成された前記学習用データを用いて前記ニューラルネットワークを学習させる学習ステップと、
を備える学習方法。 A radiator that generates Cherenkov light by interaction with incident particles, and a light receiving surface that detects the Cherenkov light generated by the radiator, and a signal indicating the detection position and detection time of the Cherenkov light on the light receiving surface. a Cerenkov detector including a photodetector that outputs;
A signal output from the photodetector is input, and for each interaction event in the radiator, the number of Cerenkov light detection events on the light receiving surface and the detection position and detection time of each Cerenkov light detection event are determined. an estimation unit that estimates an interaction position in the radiator using a neural network;
A method for training the neural network of a detection system comprising:
For each interaction event, a plurality of sets of less than n Cerenkov light detection events are generated from among the n number of Cerenkov light detection events by the photodetector of the Cherenkov detector, and each of the sets is included in each of the plurality of sets. a learning data creation step in which the detection position and the detection time of each Cerenkov light detection event are used as learning data;
a learning step of causing the neural network to learn using the learning data created in the learning data creation step;
A learning method that prepares you.
前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、
を備える検出システムの前記ニューラルネットワークを学習させる方法であって、
同時計数事象毎に、前記第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第1学習用データとし、前記第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第2学習用データとする学習用データ作成ステップと、
前記学習用データ作成ステップにおいて作成された前記第1学習用データおよび前記第2学習用データを用いて前記ニューラルネットワークを学習させる学習ステップと、
を備える学習方法。 A radiator that generates Cherenkov light by interaction with incident particles, and a light receiving surface that detects the Cherenkov light generated by the radiator, and a signal indicating the detection position and detection time of the Cherenkov light on the light receiving surface. a first Cerenkov detector and a second Cerenkov detector each including a photodetector that outputs a photodetector;
The signal output from the photodetector of each of the first Cherenkov detector and the second Cherenkov detector is input, and the second Based on the number of Cherenkov light detection events on the light receiving surface of each of the first Cherenkov detector and the second Cherenkov detector, and the detection position and detection time of each Cherenkov light detection event, a photon pair generation position is determined by a neural network. an estimator that estimates;
A method for training the neural network of a detection system comprising:
For each coincidence event, a plurality of sets of less than n1 Cherenkov light detection events are generated from among the n1 Cherenkov light detection events by the photodetector of the first Cherenkov detector, and for each of these plurality of sets, The detection position and the detection time of each included Cherenkov light detection event are used as first learning data, and less than n2 Cherenkov light detection events are detected from among the n2 Cherenkov light detection events by the photodetector of the second Cherenkov detector. a learning data creation step of generating a plurality of sets of detection events and using the detection position and the detection time of each Cerenkov light detection event included in each of the plurality of sets as second learning data;
a learning step of causing the neural network to learn using the first learning data and the second learning data created in the learning data creation step;
A learning method that prepares you.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020027273A JP7454402B2 (en) | 2020-02-20 | 2020-02-20 | Detection system and learning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020027273A JP7454402B2 (en) | 2020-02-20 | 2020-02-20 | Detection system and learning method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021131327A JP2021131327A (en) | 2021-09-09 |
JP7454402B2 true JP7454402B2 (en) | 2024-03-22 |
Family
ID=77550818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020027273A Active JP7454402B2 (en) | 2020-02-20 | 2020-02-20 | Detection system and learning method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7454402B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008510136A (en) | 2004-08-12 | 2008-04-03 | ナヴォテック メディカル リミテッド | Location of radiation sources in the subject's body |
WO2018167900A1 (en) | 2017-03-16 | 2018-09-20 | 日本電気株式会社 | Neural network learning device, method, and program |
US20190064369A1 (en) | 2017-08-30 | 2019-02-28 | Shenzhen United Imaging Healthcare Co., Ltd. | System, method, and detector module for pet imaging |
JP2020020577A (en) | 2018-07-30 | 2020-02-06 | 学校法人北里研究所 | Cherenkov detector |
-
2020
- 2020-02-20 JP JP2020027273A patent/JP7454402B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008510136A (en) | 2004-08-12 | 2008-04-03 | ナヴォテック メディカル リミテッド | Location of radiation sources in the subject's body |
WO2018167900A1 (en) | 2017-03-16 | 2018-09-20 | 日本電気株式会社 | Neural network learning device, method, and program |
US20190064369A1 (en) | 2017-08-30 | 2019-02-28 | Shenzhen United Imaging Healthcare Co., Ltd. | System, method, and detector module for pet imaging |
JP2020020577A (en) | 2018-07-30 | 2020-02-06 | 学校法人北里研究所 | Cherenkov detector |
Also Published As
Publication number | Publication date |
---|---|
JP2021131327A (en) | 2021-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Müller et al. | A novel DOI positioning algorithm for monolithic scintillator crystals in PET based on gradient tree boosting | |
Barrett et al. | Maximum-likelihood methods for processing signals from gamma-ray detectors | |
US20190120975A1 (en) | Device for counting particles for a radiation detector | |
US20160084703A1 (en) | Detection of radiation quanta using an optical detector pixel array and pixel cell trigger state sensing circuits | |
WO2018090900A1 (en) | Method and apparatus for measuring arrival time of high-energy photons | |
CN105510363A (en) | Device, system and method for double-energy detection | |
US20200326438A1 (en) | Radiation position detector and pet device | |
CN110664423B (en) | Imaging method, imaging device, detector, terminal equipment and PET system | |
JP4367903B2 (en) | Radiation position detector calibration method and radiation position detector | |
CN106461797B (en) | Method for improving energy resolution of a gamma ray scintillation detector, associated system, component and application | |
JP7454402B2 (en) | Detection system and learning method | |
JPH04270984A (en) | Position detector | |
JP2020020577A (en) | Cherenkov detector | |
CN110673194B (en) | Compton scattering sequence recovery method, apparatus, device and medium | |
Bronstein et al. | Optimal nonlinear line-of-flight estimation in positron emission tomography | |
CN110680368B (en) | Method and device for detecting effective single event, and method and system for reading signal | |
WO2018079730A1 (en) | Charged particle track detector | |
Loyd et al. | Scintillator-based detectors | |
US10616521B2 (en) | Imaging device for detecting sparse event information in a pixel array | |
CN209961906U (en) | Concurrency detection circuit, photon detector and pulse type TOF sensor | |
Tsirigotis et al. | Hellenic Open University Reconstruction & Simulation (HOURS) software package: User Guide & short reference of Event Generation, Cherenkov photon production and Optical Module simulation | |
Champley et al. | Statistical LOR estimation for a high-resolution dMiCE PET detector | |
TW201405331A (en) | System for recycling triple event data in PET and method thereof | |
WO2017175764A1 (en) | Radiation position detector and pet device | |
Cates et al. | Achievable position resolution of an alpha detector with continuous spatial response for use in associated particle imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7454402 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |