JP2021131327A - Detection system and learning method - Google Patents

Detection system and learning method Download PDF

Info

Publication number
JP2021131327A
JP2021131327A JP2020027273A JP2020027273A JP2021131327A JP 2021131327 A JP2021131327 A JP 2021131327A JP 2020027273 A JP2020027273 A JP 2020027273A JP 2020027273 A JP2020027273 A JP 2020027273A JP 2021131327 A JP2021131327 A JP 2021131327A
Authority
JP
Japan
Prior art keywords
cherenkov
detection
light
detector
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020027273A
Other languages
Japanese (ja)
Other versions
JP7454402B2 (en
Inventor
希望 大手
Kibo Ote
希望 大手
良亮 大田
Ryosuke Ota
良亮 大田
二三生 橋本
Fumio Hashimoto
二三生 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Priority to JP2020027273A priority Critical patent/JP7454402B2/en
Publication of JP2021131327A publication Critical patent/JP2021131327A/en
Application granted granted Critical
Publication of JP7454402B2 publication Critical patent/JP7454402B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Radiation (AREA)
  • Nuclear Medicine (AREA)

Abstract

To provide a device which, in a detection system comprising a Cerenkov detector and a signal processing unit that uses a neural network, can easily train the neural network.SOLUTION: A detection system 1 comprises a Cerenkov detector 3 and a signal processing unit 4. The signal processing unit 4 includes an estimation unit 42, a learning data creation unit 43 and a learning unit 44. The estimation unit 42 estimates, for each mutual action event, a mutual action position by a neural network on the basis of the number n of Cerenkov light detection events and the detection potion and detection time of each Cerenkov light detection event. The learning data creation unit 43 generates, for each mutual action event, a plurality of less than n sets of Cerenkov light detection events from among the n Cerenkov light detection events by the Cerenkov detector 3, and uses the detection position and detection time of each Cerenkov light detection event included in each of these plurality of sets, as neural network learning data.SELECTED DRAWING: Figure 1

Description

本発明は、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システム、および、該ニューラルネットワークを学習させる方法に関するものである。 The present invention relates to a detection system including a Cherenkov detector and a signal processing unit using a neural network, and a method for training the neural network.

輻射体中における荷電粒子(例えば、電子、ミューオン)の移動速度が該輻射体中の光速度より速いと、荷電粒子と輻射体との間の相互作用により光が放射される。また、荷電していない粒子(例えば、γ線、ニュートリノ)が輻射体中において光電効果により電子等の荷電粒子を発生させる場合があり、その荷電粒子の移動速度が該輻射体中の光速度より速いと光が放射される。このような現象はチェレンコフ効果またはチェレンコフ放射と呼ばれ、放射される光はチェレンコフ輻射光またはチェレンコフ光と呼ばれる。 When the moving speed of charged particles (for example, electrons, muons) in the radiator is faster than the light velocity in the radiator, light is emitted by the interaction between the charged particles and the radiator. In addition, uncharged particles (for example, γ-rays and neutrinos) may generate charged particles such as electrons in the radiator due to the photoelectric effect, and the moving speed of the charged particles is higher than the light velocity in the radiator. Light is emitted when it is fast. Such a phenomenon is called the Cherenkov effect or Cherenkov radiation, and the emitted light is called Cherenkov radiation or Cherenkov light.

チェレンコフ検出器は、チェレンコフ効果を利用することで、到来した粒子を検出することができる。チェレンコフ検出器は、入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、この輻射体で発生したチェレンコフ光を検出する光検出器と、を備える。チェレンコフ検出器は、例えば、PET(Positron Emission Tomography)装置またはSPECT(Single Photon Emission Computed Tomography)装置において、被検体から到来したγ線(PETではエネルギ511keV)を検出する放射線検出器として用いられる。 The Cherenkov detector can detect incoming particles by utilizing the Cherenkov effect. The Cherenkov detector includes a radiator that generates Cherenkov light by interacting with incident particles and a photodetector that detects the Cherenkov light generated by the radiator. The Cherenkov detector is used as a radiation detector for detecting γ-rays (energy 511 keV in PET) arriving from a subject in, for example, a PET (Positron Emission Tomography) device or a SPECT (Single Photon Emission Computed Tomography) device.

非特許文献1に、チェレンコフ検出器の光検出器によるチェレンコフ光検出事象に基づいて輻射体における相互作用位置をニューラルネットワークにより推定する技術が記載されている。 Non-Patent Document 1 describes a technique of estimating the interaction position in a radiator by a neural network based on a Cherenkov light detection event by a Cherenkov detector photodetector.

Hashimoto, F., et al. “Afeasibility study on 3D interaction position estimation using deep neuralnetwork in Cherenkov-based detector: a Monte Carlo simulation study.”Biomedical Physics & Engineering Express, 5 (2019): 035001.Hashimoto, F., et al. “Afeasibility study on 3D interaction position estimation using deep neuralnetwork in Cherenkov-based detector: a Monte Carlo simulation study.” Biomedical Physics & Engineering Express, 5 (2019): 035001.

上記の技術においては、大量の学習用データを用いてニューラルネットワークを学習させた上で、その学習済みのニューラルネットワークにより相互作用位置を推定する必要がある。しかし、学習に用いる大量の学習用データの収集には長時間を要するので、ニューラルネットワークの学習は容易でない。 In the above technique, it is necessary to train a neural network using a large amount of learning data and then estimate the interaction position by the trained neural network. However, it is not easy to learn a neural network because it takes a long time to collect a large amount of learning data used for learning.

本発明は、上記問題点を解消する為になされたものであり、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システムにおいて該ニューラルネットワークを容易に学習させることができる装置および方法を提供することを目的とする。 The present invention has been made to solve the above problems, and is an apparatus and method capable of easily learning the neural network in a detection system including a Cherenkov detector and a signal processing unit using a neural network. The purpose is to provide.

本発明の第1態様の検出システムは、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を含むチェレンコフ検出器と、(2) 光検出器から出力される信号を入力して、輻射体における相互作用事象毎に、受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、輻射体における相互作用位置を推定する推定部と、(3) 相互作用事象毎に、チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を学習用データとする学習用データ作成部と、(4) 学習用データ作成部により作成された学習用データを用いてニューラルネットワークを学習させる学習部と、を備える。 The detection system of the first aspect of the present invention has (1) a radiator that generates Cherenkov light by interaction with incident particles and a light receiving surface that detects Cherenkov light generated by the radiator on the light receiving surface. A Cherenkov detector that outputs a signal indicating the detection position and detection time of Cherenkov light, and (2) a signal output from the light detector is input, and each interaction event in the radiator Based on the number of Cherenkov light detection events on the light receiving surface and the detection position and detection time of each Cherenkov light detection event, an estimation unit that estimates the interaction position in the radiator by a neural network, and (3) for each interaction event In addition, a plurality of sets of less than n Cherenkov light detection events are generated from the n Cherenkov light detection events by the light detector of the Cherenkov detector, and each Cherenkov light detection event included in each of these multiple sets is generated. It is provided with a learning data creation unit that uses the detection position and detection time of the above as training data, and (4) a learning unit that trains a neural network using the learning data created by the learning data creation unit.

本発明の第2態様の検出システムは、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を各々含む第1チェレンコフ検出器および第2チェレンコフ検出器と、(2) 第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、(3) 同時計数事象毎に、第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第1学習用データとし、第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第2学習用データとする学習用データ作成部と、(4) 学習用データ作成部により作成された第1学習用データおよび第2学習用データを用いてニューラルネットワークを学習させる学習部と、を備える。 The detection system of the second aspect of the present invention has (1) a radiator that generates Cherenkov light by interaction with incident particles and a light receiving surface that detects Cherenkov light generated by the radiator, and is on the light receiving surface. A first Cherenkov detector and a second Cherenkov detector including, respectively, an optical detector that outputs a signal indicating a Cherenkov light detection position and a detection time, and (2) a first Cherenkov detector and a second Cherenkov detector, respectively. By inputting the signal output from the Cherenkov detector, the Cherenkov on the light receiving surface of each of the first Cherenkov detector and the second Cherenkov detector for each simultaneous counting event of the photon pair generated by the pair annihilation of the positivity and the electron. An estimation unit that estimates the photon pair generation position by a neural network based on the number of light detection events and the detection position and detection time of each Cherenkov light detection event, and (3) the first Cherenkov detector for each simultaneous counting event. A plurality of sets of less than n1 Cherenkov light detection events are generated from the n1 Cherenkov light detection events by the light detector of the above, and the detection position and detection of each Cherenkov light detection event included in each of these plurality of sets. Using the time as the first learning data, a plurality of sets of less than n2 Cherenkov light detection events are generated from the n2 Cherenkov light detection events by the light detector of the second Cherenkov detector, and these plurality of sets are generated. A learning data creation unit that uses the detection position and detection time of each Cherenkov light detection event included in each as the second learning data, and (4) the first learning data and the second learning data created by the learning data creation unit. It includes a learning unit that trains a neural network using training data.

本発明の第1態様の学習方法は、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を含むチェレンコフ検出器と、(2) 光検出器から出力される信号を入力して、輻射体における相互作用事象毎に、受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、輻射体における相互作用位置を推定する推定部と、を備える検出システムのニューラルネットワークを学習させる方法である。本発明の第1態様の学習方法は、(a) 相互作用事象毎に、チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を学習用データとする学習用データ作成ステップと、(b) 学習用データ作成ステップにおいて作成された学習用データを用いてニューラルネットワークを学習させる学習ステップと、を備える。 The learning method of the first aspect of the present invention has (1) a radiator that generates Cherenkov light by interaction with incident particles and a light receiving surface that detects Cherenkov light generated by the radiator on the light receiving surface. A Cherenkov detector that outputs a signal indicating the detection position and detection time of Cherenkov light, and (2) a signal output from the light detector is input, and each interaction event in the radiator , A neural network of a detection system comprising an estimation unit that estimates the interaction position in the radiator by a neural network based on the number of Cherenkov light detection events on the light receiving surface and the detection position and detection time of each Cherenkov light detection event. Is a way to learn. The learning method of the first aspect of the present invention is (a) for each interaction event, a plurality of sets of less than n Cherenkov light detection events out of n Cherenkov light detection events by the light detector of the Cherenkov detector. A learning data creation step that is generated and uses the detection position and detection time of each Cherenkov light detection event included in each of these plurality of sets as learning data, and (b) learning created in the learning data creation step. It includes a learning step of training a neural network using the data for training.

本発明の第2態様の学習方法は、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を各々含む第1チェレンコフ検出器および第2チェレンコフ検出器と、(2) 第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、を備える検出システムのニューラルネットワークを学習させる方法である。本発明の第2態様の学習方法は、(a) 同時計数事象毎に、第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第1学習用データとし、第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第2学習用データとする学習用データ作成ステップと、(b) 学習用データ作成ステップにおいて作成された第1学習用データおよび第2学習用データを用いてニューラルネットワークを学習させる学習ステップと、を備える。 The learning method of the second aspect of the present invention has (1) a radiator that generates Cherenkov light by interaction with incident particles and a light receiving surface that detects Cherenkov light generated by the radiator, and is on the light receiving surface. A first Cherenkov detector and a second Cherenkov detector including, respectively, an optical detector that outputs a signal indicating a Cherenkov light detection position and a detection time, and (2) a first Cherenkov detector and a second Cherenkov detector, respectively. By inputting the signal output from the Cherenkov detector, the Cherenkov on the light receiving surface of each of the first Cherenkov detector and the second Cherenkov detector for each simultaneous counting event of photon pairs generated by the pair annihilation of positivity and electrons. This is a method of learning a neural network of a detection system including an estimation unit that estimates a photon pair generation position by a neural network based on the number of light detection events and the detection position and detection time of each Cherenkov light detection event. The learning method of the second aspect of the present invention is (a) a set of less than n1 Cherenkov light detection events out of n1 Cherenkov light detection events by the light detector of the first Cherenkov detector for each simultaneous counting event. Are generated, and the detection position and detection time of each Cherenkov light detection event included in each of these plurality of sets are used as the first learning data, and n2 Cherenkov light detections by the light detector of the second Cherenkov detector. For learning, a plurality of Cherenkov light detection event pairs of less than n2 are generated from the events, and the detection position and detection time of each Cherenkov light detection event included in each of these plurality of sets are used as the second learning data. It includes a data creation step and a learning step in which a neural network is trained using the first training data and the second training data created in (b) the training data creation step.

本発明によれば、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システムにおいて、該ニューラルネットワークを容易に学習させることができる。 According to the present invention, the neural network can be easily learned in a detection system including a Cherenkov detector and a signal processing unit using a neural network.

図1は、第1実施形態の検出システム1の構成を示す図である。FIG. 1 is a diagram showing a configuration of the detection system 1 of the first embodiment. 図2は、チェレンコフ検出器3の構成を示す斜視図である。FIG. 2 is a perspective view showing the configuration of the Cherenkov detector 3. 図3は、相互作用位置の推定の際の信号処理部4の推定部42による処理の一例を説明する図である。FIG. 3 is a diagram illustrating an example of processing by the estimation unit 42 of the signal processing unit 4 when estimating the interaction position. 図4は、ニューラルネットワークの学習の際の信号処理部4の学習用データ作成部43および学習部44による処理の一例を説明する図である。FIG. 4 is a diagram illustrating an example of processing by the learning data creation unit 43 and the learning unit 44 of the signal processing unit 4 when learning the neural network. 図5は、ニューラルネットワークの構成の一例を示す図である。FIG. 5 is a diagram showing an example of the configuration of the neural network. 図6は、シミュレーションの結果を示す図である。FIG. 6 is a diagram showing the results of the simulation. 図7は、第2実施形態の検出システム2の構成を示す図である。FIG. 7 is a diagram showing a configuration of the detection system 2 of the second embodiment. 図8は、光子対発生位置の推定の際の信号処理部5の推定部52による処理の一例を説明する図である。FIG. 8 is a diagram illustrating an example of processing by the estimation unit 52 of the signal processing unit 5 when estimating the photon pair generation position. 図9は、ニューラルネットワークの学習の際の信号処理部5の学習用データ作成部53および学習部54による処理の一例を説明する図である。FIG. 9 is a diagram illustrating an example of processing by the learning data creation unit 53 and the learning unit 54 of the signal processing unit 5 when learning the neural network. 図10は、ニューラルネットワークの構成の一例を示す図である。FIG. 10 is a diagram showing an example of the configuration of the neural network. 図11は、シミュレーションの結果を示す図である。FIG. 11 is a diagram showing the results of the simulation.

以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。本発明は、これらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. The present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

図1は、第1実施形態の検出システム1の構成を示す図である。検出システム1は、チェレンコフ検出器3および信号処理部4を備える。チェレンコフ検出器3は、輻射体10および光検出器20を備える。図2は、チェレンコフ検出器3の構成を示す斜視図である。 FIG. 1 is a diagram showing a configuration of the detection system 1 of the first embodiment. The detection system 1 includes a Cherenkov detector 3 and a signal processing unit 4. The Cherenkov detector 3 includes a radiator 10 and a photodetector 20. FIG. 2 is a perspective view showing the configuration of the Cherenkov detector 3.

輻射体10は、入射した粒子(例えばγ線)との相互作用によりチェレンコフ光を発生させる。輻射体10は、屈折率が既知であってチェレンコフ効果が生じ得るモノリシックな材料からなる。輻射体10は、シンチレーション光が生じ難い材料であるのが好ましい。輻射体10の材料は、例えば、鉛ガラス(SiO+PbO)、フッ化鉛(PbF)、PWO(PbWO)等である。輻射体10は直方体形状を有するのが好ましい。 The radiator 10 generates Cherenkov light by interacting with incident particles (for example, γ-rays). The radiator 10 is made of a monolithic material having a known refractive index and capable of producing a Cherenkov effect. The radiator 10 is preferably made of a material that does not easily generate scintillation light. The material of the radiator 10 is, for example, lead glass (SiO 2 + PbO) , lead fluoride (PbF 2 ), PWO (PbWO 4 ) and the like. The radiator 10 preferably has a rectangular parallelepiped shape.

光検出器20は、輻射体10で発生したチェレンコフ光を検出する受光面21を有する。光検出器20の受光面21は、直方体形状の輻射体10の一つの面に対向しており、その面と平行である。光検出器20の受光面21は、輻射体10の一つの面に接していてもよい。光検出器20は、受光面21におけるチェレンコフ光検出に基づいて、受光面21上のチェレンコフ光の検出位置(x,y)および検出時刻tを表す信号を出力する。その信号は、チェレンコフ光検出時のパルス出力により、検出時刻tを表すことができる。 The photodetector 20 has a light receiving surface 21 that detects Cherenkov light generated by the radiator 10. The light receiving surface 21 of the photodetector 20 faces one surface of the rectangular parallelepiped radiator 10 and is parallel to that surface. The light receiving surface 21 of the photodetector 20 may be in contact with one surface of the radiator 10. The photodetector 20 outputs a signal representing the detection position (x, y) and the detection time t of the Cherenkov light on the light receiving surface 21 based on the Cherenkov light detection on the light receiving surface 21. The signal can represent the detection time t by the pulse output at the time of Cherenkov light detection.

光検出器20は、フォトンカウンティング動作をすることができる高速・高感度のものであるのが好適である。光検出器20として例えばマルチアノード光電子増倍管またはMPPC(登録商標)が好適に用いられる。マルチアノード光電子増倍管(multi-anode photo multiplier tube)は、複数の画素として複数のアノードを有し、各アノードの受光量に応じた検出信号を出力することができる。MPPC(Multi-Pixel Photon Counter)は、ガイガー・モードで動作するアバランシェ・フォトダイオードにクエンチング抵抗が接続されたものを1つの画素として、複数の画素が2次元配列されたものである。これらは高速・高感度の光検出をすることができる。 The photodetector 20 is preferably a high-speed, high-sensitivity photodetector capable of performing a photon counting operation. As the photodetector 20, for example, a multi-anode photomultiplier tube or MPPC® is preferably used. A multi-anode photomultiplier tube has a plurality of anodes as a plurality of pixels and can output a detection signal according to the amount of light received by each anode. An MPPC (Multi-Pixel Photon Counter) is a pixel in which a quenching resistor is connected to an avalanche photodiode operating in a Geiger mode as one pixel, and a plurality of pixels are arranged two-dimensionally. These can perform high-speed and high-sensitivity photodetection.

信号処理部4は、光検出器20から出力される信号を入力する。信号処理部4は、この入力信号を処理することで、輻射体10における相互作用事象毎に、光検出器20の受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tに基づいて、ニューラルネットワークにより、輻射体10における相互作用位置(x,y,z)を推定する。なお、x,y,z直交座標系のx軸およびy軸は、光検出器20の受光面21に平行であって、互いに直交している。z軸は、光検出器20の受光面21に垂直である。 The signal processing unit 4 inputs a signal output from the photodetector 20. By processing this input signal, the signal processing unit 4 processes the number n of Cherenkov light detection events on the light receiving surface 21 of the photodetector 20 and the detection position of each Cherenkov light detection event for each interaction event in the radiator 10. Based on (x, y) and the detection time t, the interaction position (x, y, z) in the radiator 10 is estimated by the neural network. The x-axis and y-axis of the x, y, z Cartesian coordinate system are parallel to the light receiving surface 21 of the photodetector 20 and are orthogonal to each other. The z-axis is perpendicular to the light receiving surface 21 of the photodetector 20.

また、信号処理部4は、輻射体10における相互作用事象毎に、光検出器20の受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tに基づいて、ニューラルネットワークを学習させる為の学習用データを作成する。そして、信号処理部4は、この学習用データを用いてニューラルネットワークを学習させる。 Further, the signal processing unit 4 detects the number n of Cherenkov light detection events on the light receiving surface 21 of the photodetector 20 and the detection positions (x, y) of each Cherenkov light detection event for each interaction event in the radiator 10. Based on the time t, training data for training the neural network is created. Then, the signal processing unit 4 trains the neural network using the learning data.

信号処理部4は例えばコンピュータにより構成される。信号処理部4は、ニューラルネットワークによる処理をCPU(Central Processing Unit)により行ってもよいが、より高速な処理が可能なDSP(Digital Signal Processor)またはGPU(Graphics Processing Unit)により行うのが好適である。 The signal processing unit 4 is composed of, for example, a computer. The signal processing unit 4 may perform processing by a neural network by a CPU (Central Processing Unit), but it is preferable to perform processing by a DSP (Digital Signal Processor) or a GPU (Graphics Processing Unit) capable of higher speed processing. be.

信号処理部4は、前処理部41、推定部42、学習用データ作成部43、学習部44および記憶部45を備える。 The signal processing unit 4 includes a preprocessing unit 41, an estimation unit 42, a learning data creation unit 43, a learning unit 44, and a storage unit 45.

前処理部41は、光検出器20から出力される信号に基づいて、各チェレンコフ光検出事象について検出位置(x,y)および検出時刻tを求める。検出時刻tは、入力信号のパルスのタイミングから求めることができる。その後、前処理部41は、各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tを含むデータを検出時刻tでソートする。そして、前処理部41は、ソートしたデータのうち一定幅のタイムウィンドウ内にあるデータを、共通の相互作用事象により生じたチェレンコフ光検出事象のデータであると判断する。 The preprocessing unit 41 obtains a detection position (x, y) and a detection time t for each Cherenkov light detection event based on the signal output from the photodetector 20. The detection time t can be obtained from the timing of the pulse of the input signal. After that, the preprocessing unit 41 sorts the data including the detection position (x, y) of each Cherenkov light detection event and the detection time t by the detection time t. Then, the preprocessing unit 41 determines that the data in the time window having a certain width among the sorted data is the data of the Cherenkov light detection event caused by the common interaction event.

このようにして、前処理部41は、各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tを含むデータを相互作用事象毎に区分する。これにより、相互作用事象毎に、受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tを求めることができる。 In this way, the preprocessing unit 41 classifies the data including the detection position (x, y) and the detection time t of each Cherenkov light detection event for each interaction event. Thereby, for each interaction event, the number n of Cherenkov light detection events on the light receiving surface 21, the detection position (x, y) of each Cherenkov light detection event, and the detection time t can be obtained.

また、前処理部41は、チェレンコフ光検出事象の数nが閾値th未満である相互作用事象のデータを破棄して、推定部42は、チェレンコフ光検出事象の数nが閾値th以上である相互作用事象について選択的に相互作用位置を推定するのが好適である。これは、チェレンコフ光検出事象の数nが閾値th未満である相互作用事象の場合、推定部42による相互作用位置の推定の精度が悪いからである。同様に、学習用データ作成部43は、チェレンコフ光検出事象の数nが閾値th以上である相互作用事象について学習用データを作成するのが好適である。例えば閾値thは3である。 Further, the preprocessing unit 41 discards the data of the interaction event in which the number n of the Cherenkov light detection events is less than the threshold th, and the estimation unit 42 discards the data of the interaction event in which the number n of the Cherenkov light detection events is the threshold th or more. It is preferable to selectively estimate the interaction position for the action event. This is because, in the case of an interaction event in which the number n of Cherenkov light detection events is less than the threshold value th, the accuracy of estimating the interaction position by the estimation unit 42 is poor. Similarly, the learning data creation unit 43 preferably creates learning data for interaction events in which the number n of Cherenkov light detection events is equal to or greater than the threshold value th. For example, the threshold th is 3.

推定部42は、前処理部41により前処理が為された後のデータを入力して、相互作用事象毎に、光検出器20の受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tに基づいて、ニューラルネットワークにより相互作用位置(x,y,z)を推定する。ここで用いられるニューラルネットワークは、例えば、多層パーセプトロン(Multi-layer Perceptron、MLP)、畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)、再帰型ニューラルネットワーク(Recurrent Neural Network、RNN)等である。 The estimation unit 42 inputs the data after the preprocessing by the preprocessing unit 41, and for each interaction event, the number n of Cherenkov light detection events on the light receiving surface 21 of the photodetector 20 and each Cherenkov light. The interaction position (x, y, z) is estimated by a neural network based on the detection position (x, y) of the detection event and the detection time t. The neural network used here is, for example, a multi-layer perceptron (MLP), a convolutional neural network (CNN), a recurrent neural network (RNN), or the like.

推定部42は、複数のニューラルネットワークを有し、チェレンコフ光検出事象の数nに対応したニューラルネットワークにより相互作用位置を推定してもよい。すなわち、チェレンコフ光検出事象の数がnである相互作用事象については、その数nに対応して設けられたニューラルネットワークにより、相互作用位置を推定してもよい。 The estimation unit 42 may have a plurality of neural networks and estimate the interaction position by the neural network corresponding to the number n of Cherenkov light detection events. That is, for an interaction event in which the number of Cherenkov light detection events is n, the interaction position may be estimated by a neural network provided corresponding to the number n.

学習用データ作成部43は、相互作用事象毎に、チェレンコフ検出器3の光検出器20によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を学習用データとする。相互作用事象に含まれるチェレンコフ光検出事象がn個であって、そのうちからm個のチェレンコフ光検出事象の組を生成する場合(ただし、m<n)、n個の集合の中からm個を取り出す組合せの個数は である。 The learning data creation unit 43 generates a plurality of sets of less than n Cherenkov light detection events from the n Cherenkov light detection events by the photodetector 20 of the Cherenkov detector 3 for each interaction event. The detection position and detection time of each Cherenkov light detection event included in each of these plurality of sets are used as training data. When n Cherenkov light detection events are included in the interaction event and m pairs of Cherenkov light detection events are generated from them (however, m <n), m out of n sets are selected. The number of combinations to be taken out is n C m .

学習部44は、学習用データ作成部43により作成された学習用データを用いてニューラルネットワークを学習させる。記憶部45は、前処理部41、推定部42、学習用データ作成部43および学習部44それぞれによる処理の前、途中および後のデータを記憶する。 The learning unit 44 trains the neural network using the learning data created by the learning data creation unit 43. The storage unit 45 stores data before, during, and after processing by the preprocessing unit 41, the estimation unit 42, the learning data creation unit 43, and the learning unit 44, respectively.

図3は、相互作用位置の推定の際の信号処理部4の推定部42による処理の一例を説明する図である。推定部42は、前処理部41により前処理が為された後の相互作用事象毎のデータを入力する。すなわち、推定部42は、各相互作用事象に含まれるn個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。推定部42は、各相互作用事象に含まれるn個のチェレンコフ光検出事象のうちから検出タイミングの早い5個のチェレンコフ光検出事象のデータを選択し、その5個のチェレンコフ光検出事象のデータ(x,y,t)を学習済みのニューラルネットワークへ入力させる。これによりニューラルネットワークから出力されるデータは、輻射体10における相互作用位置(x,y,z)を推定した結果を表すものとなる。 FIG. 3 is a diagram illustrating an example of processing by the estimation unit 42 of the signal processing unit 4 when estimating the interaction position. The estimation unit 42 inputs data for each interaction event after the preprocessing is performed by the preprocessing unit 41. That is, the estimation unit 42 inputs the data (x, y, t) of each of the n Cherenkov light detection events included in each interaction event. The estimation unit 42 selects the data of five Cherenkov light detection events with early detection timing from the n Cherenkov light detection events included in each interaction event, and the data of the five Cherenkov light detection events ( x, y, t) is input to the trained neural network. As a result, the data output from the neural network represents the result of estimating the interaction position (x, y, z) in the radiator 10.

図4は、ニューラルネットワークの学習の際の信号処理部4の学習用データ作成部43および学習部44による処理の一例を説明する図である。学習用データ作成部43は、前処理部41により前処理が為された後の相互作用事象毎のデータを入力する。すなわち、学習用データ作成部43は、各相互作用事象に含まれるn個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。 FIG. 4 is a diagram illustrating an example of processing by the learning data creation unit 43 and the learning unit 44 of the signal processing unit 4 when learning the neural network. The learning data creation unit 43 inputs data for each interaction event after the preprocessing is performed by the preprocessing unit 41. That is, the learning data creation unit 43 inputs the data (x, y, t) of each of the n Cherenkov light detection events included in each interaction event.

学習用データ作成部43は、各相互作用事象に含まれるn個のチェレンコフ光検出事象のうちから5個のチェレンコフ光検出事象の組を複数生成する。このとき最大で個の組を生成することができる。学習用データ作成部43は、各組に含まれる5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を学習用データとし、その学習用データをニューラルネットワークへ入力させる。これによりニューラルネットワークから組の個数と同じ数の出力データ(x,y,z)が得られる。学習部44は、ニューラルネットワークから出力されるデータ(x,y,z)と教師データ(X,Y,Z)との間の誤差を評価し、その誤差が小さくなるように誤差逆伝播法によりニューラルネットワークのパラメータを調整して、ニューラルネットワークを学習させる。 The learning data creation unit 43 generates a plurality of sets of five Cherenkov light detection events from the n Cherenkov light detection events included in each interaction event. At this time, a maximum of 5 sets of n C can be generated. The learning data creation unit 43 uses the data (x, y, t) of each of the five Cherenkov light detection events included in each set as training data, and causes the learning data to be input to the neural network. As a result, the same number of output data (x, y, z) as the number of pairs can be obtained from the neural network. The learning unit 44 evaluates an error between the data (x, y, z) output from the neural network and the teacher data (X, Y, Z), and uses an error backpropagation method so that the error becomes small. Adjust the parameters of the neural network to train the neural network.

図5は、ニューラルネットワークの構成の一例を示す図である。この図に示されるニューラルネットワークは、入力層、出力層および3つの中間層を含む5層構造を有する多層パーセプトロン(MLP)である。このMLPは、5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力し、相互作用位置(x,y,z)の推定の結果を出力する。なお、ニューラルネットワークからの出力データは、位置を表すものであってもよいし、各位置の相互作用の確信度を表すものであってもよい。 FIG. 5 is a diagram showing an example of the configuration of the neural network. The neural network shown in this figure is a multi-layer perceptron (MLP) having a five-layer structure including an input layer, an output layer and three intermediate layers. This MLP inputs the data (x, y, t) of each of the five Cherenkov light detection events, and outputs the estimation result of the interaction position (x, y, z). The output data from the neural network may represent the position or the certainty of the interaction of each position.

次に、第1実施形態についてモンテカルロ法を用いて行ったシミュレーションの結果を説明する。輻射体10として、PbFからなり、40×40×10mmの直方体形状を有するものを想定した。光検出器20の受光面21は、輻射体10の40×40mmの面に接しているものとした。光検出器20として、空間分解能および時間分解能の双方が無限小である理想的なものを想定した。ニューラルネットワークとして図5に示したMLPを用い、そのMLPから位置を表すデータを出力させた。 Next, the result of the simulation performed by using the Monte Carlo method for the first embodiment will be described. As the radiator 10, it is assumed that the radiator 10 is composed of PbF 2 and has a rectangular parallelepiped shape of 40 × 40 × 10 mm 3. It is assumed that the light receiving surface 21 of the photodetector 20 is in contact with the surface of the radiator 10 having a size of 40 × 40 mm 2 . An ideal photodetector 20 is assumed in which both spatial resolution and temporal resolution are infinitesimal. The MLP shown in FIG. 5 was used as a neural network, and data representing the position was output from the MLP.

シミュレーションでは、輻射体における各粒子の相互作用を逐一トラッキングしており、その履歴を参照することで輻射体における相互作用位置が分かるので、これを教師データ(X,Y,Z)とすることができる。 In the simulation, the interaction of each particle in the radiator is tracked one by one, and the interaction position in the radiator can be known by referring to the history, so this can be used as training data (X, Y, Z). can.

実験の場合は、例えば、コリメーションされたγ線(ペンシルビーム)を使用する。このペンシルビームをxy平面に垂直に入射させたときの位置を相互作用位置(X,Y)の代わりとする。同様に、ペンシルビームをxz平面に垂直に入射させると(X,Z)が分かり、ペンシルビームをyz平面に垂直に入射させると(Y,Z)が分かる。この方法では、一発で教師データ(X,Y,Z)を得ることができないので、各平面用のニューラルネットワークを個別に学習し、その予測を統合する。例えば、(X,Y)用、(X,Z)用および(Y,Z)用それぞれのニューラルネットワークの出力の平均を教師データ(X,Y,Z)とすることができる。 In the case of experiments, for example, collimated gamma rays (pencil beams) are used. The position when the pencil beam is vertically incident on the xy plane is used as a substitute for the interaction position (X, Y). Similarly, when the pencil beam is incident vertically on the xz plane, (X, Z) is known, and when the pencil beam is vertically incident on the yz plane, (Y, Z) is known. In this method, teacher data (X, Y, Z) cannot be obtained in one shot, so the neural network for each plane is learned individually and the predictions are integrated. For example, the average of the outputs of the neural networks for (X, Y), (X, Z), and (Y, Z) can be used as the teacher data (X, Y, Z).

シミュレーションは、第1比較例、第2比較例および第1実施例それぞれについて行った。第1比較例では、相互作用事象に含まれるチェレンコフ光検出事象の個数が5であるデータのみを学習用データとして用いてMLPを学習させた。第2比較例では、相互作用事象に含まれるチェレンコフ光検出事象の個数が5以上7以下であるデータのうち検出タイミングの早い5個のチェレンコフ光検出事象のデータを学習用データとして用いてMLPを学習させた。第1実施例では、相互作用事象に含まれるチェレンコフ光検出事象の個数nが5以上7以下であるデータに基づいて、図4を用いて一例として説明した条件で作成した学習用データを用いてMLPを学習させた。 The simulation was performed for each of the first comparative example, the second comparative example, and the first embodiment. In the first comparative example, MLP was trained using only the data in which the number of Cherenkov light detection events included in the interaction event was 5. In the second comparative example, among the data in which the number of Cherenkov light detection events included in the interaction event is 5 or more and 7 or less, the data of 5 Cherenkov light detection events with early detection timing are used as learning data to perform MLP. I learned. In the first embodiment, based on the data in which the number n of Cherenkov light detection events included in the interaction event is 5 or more and 7 or less, the learning data created under the conditions described as an example using FIG. 4 is used. MLP was trained.

第1比較例で作成された学習用データの個数は521,460個であった。第2比較例で作成された学習用データの個数は、875,000個であり、第1比較例の場合の1.68倍であった。第1実施例で作成された学習用データの個数は、4,170,600個であり、第1比較例の場合の8倍であった。このように、第1比較例および第2比較例と比べると、第1実施例では、より多くの学習用データを用意することができる。 The number of learning data created in the first comparative example was 521,460. The number of learning data created in the second comparative example was 875,000, which was 1.68 times that in the case of the first comparative example. The number of learning data created in the first example was 4,170,600, which was eight times that in the case of the first comparative example. As described above, as compared with the first comparative example and the second comparative example, more learning data can be prepared in the first embodiment.

図6は、シミュレーションの結果を示す図である。この図は、第1比較例、第2比較例および第1実施例それぞれについて、xy平面での相互作用位置の推定誤差のヒストグラム、および、z軸方向の相互作用位置の推定誤差のヒストグラムを示す。推定誤差は、真の相互作用位置から推定相互作用位置を引いた値である。横軸は誤差を表し、縦軸は頻度を表す。各ヒストグラムをローレンツ関数で近似して、そのローレンツ関数の半値全幅(Full Width at Half Maximum、FWHM)を求めた。 FIG. 6 is a diagram showing the results of the simulation. This figure shows a histogram of the estimation error of the interaction position on the xy plane and a histogram of the estimation error of the interaction position in the z-axis direction for each of the first comparative example, the second comparative example, and the first embodiment. .. The estimation error is the value obtained by subtracting the estimated interaction position from the true interaction position. The horizontal axis represents the error and the vertical axis represents the frequency. Each histogram was approximated by the Lorentz function, and the full width at half maximum (FWHM) of the Lorentz function was obtained.

第1比較例では、xy平面での推定誤差のFWHMは0.89mmであり、z軸方向の推定誤差のFWHMは1.57mmであった。第2比較例では、xy平面での推定誤差のFWHMは0.79mmであり、z軸方向の推定誤差のFWHMは1.42mmであった。第1実施例では、xy平面での推定誤差のFWHMは0.65mmであり、z軸方向の推定誤差のFWHMは1.40mmであった。第1比較例および第2比較例と比べると、第1実施例では、軸方向の推定誤差およびxy平面での推定誤差の何れも小さい値であった。第1実施例では、より多くの学習用データを用いてMLPを学習させたことにより、相互作用位置の推定の精度が向上したと考えられる。 In the first comparative example, the FWHM of the estimation error in the xy plane was 0.89 mm, and the FWHM of the estimation error in the z-axis direction was 1.57 mm. In the second comparative example, the FWHM of the estimation error in the xy plane was 0.79 mm, and the FWHM of the estimation error in the z-axis direction was 1.42 mm. In the first embodiment, the FWHM of the estimation error in the xy plane was 0.65 mm, and the FWHM of the estimation error in the z-axis direction was 1.40 mm. Compared with the first comparative example and the second comparative example, in the first embodiment, both the estimation error in the axial direction and the estimation error in the xy plane were smaller values. In the first embodiment, it is considered that the accuracy of estimating the interaction position is improved by training the MLP using more learning data.

次に第2実施形態について説明する。図7は、第2実施形態の検出システム2の構成を示す図である。検出システム2は、第1チェレンコフ検出器3A、第2チェレンコフ検出器3Bおよび信号処理部5を備える。チェレンコフ検出器3A,3Bは、第1実施形態におけるチェレンコフ検出器3と同じ構成を有する。チェレンコフ検出器3A,3Bそれぞれの輻射体10の入射面11(光検出器20側と反対の面。図2参照)は互いに対向している。 Next, the second embodiment will be described. FIG. 7 is a diagram showing a configuration of the detection system 2 of the second embodiment. The detection system 2 includes a first Cherenkov detector 3A, a second Cherenkov detector 3B, and a signal processing unit 5. The Cherenkov detectors 3A and 3B have the same configuration as the Cherenkov detector 3 in the first embodiment. The incident surfaces 11 (planes opposite to the photodetector 20 side, see FIG. 2) of the radiators 10 of the Cherenkov detectors 3A and 3B are opposed to each other.

第1チェレンコフ検出器3Aと第2チェレンコフ検出器3Bとの間の空間にRI線源があると、そのRI線源から放出された陽電子と電子とが対消滅し、その対消滅により光子対(エネルギ511keVのγ線の対)が発生する。光子対を構成する2つの光子は互いに反対方向に飛行する。一方の光子を第1チェレンコフ検出器3Aにより検出するとともに他方の光子を第2チェレンコフ検出器3Bにより検出することにより、すなわち、2つのチェレンコフ検出器3A,3Bにより光子対を同時計数すること(同時計数事象)により、光子対発生事象(対消滅事象)を検出することができる。 When there is an RI radiation source in the space between the first Cherenkov detector 3A and the second Cherenkov detector 3B, the positrons and electrons emitted from the RI radiation source are pair-annihilated, and the pair annihilation causes photon pairs ( A pair of γ-rays with energy of 511 keV) is generated. The two photons that make up a photon pair fly in opposite directions. By detecting one photon by the first Cherenkov detector 3A and the other photon by the second Cherenkov detector 3B, that is, by simultaneously counting the photon pairs by the two Cherenkov detectors 3A and 3B (coincidence counting). The photon pair generation event (pair annihilation event) can be detected by the counting event).

信号処理部5は、チェレンコフ検出器3A,3Bそれぞれの光検出器20から出力される信号を入力する。信号処理部5は、これらの入力信号を処理することで、同時計数事象毎に、チェレンコフ検出器3A,3Bそれぞれの光検出器20の受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置(対消滅位置)を推定する。 The signal processing unit 5 inputs signals output from the photodetectors 20 of the Cherenkov detectors 3A and 3B, respectively. By processing these input signals, the signal processing unit 5 processes the number of Cherenkov light detection events and each Cherenkov light detection event on the light receiving surface of each of the Cherenkov detectors 3A and 3B for each simultaneous counting event. The photon pair generation position (pair annihilation position) is estimated by the neural network based on the detection position and the detection time of.

また、信号処理部5は、同時計数事象毎に、チェレンコフ検出器3A,3Bそれぞれの光検出器20の受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークを学習させる為の学習用データを作成する。そして、信号処理部5は、この学習用データを用いてニューラルネットワークを学習させる。 Further, the signal processing unit 5 is based on the number of Cherenkov light detection events on the light receiving surface of each of the Cherenkov detectors 3A and 3B, and the detection position and detection time of each Cherenkov light detection event for each simultaneous counting event. To create training data for training the neural network. Then, the signal processing unit 5 trains the neural network using the learning data.

信号処理部5は例えばコンピュータにより構成される。信号処理部5は、ニューラルネットワークによる処理をCPUにより行ってもよいが、より高速な処理が可能なDSPまたはGPUにより行うのが好適である。 The signal processing unit 5 is composed of, for example, a computer. The signal processing unit 5 may perform the processing by the neural network by the CPU, but it is preferable to perform the processing by the DSP or GPU capable of higher speed processing.

信号処理部5は、前処理部51、推定部52、学習用データ作成部53、学習部54および記憶部55を備える。 The signal processing unit 5 includes a preprocessing unit 51, an estimation unit 52, a learning data creation unit 53, a learning unit 54, and a storage unit 55.

前処理部51は、第1チェレンコフ検出器3Aの光検出器20から出力される信号について第1実施形態における前処理部41と同様の処理を行う。前処理部51は、第2チェレンコフ検出器3Bの光検出器20から出力される信号についても第1実施形態における前処理部41と同様の処理を行う。 The pre-processing unit 51 performs the same processing as the pre-processing unit 41 in the first embodiment for the signal output from the photodetector 20 of the first Cherenkov detector 3A. The preprocessing unit 51 also performs the same processing as the preprocessing unit 41 in the first embodiment for the signal output from the photodetector 20 of the second Cherenkov detector 3B.

前処理部51は次のような処理をも行う。前処理部51は、第1チェレンコフ検出器3Aの光検出器20から出力された信号に基づいて検出された相互作用事象データと、第2チェレンコフ検出器3Bの光検出器20から出力された信号に基づいて検出された相互作用事象のデータとが、同時計数タイムウィンドウ内にある場合に、両データが共通の光子対発生事象によるものであると判断する。このとき、両データの代表時刻が同時計数タイムウィンドウ内にあるか否かを判定すればよい。代表時刻は、各相互作用事象に含まれる検出時刻のうち最も早い検出時刻でもよいし、検出時刻の平均値でもよい。 The preprocessing unit 51 also performs the following processing. The preprocessing unit 51 includes the interaction event data detected based on the signal output from the photodetector 20 of the first Cherenkov detector 3A and the signal output from the photodetector 20 of the second Cherenkov detector 3B. When the data of the interaction event detected based on the above is in the coincidence counting time window, it is determined that both data are due to the common photon pair generation event. At this time, it may be determined whether or not the representative times of both data are in the coincidence counting time window. The representative time may be the earliest detection time included in each interaction event, or may be the average value of the detection times.

推定部52は、前処理部51により前処理が為された後のデータを入力して、同時計数事象毎に、チェレンコフ検出器3A,3Bそれぞれの光検出器20の受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより光子対発生位置(x,y,z)を推定する。ここで用いられるニューラルネットワークは、例えば、多層パーセプトロン(MLP)、畳み込みニューラルネットワーク(CNN)、再帰型ニューラルネットワーク(RNN)等である。 The estimation unit 52 inputs the data after the preprocessing by the preprocessing unit 51, and for each simultaneous counting event, the Cherenkov light detection event on the light receiving surface of the photodetectors 20 of the Cherenkov detectors 3A and 3B, respectively. The photon pair generation position (x, y, z) is estimated by a neural network based on the number of light detection events and the detection position and detection time of each Cherenkov light detection event. The neural network used here is, for example, a multi-layer perceptron (MLP), a convolutional neural network (CNN), a recurrent neural network (RNN), or the like.

学習用データ作成部53は、同時計数事象毎に、第1チェレンコフ検出器3Aの光検出器20によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第1学習用データとし、また、第2チェレンコフ検出器3Bの光検出器20によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第2学習用データとする。 The learning data creation unit 53 generates a plurality of sets of less than n1 Cherenkov light detection events from the n1 Cherenkov light detection events by the light detector 20 of the first Cherenkov detector 3A for each simultaneous counting event. Therefore, the detection position and detection time of each Cherenkov light detection event included in each of these plurality of sets are used as the first learning data, and n2 Cherenkov light detections by the light detector 20 of the second Cherenkov detector 3B are used. A plurality of sets of less than n2 Cherenkov light detection events are generated from the events, and the detection position and detection time of each Cherenkov light detection event included in each of the plurality of sets are used as the second learning data.

学習部54は、学習用データ作成部53により作成された第1学習用データおよび第2学習用データを用いてニューラルネットワークを学習させる。記憶部55は、前処理部51、推定部52、学習用データ作成部53および学習部54それぞれによる処理の前、途中および後のデータを記憶する。 The learning unit 54 trains the neural network using the first learning data and the second learning data created by the learning data creation unit 53. The storage unit 55 stores data before, during, and after processing by the preprocessing unit 51, the estimation unit 52, the learning data creation unit 53, and the learning unit 54, respectively.

図8は、光子対発生位置の推定の際の信号処理部5の推定部52による処理の一例を説明する図である。推定部52は、前処理部51により前処理が為された後の同時計数事象毎のデータを入力する。すなわち、推定部52は、同時計数事象毎に、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力するとともに、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。推定部52は、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象それぞれのデータのうちから検出タイミングの早い5個のチェレンコフ光検出事象のデータを選択し、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象それぞれのデータのうちから検出タイミングの早い5個のチェレンコフ光検出事象のデータを選択して、これらの選択したデータを学習済みのニューラルネットワークへ入力させる。これによりニューラルネットワークから出力されるデータは、光子対発生位置(x,y,z)を推定した結果を表すものとなる。 FIG. 8 is a diagram illustrating an example of processing by the estimation unit 52 of the signal processing unit 5 when estimating the photon pair generation position. The estimation unit 52 inputs data for each coincidence counting event after the preprocessing is performed by the preprocessing unit 51. That is, the estimation unit 52 inputs the data (x, y, t) of each of n1 Cherenkov light detection events by the first Cherenkov detector 3A for each simultaneous counting event, and n2 by the second Cherenkov detector 3B. Enter the data (x, y, t) for each of the Cherenkov light detection events. The estimation unit 52 selects the data of five Cherenkov light detection events with early detection timing from the data of each of the n1 Cherenkov light detection events by the first Cherenkov detector 3A, and n2 by the second Cherenkov detector 3B. From the data of each of the Cherenkov light detection events, the data of the five Cherenkov light detection events with the earliest detection timing are selected, and these selected data are input to the trained neural network. As a result, the data output from the neural network represents the result of estimating the photon pair generation position (x, y, z).

図9は、ニューラルネットワークの学習の際の信号処理部5の学習用データ作成部53および学習部54による処理の一例を説明する図である。学習用データ作成部53は、前処理部51により前処理が為された後の同時計数事象毎のデータを入力する。すなわち、学習用データ作成部53は、同時計数事象毎に、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力するとともに、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。 FIG. 9 is a diagram illustrating an example of processing by the learning data creation unit 53 and the learning unit 54 of the signal processing unit 5 when learning the neural network. The learning data creation unit 53 inputs data for each coincidence counting event after the preprocessing is performed by the preprocessing unit 51. That is, the learning data creation unit 53 inputs data (x, y, t) for each of n1 Cherenkov light detection events by the first Cherenkov detector 3A for each simultaneous counting event, and the second Cherenkov detector. The data (x, y, t) of each of n2 Cherenkov light detection events by 3B is input.

学習用データ作成部53は、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象のうちから5個のチェレンコフ光検出事象の組を複数生成する。このとき最大でn1個の組を生成することができる。学習用データ作成部53は、各組に含まれる5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を第1学習用データとする。 The learning data creation unit 53 generates a plurality of sets of five Cherenkov light detection events from the n1 Cherenkov light detection events by the first Cherenkov detector 3A. At this time, a maximum of 5 sets of n1 C can be generated. The learning data creation unit 53 uses the data (x, y, t) of each of the five Cherenkov light detection events included in each set as the first learning data.

学習用データ作成部53は、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象のうちから5個のチェレンコフ光検出事象の組を複数生成する。このとき最大でn2個の組を生成することができる。学習用データ作成部53は、各組に含まれる5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を第2学習用データとする。 The learning data creation unit 53 generates a plurality of sets of five Cherenkov light detection events from the n2 Cherenkov light detection events by the second Cherenkov detector 3B. At this time, a maximum of 5 sets of n2 C can be generated. The learning data creation unit 53 uses the data (x, y, t) of each of the five Cherenkov light detection events included in each set as the second learning data.

学習用データ作成部53は、第1学習用データおよび第2学習用データをニューラルネットワークへ入力させる。学習用データ作成部53は、最大でn1×n2 組の学習用データをニューラルネットワークへ入力させることができる。これによりニューラルネットワークから組の個数と同じ数の出力データ(x,y,z)が得られる。学習部54は、ニューラルネットワークから出力されるデータ(x,y,z)と教師データ(X,Y,Z)との間の誤差を評価し、その誤差が小さくなるように誤差逆伝播法によりニューラルネットワークのパラメータを調整して、ニューラルネットワークを学習させる。 The learning data creation unit 53 causes the first learning data and the second learning data to be input to the neural network. The learning data creation unit 53 can input a maximum of n1 C 5 × n2 C 5 sets of learning data to the neural network. As a result, the same number of output data (x, y, z) as the number of pairs can be obtained from the neural network. The learning unit 54 evaluates an error between the data (x, y, z) output from the neural network and the teacher data (X, Y, Z), and uses an error backpropagation method so that the error becomes small. Adjust the parameters of the neural network to train the neural network.

図10は、ニューラルネットワークの構成の一例を示す図である。この図に示されるニューラルネットワークは、入力層、出力層および3つの中間層を含む5層構造を有する多層パーセプトロン(MLP)である。このMLPは、第1チェレンコフ検出器3Aにより検出されたn1個のチェレンコフ光検出事象のうちから選択した5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力するとともに、第2チェレンコフ検出器3Bにより検出されたn2個のチェレンコフ光検出事象のうちから選択した5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力して、光子対発生位置(x,y,z)の推定の結果を出力する。なお、ニューラルネットワークからの出力データは、位置を表すものであってもよいし、各位置の光子対発生の確信度を表すものであってもよい。 FIG. 10 is a diagram showing an example of the configuration of the neural network. The neural network shown in this figure is a multi-layer perceptron (MLP) having a five-layer structure including an input layer, an output layer and three intermediate layers. In this MLP, the data (x, y, t) of each of the five Cherenkov light detection events selected from the n1 Cherenkov light detection events detected by the first Cherenkov detector 3A are input, and the second Input the data (x, y, t) of each of the five Cherenkov light detection events selected from the n2 Cherenkov light detection events detected by the Cherenkov detector 3B, and enter the photon pair generation position (x, y). , Z) Output the estimation result. The output data from the neural network may represent a position or a certainty of photon pair generation at each position.

次に、第2実施形態についてモンテカルロ法を用いて行ったシミュレーションの結果を説明する。第1チェレンコフ検出器3Aおよび第2チェレンコフ検出器3Bそれぞれとして、前述のものを想定した。第1チェレンコフ検出器3Aおよび第2チェレンコフ検出器3Bそれぞれの入射面11の中心位置を互いに結ぶ線分の中点をxyz直交座標系の原点とし、その線分がz軸上にあるとし、各々の入射面11の各辺がx軸またはy軸に平行であるとし、両入射面11の間の間隔を50mmとした。ニューラルネットワークとして図10に示したMLPを用い、そのMLPから各位置の光子対発生の確信度を表すデータを出力させた。 Next, the result of the simulation performed by using the Monte Carlo method for the second embodiment will be described. The above-mentioned ones are assumed as the first Cherenkov detector 3A and the second Cherenkov detector 3B, respectively. It is assumed that the midpoint of the line segment connecting the center positions of the incident surfaces 11 of the first Cherenkov detector 3A and the second Cherenkov detector 3B to each other is the origin of the xyz Cartesian coordinate system, and that the line segment is on the z-axis. It is assumed that each side of the incident surface 11 is parallel to the x-axis or the y-axis, and the distance between the two incident surfaces 11 is 50 mm. The MLP shown in FIG. 10 was used as a neural network, and data representing the certainty of photon pair generation at each position was output from the MLP.

光子対発生位置(教師データ(X,Y,Z))として、原点を中心としてx軸、y軸およびz軸それぞれの正負方向に5mm間隔で125(=5×5×5)個の位置を想定した。3次元空間の対称性を考慮して、或る一つの象限(および該象限の境界の軸上)にRI線源を配置して光子対を発生させで同時計数情報を収集し、この同時計数情報を用いることで他の象限についても同時計数情報を作成した。 As photon pair generation positions (teacher data (X, Y, Z)), 125 (= 5 x 5 x 5) positions are set at 5 mm intervals in the positive and negative directions of the x-axis, y-axis, and z-axis with the origin as the center. I assumed. Considering the symmetry of the three-dimensional space, an RI radiation source is placed in one quadrant (and on the axis of the boundary of the quadrant) to generate a photon pair to collect coincidence counting information, and this coincidence counting is performed. Coincidence counting information was created for other quadrants by using the information.

シミュレーションは、第3比較例、第4比較例および第2実施例それぞれについて行った。第3比較例では、共通の光子対発生事象に含まれる相互作用事象の個数n1,n2が何れも5であるデータのみを学習用データとして用いてMLPを学習させた。第4比較例では、共通の光子対発生事象に含まれる相互作用事象の個数n1,n2が何れも5以上8以下であるデータのうち検出タイミングの早い5個ずつのチェレンコフ光検出事象のデータを学習用データとして用いてMLPを学習させた。第2実施例では、共通の光子対発生事象に含まれる相互作用事象の個数n1,n2が何れも5以上8以下であるデータに基づいて、図9を用いて一例として説明した条件で作成した学習用データを用いてMLPを学習させた。 The simulation was performed for each of the third comparative example, the fourth comparative example, and the second embodiment. In the third comparative example, MLP was trained using only the data in which the number n1 and n2 of the interaction events included in the common photon pair generation event were 5 as learning data. In the fourth comparative example, among the data in which the number n1 and n2 of the number of interaction events included in the common photon pair generation event are both 5 or more and 8 or less, the data of 5 Cherenkov light detection events with early detection timing are used. The MLP was trained using it as training data. In the second embodiment, it was created under the conditions described as an example using FIG. 9 based on the data that the number n1 and n2 of the interaction events included in the common photon pair generation event are both 5 or more and 8 or less. The MLP was trained using the training data.

第3比較例で作成された学習用データの個数は43,000個であった。第4比較例で作成された学習用データの個数は、122,125個であり、第3比較例の場合の2.84倍であった。第2実施例で作成された学習用データの個数は、6,666,375個であり、第3比較例の場合の155倍であった。このように、第3比較例および第4比較例と比べると、第2実施例では、より多くの学習用データを用意することができる。 The number of learning data created in the third comparative example was 43,000. The number of learning data created in the fourth comparative example was 122,125, which was 2.84 times that in the case of the third comparative example. The number of learning data created in the second example was 6,666,375, which was 155 times that in the case of the third comparative example. As described above, as compared with the third comparative example and the fourth comparative example, more learning data can be prepared in the second embodiment.

図11は、シミュレーションの結果を示す図である。この図は、第3比較例、第4比較例および第2実施例それぞれの光子対発生位置の推定の精度を示す。第3比較例では推定精度は91.45%であり、第4比較例では推定精度は93.80%であり、第2実施例では推定精度は95.11%であった。第3比較例および第4比較例と比べると、第2実施例では、光子対発生位置の推定の精度が高い値であった。第2実施例では、より多くの学習用データを用いてMLPを学習させたことにより、光子対発生位置の推定の精度が向上したと考えられる。 FIG. 11 is a diagram showing the results of the simulation. This figure shows the accuracy of estimating the photon pair generation position in each of the third comparative example, the fourth comparative example, and the second embodiment. In the third comparative example, the estimation accuracy was 91.45%, in the fourth comparative example, the estimation accuracy was 93.80%, and in the second example, the estimation accuracy was 95.11%. Compared with the third comparative example and the fourth comparative example, in the second embodiment, the accuracy of estimating the photon pair generation position was high. In the second embodiment, it is considered that the accuracy of estimating the photon pair generation position is improved by training the MLP using more learning data.

なお、光子対発生位置によって学習用データの数に偏りがあると、その偏りがある学習用データを用いて学習させたニューラルネットワークによる光子対発生位置の推定にも偏りが生じることが考えられる。そこで、2つのチェレンコフ検出器の間の各光子対発生位置について作成された学習用データの数を確認しながら同時計数データの収集を行い、或る光子対発生位置について作成された学習用データの数が或る目標値に達したら、その光子対発生位置については同時計数データの収集を終了するのが好ましい。この場合、各光子対発生位置についての同時計数データの収集の所要時間は位置によって異なることがある。 If the number of learning data is biased depending on the photon pair generation position, it is considered that the estimation of the photon pair generation position by the neural network trained using the biased learning data is also biased. Therefore, the coincidence counting data was collected while checking the number of training data created for each photon pair generation position between the two Cherenkov detectors, and the training data created for a certain photon pair generation position was collected. When the number reaches a certain target value, it is preferable to end the collection of coincidence counting data for the photon pair generation position. In this case, the time required to collect the coincidence counting data for each photon pair generation position may differ depending on the position.

以上のとおり、本実施形態によれば、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システムにおいて、該ニューラルネットワークを学習させる際に用いる大量の学習用データを短時間で作成することができ、該ニューラルネットワークを容易に学習させることができる。ニューラルネットワークの学習は、検出システムの製造者においても容易に行うことができ、検出システムの利用者においても容易に行うことができる。例えば、検出システムのキャリブレーションを行うことが必要となった場合に、利用者自らがニューラルネットワークの再学習または追加学習を容易に行うことができる。 As described above, according to the present embodiment, in a detection system including a Cherenkov detector and a signal processing unit using a neural network, a large amount of learning data used when training the neural network is created in a short time. And the neural network can be easily trained. The learning of the neural network can be easily performed by the manufacturer of the detection system and can be easily performed by the user of the detection system. For example, when it becomes necessary to calibrate the detection system, the user can easily perform re-learning or additional learning of the neural network by himself / herself.

1,2…検出システム、3…チェレンコフ検出器、3A…第1チェレンコフ検出器、3B…第2チェレンコフ検出器、10…輻射体、20…光検出器、4…信号処理部、41…前処理部、42…推定部、43…学習用データ作成部、44…学習部、45…記憶部、5…信号処理部、51…前処理部、52…推定部、53…学習用データ作成部、54…学習部、55…記憶部。 1,2 ... Detection system, 3 ... Cherenkov detector, 3A ... 1st Cherenkov detector, 3B ... 2nd Cherenkov detector, 10 ... Radiant body, 20 ... Optical detector, 4 ... Signal processing unit, 41 ... Preprocessing Unit, 42 ... estimation unit, 43 ... learning data creation unit, 44 ... learning unit, 45 ... storage unit, 5 ... signal processing unit, 51 ... preprocessing unit, 52 ... estimation unit, 53 ... learning data creation unit, 54 ... Learning department, 55 ... Memory department.

Claims (4)

入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、前記輻射体で発生したチェレンコフ光を検出する受光面を有し前記受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を含むチェレンコフ検出器と、
前記光検出器から出力される信号を入力して、前記輻射体における相互作用事象毎に、前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、前記輻射体における相互作用位置を推定する推定部と、
相互作用事象毎に、前記チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を学習用データとする学習用データ作成部と、
前記学習用データ作成部により作成された前記学習用データを用いて前記ニューラルネットワークを学習させる学習部と、
を備える検出システム。
It has a radiator that generates Cherenkov light by interaction with incident particles and a light receiving surface that detects Cherenkov light generated by the radiator, and a signal that represents the detection position and detection time of Cherenkov light on the light receiving surface. An output light detector, including a Cherenkov detector,
A signal output from the photodetector is input, and each interaction event in the radiator is based on the number of Cherenkov light detection events on the light receiving surface, the detection position of each Cherenkov light detection event, and the detection time. With a neural network, an estimation unit that estimates the interaction position in the radiator,
For each interaction event, a plurality of sets of less than n Cherenkov light detection events are generated from the n Cherenkov light detection events by the photodetector of the Cherenkov detector, and are included in each of these plurality of sets. A learning data creation unit that uses the detection position and the detection time of each Cherenkov light detection event as training data,
A learning unit that trains the neural network using the learning data created by the learning data creation unit, and a learning unit.
Detection system with.
入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、前記輻射体で発生したチェレンコフ光を検出する受光面を有し前記受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を各々含む第1チェレンコフ検出器および第2チェレンコフ検出器と、
前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、
同時計数事象毎に、前記第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第1学習用データとし、前記第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第2学習用データとする学習用データ作成部と、
前記学習用データ作成部により作成された前記第1学習用データおよび前記第2学習用データを用いて前記ニューラルネットワークを学習させる学習部と、
を備える検出システム。
It has a radiator that generates Cherenkov light by interaction with incident particles and a light receiving surface that detects Cherenkov light generated by the radiator, and a signal that represents the detection position and detection time of Cherenkov light on the light receiving surface. A first Cherenkov detector and a second Cherenkov detector, including an output light detector, respectively.
The signals output from the light detectors of the first Cherenkov detector and the second Cherenkov detector are input, and the photon pair simultaneous counting event generated by the pair annihilation of positrons and electrons is described as the first. Based on the number of Cherenkov light detection events on the light receiving surface of each of the 1 Cherenkov detector and the 2nd Cherenkov detector, the detection position of each Cherenkov light detection event, and the detection time, the photon pair generation position is determined by a neural network. Estimating part to estimate and
For each simultaneous counting event, a plurality of sets of less than n1 Cherenkov light detection events are generated from the n1 Cherenkov light detection events by the light detector of the first Cherenkov detector, and each of these plurality of sets is used. The detection position and the detection time of each Cherenkov light detection event included are used as the first learning data, and less than n2 Cherenkov lights out of the n2 Cherenkov light detection events by the light detector of the second Cherenkov detector. A learning data creation unit that generates a plurality of sets of detection events and uses the detection position and the detection time of each Cherenkov light detection event included in each of the plurality of sets as the second learning data.
A learning unit that trains the neural network using the first learning data and the second learning data created by the learning data creation unit, and a learning unit.
Detection system with.
入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、前記輻射体で発生したチェレンコフ光を検出する受光面を有し前記受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を含むチェレンコフ検出器と、
前記光検出器から出力される信号を入力して、前記輻射体における相互作用事象毎に、前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、前記輻射体における相互作用位置を推定する推定部と、
を備える検出システムの前記ニューラルネットワークを学習させる方法であって、
相互作用事象毎に、前記チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を学習用データとする学習用データ作成ステップと、
前記学習用データ作成ステップにおいて作成された前記学習用データを用いて前記ニューラルネットワークを学習させる学習ステップと、
を備える学習方法。
It has a radiator that generates Cherenkov light by interaction with incident particles and a light receiving surface that detects Cherenkov light generated by the radiator, and a signal that represents the detection position and detection time of Cherenkov light on the light receiving surface. An output light detector, including a Cherenkov detector,
A signal output from the photodetector is input, and each interaction event in the radiator is based on the number of Cherenkov light detection events on the light receiving surface, the detection position of each Cherenkov light detection event, and the detection time. With a neural network, an estimation unit that estimates the interaction position in the radiator,
A method of training the neural network of a detection system comprising
For each interaction event, a plurality of sets of less than n Cherenkov light detection events are generated from the n Cherenkov light detection events by the photodetector of the Cherenkov detector, and are included in each of these plurality of sets. A training data creation step in which the detection position and the detection time of each Cherenkov light detection event are used as training data, and
A learning step in which the neural network is trained using the learning data created in the learning data creation step, and
Learning method with.
入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、前記輻射体で発生したチェレンコフ光を検出する受光面を有し前記受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を各々含む第1チェレンコフ検出器および第2チェレンコフ検出器と、
前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、
を備える検出システムの前記ニューラルネットワークを学習させる方法であって、
同時計数事象毎に、前記第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第1学習用データとし、前記第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第2学習用データとする学習用データ作成ステップと、
前記学習用データ作成ステップにおいて作成された前記第1学習用データおよび前記第2学習用データを用いて前記ニューラルネットワークを学習させる学習ステップと、
を備える学習方法。
It has a radiator that generates Cherenkov light by interaction with incident particles and a light receiving surface that detects Cherenkov light generated by the radiator, and a signal that represents the detection position and detection time of Cherenkov light on the light receiving surface. A first Cherenkov detector and a second Cherenkov detector, including an output light detector, respectively.
The signals output from the light detectors of the first Cherenkov detector and the second Cherenkov detector are input, and the photon pair simultaneous counting event generated by the pair annihilation of positrons and electrons is described as the first. Based on the number of Cherenkov light detection events on the light receiving surface of each of the 1 Cherenkov detector and the 2nd Cherenkov detector, the detection position of each Cherenkov light detection event, and the detection time, the photon pair generation position is determined by a neural network. Estimating part to estimate and
A method of training the neural network of a detection system comprising
For each simultaneous counting event, a plurality of sets of less than n1 Cherenkov light detection events are generated from the n1 Cherenkov light detection events by the light detector of the first Cherenkov detector, and each of these plurality of sets is used. The detection position and the detection time of each Cherenkov light detection event included are used as the first learning data, and less than n2 Cherenkov lights out of the n2 Cherenkov light detection events by the light detector of the second Cherenkov detector. A learning data creation step in which a plurality of sets of detection events are generated and the detection position and the detection time of each Cherenkov light detection event included in each of the plurality of sets are used as the second learning data.
A learning step in which the neural network is trained using the first learning data and the second learning data created in the learning data creation step, and
Learning method with.
JP2020027273A 2020-02-20 2020-02-20 Detection system and learning method Active JP7454402B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020027273A JP7454402B2 (en) 2020-02-20 2020-02-20 Detection system and learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020027273A JP7454402B2 (en) 2020-02-20 2020-02-20 Detection system and learning method

Publications (2)

Publication Number Publication Date
JP2021131327A true JP2021131327A (en) 2021-09-09
JP7454402B2 JP7454402B2 (en) 2024-03-22

Family

ID=77550818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020027273A Active JP7454402B2 (en) 2020-02-20 2020-02-20 Detection system and learning method

Country Status (1)

Country Link
JP (1) JP7454402B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1805506A4 (en) 2004-08-12 2010-06-02 Navotek Medical Ltd Localization of a radioactive source within a body of a subject
WO2018167900A1 (en) 2017-03-16 2018-09-20 日本電気株式会社 Neural network learning device, method, and program
WO2019041172A1 (en) 2017-08-30 2019-03-07 Shenzhen United Imaging Healthcare Co., Ltd. System, method, and detector module for pet imaging
JP2020020577A (en) 2018-07-30 2020-02-06 学校法人北里研究所 Cherenkov detector

Also Published As

Publication number Publication date
JP7454402B2 (en) 2024-03-22

Similar Documents

Publication Publication Date Title
Barrett et al. Maximum-likelihood methods for processing signals from gamma-ray detectors
US20190120975A1 (en) Device for counting particles for a radiation detector
US20200326438A1 (en) Radiation position detector and pet device
Pedemonte et al. A machine learning method for fast and accurate characterization of depth-of-interaction gamma cameras
WO2018090900A1 (en) Method and apparatus for measuring arrival time of high-energy photons
JP4367903B2 (en) Radiation position detector calibration method and radiation position detector
CN106461797B (en) Method for improving energy resolution of a gamma ray scintillation detector, associated system, component and application
JP7454402B2 (en) Detection system and learning method
US20220373699A1 (en) Method for the position and energy determination in scintillation detectors
CN110664423B (en) Imaging method, imaging device, detector, terminal equipment and PET system
JP2020020577A (en) Cherenkov detector
Bronstein et al. Optimal nonlinear line-of-flight estimation in positron emission tomography
CN110680368B (en) Method and device for detecting effective single event, and method and system for reading signal
US10616521B2 (en) Imaging device for detecting sparse event information in a pixel array
WO2017175764A1 (en) Radiation position detector and pet device
JPH07294649A (en) Scintillation camera
CN113711084A (en) Charge sharing compensation for discriminators with sampling
CN111337967B (en) Charge sharing elimination device and pixel detection system
JP6752106B2 (en) Charged particle track detector
Cates et al. Achievable position resolution of an alpha detector with continuous spatial response for use in associated particle imaging
Petersen et al. Compton decomposition and recovery in a Prism-PET Detector Module
US8729481B2 (en) Radiation diagnosis apparatus
Brubaker A maximum likelihood expectation maximization iterative image reconstruction technique for mask/anti-mask coded aperture data
Hondongwa et al. Temporally oversampled CMOS X-ray photon counting sensor for low dose fluoroscopy
Debes Determining Detector Efficiency And Timing Through Muon Tomography And Simulation Calibration Using Graph Neural Networks On IceCube Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7454402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150