JP7454402B2 - Detection system and learning method - Google Patents

Detection system and learning method Download PDF

Info

Publication number
JP7454402B2
JP7454402B2 JP2020027273A JP2020027273A JP7454402B2 JP 7454402 B2 JP7454402 B2 JP 7454402B2 JP 2020027273 A JP2020027273 A JP 2020027273A JP 2020027273 A JP2020027273 A JP 2020027273A JP 7454402 B2 JP7454402 B2 JP 7454402B2
Authority
JP
Japan
Prior art keywords
cherenkov
detection
light
cerenkov
detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020027273A
Other languages
Japanese (ja)
Other versions
JP2021131327A (en
Inventor
希望 大手
良亮 大田
二三生 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Priority to JP2020027273A priority Critical patent/JP7454402B2/en
Publication of JP2021131327A publication Critical patent/JP2021131327A/en
Application granted granted Critical
Publication of JP7454402B2 publication Critical patent/JP7454402B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Radiation (AREA)
  • Nuclear Medicine (AREA)

Description

本発明は、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システム、および、該ニューラルネットワークを学習させる方法に関するものである。 The present invention relates to a detection system including a Cherenkov detector and a signal processing unit using a neural network, and a method for training the neural network.

輻射体中における荷電粒子(例えば、電子、ミューオン)の移動速度が該輻射体中の光速度より速いと、荷電粒子と輻射体との間の相互作用により光が放射される。また、荷電していない粒子(例えば、γ線、ニュートリノ)が輻射体中において光電効果により電子等の荷電粒子を発生させる場合があり、その荷電粒子の移動速度が該輻射体中の光速度より速いと光が放射される。このような現象はチェレンコフ効果またはチェレンコフ放射と呼ばれ、放射される光はチェレンコフ輻射光またはチェレンコフ光と呼ばれる。 When the moving speed of charged particles (eg, electrons, muons) in a radiator is faster than the speed of light in the radiator, light is emitted due to the interaction between the charged particles and the radiator. In addition, uncharged particles (e.g., gamma rays, neutrinos) may generate charged particles such as electrons due to the photoelectric effect in a radiator, and the moving speed of the charged particles is faster than the speed of light in the radiator. If it is fast, light is emitted. Such a phenomenon is called Cherenkov effect or Cherenkov radiation, and the emitted light is called Cherenkov radiation or Cherenkov light.

チェレンコフ検出器は、チェレンコフ効果を利用することで、到来した粒子を検出することができる。チェレンコフ検出器は、入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、この輻射体で発生したチェレンコフ光を検出する光検出器と、を備える。チェレンコフ検出器は、例えば、PET(Positron Emission Tomography)装置またはSPECT(Single Photon Emission Computed Tomography)装置において、被検体から到来したγ線(PETではエネルギ511keV)を検出する放射線検出器として用いられる。 A Cerenkov detector can detect arriving particles by using the Cerenkov effect. A Cerenkov detector includes a radiator that generates Cerenkov light through interaction with incident particles, and a photodetector that detects the Cerenkov light generated by the radiator. A Cerenkov detector is used, for example, in a PET (Positron Emission Tomography) device or a SPECT (Single Photon Emission Computed Tomography) device as a radiation detector that detects γ rays (energy 511 keV in PET) arriving from a subject.

非特許文献1に、チェレンコフ検出器の光検出器によるチェレンコフ光検出事象に基づいて輻射体における相互作用位置をニューラルネットワークにより推定する技術が記載されている。 Non-Patent Document 1 describes a technique for estimating an interaction position in a radiator using a neural network based on a Cerenkov light detection event by a photodetector of a Cerenkov detector.

Hashimoto, F., et al. “Afeasibility study on 3D interaction position estimation using deep neuralnetwork in Cherenkov-based detector: a Monte Carlo simulation study.”Biomedical Physics & Engineering Express, 5 (2019): 035001.Hashimoto, F., et al. “Afeasibility study on 3D interaction position estimation using deep neuralnetwork in Cherenkov-based detector: a Monte Carlo simulation study.”Biomedical Physics & Engineering Express, 5 (2019): 035001.

上記の技術においては、大量の学習用データを用いてニューラルネットワークを学習させた上で、その学習済みのニューラルネットワークにより相互作用位置を推定する必要がある。しかし、学習に用いる大量の学習用データの収集には長時間を要するので、ニューラルネットワークの学習は容易でない。 In the above technique, it is necessary to train a neural network using a large amount of training data, and then estimate an interaction position using the trained neural network. However, since it takes a long time to collect a large amount of training data used for learning, learning a neural network is not easy.

本発明は、上記問題点を解消する為になされたものであり、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システムにおいて該ニューラルネットワークを容易に学習させることができる装置および方法を提供することを目的とする。 The present invention has been made to solve the above problems, and provides an apparatus and method for easily learning a neural network in a detection system equipped with a Cerenkov detector and a signal processing unit using a neural network. The purpose is to provide

本発明の第1態様の検出システムは、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を含むチェレンコフ検出器と、(2) 光検出器から出力される信号を入力して、輻射体における相互作用事象毎に、受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、輻射体における相互作用位置を推定する推定部と、(3) 相互作用事象毎に、チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を学習用データとする学習用データ作成部と、(4) 学習用データ作成部により作成された学習用データを用いてニューラルネットワークを学習させる学習部と、を備える。 The detection system according to the first aspect of the present invention includes: (1) a radiator that generates Cerenkov light by interaction with incident particles; and a light receiving surface that detects the Cerenkov light generated by the radiator; (2) a photodetector that outputs a signal representing the detection position and detection time of Cerenkov light; , an estimation unit that estimates the interaction position on the radiator using a neural network based on the number of Cerenkov light detection events on the light receiving surface and the detection position and detection time of each Cherenkov light detection event, and (3) for each interaction event. A plurality of sets of less than n Cherenkov light detection events are generated from among the n Cherenkov light detection events by the photodetector of the Cherenkov detector, and each Cherenkov light detection event included in each of the plurality of sets is generated. (4) a learning unit that causes a neural network to learn using the learning data created by the learning data creating unit; and (4) a learning unit that uses the learning data created by the learning data creating unit.

本発明の第2態様の検出システムは、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を各々含む第1チェレンコフ検出器および第2チェレンコフ検出器と、(2) 第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、(3) 同時計数事象毎に、第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第1学習用データとし、第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第2学習用データとする学習用データ作成部と、(4) 学習用データ作成部により作成された第1学習用データおよび第2学習用データを用いてニューラルネットワークを学習させる学習部と、を備える。 A detection system according to a second aspect of the present invention includes: (1) a radiator that generates Cerenkov light by interaction with incident particles; and a light receiving surface that detects the Cerenkov light generated by the radiator; (2) a first Cherenkov detector and a second Cherenkov detector, each including a photodetector that outputs a signal representing the detection position and detection time of Cherenkov light; The signal output from the photodetector is input, and for each coincidence event of photon pairs generated by the annihilation of a positron and an electron, the (3) a first Cerenkov detector for each coincidence event; (3) a first Cerenkov detector for each coincidence event; Generate a plurality of sets of less than n1 Cherenkov light detection events from among the n1 Cherenkov light detection events by the photodetector, and determine the detection position and detection of each Cherenkov light detection event included in each of the plurality of sets. Using the time as the first learning data, a plurality of sets of Cerenkov light detection events of less than n2 are generated from among the n2 Cerenkov light detection events by the photodetector of the second Cherenkov detector, and these multiple sets are (4) a learning data creation unit that uses the detection position and detection time of each Cherenkov light detection event contained therein as second learning data; and (4) the first learning data and the second learning data created by the learning data creation unit. A learning unit that causes the neural network to learn using learning data.

本発明の第1態様の学習方法は、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を含むチェレンコフ検出器と、(2) 光検出器から出力される信号を入力して、輻射体における相互作用事象毎に、受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、輻射体における相互作用位置を推定する推定部と、を備える検出システムのニューラルネットワークを学習させる方法である。本発明の第1態様の学習方法は、(a) 相互作用事象毎に、チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を学習用データとする学習用データ作成ステップと、(b) 学習用データ作成ステップにおいて作成された学習用データを用いてニューラルネットワークを学習させる学習ステップと、を備える。 The learning method of the first aspect of the present invention includes (1) a radiator that generates Cerenkov light by interaction with incident particles, and a light-receiving surface that detects the Cerenkov light generated by the radiator; (2) a photodetector that outputs a signal representing the detection position and detection time of Cerenkov light; a neural network for a detection system, comprising: an estimator that estimates an interaction position on a radiator using a neural network based on the number of Cerenkov light detection events on a light receiving surface and the detection position and detection time of each Cherenkov light detection event; This is a method for making children learn. The learning method of the first aspect of the present invention includes (a) for each interaction event, a plurality of sets of less than n Cerenkov light detection events from among n Cerenkov light detection events by the photodetector of the Cherenkov detector; (b) learning data created in the learning data creation step; and a learning step of training the neural network using the data.

本発明の第2態様の学習方法は、(1) 入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、輻射体で発生したチェレンコフ光を検出する受光面を有し受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を各々含む第1チェレンコフ検出器および第2チェレンコフ検出器と、(2) 第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、第1チェレンコフ検出器および第2チェレンコフ検出器それぞれの受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、を備える検出システムのニューラルネットワークを学習させる方法である。本発明の第2態様の学習方法は、(a) 同時計数事象毎に、第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第1学習用データとし、第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第2学習用データとする学習用データ作成ステップと、(b) 学習用データ作成ステップにおいて作成された第1学習用データおよび第2学習用データを用いてニューラルネットワークを学習させる学習ステップと、を備える。 The learning method of the second aspect of the present invention includes (1) a radiator that generates Cerenkov light by interaction with incident particles, and a light-receiving surface that detects the Cerenkov light generated by the radiator; (2) a first Cherenkov detector and a second Cherenkov detector, each including a photodetector that outputs a signal representing the detection position and detection time of Cherenkov light; By inputting the signal output from the photodetector of The present invention is a method for training a neural network of a detection system including an estimator that estimates a photon pair generation position using a neural network based on the number of photodetection events and the detection position and detection time of each Cherenkov photodetection event. The learning method of the second aspect of the present invention includes: (a) for each coincidence event, a set of less than n1 Cherenkov light detection events from among n1 Cherenkov light detection events by the photodetector of the first Cherenkov detector; The detection position and detection time of each Cerenkov light detection event included in each of these multiple sets is used as first learning data, and n2 Cerenkov light detections are performed by the photodetector of the second Cerenkov detector. A learning method in which a plurality of sets of less than n2 Cerenkov light detection events are generated from among the events, and the detection position and detection time of each Cerenkov light detection event included in each of the plurality of sets is used as second learning data. The method includes a data creation step, and (b) a learning step of learning a neural network using the first learning data and second learning data created in the learning data creation step.

本発明によれば、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システムにおいて、該ニューラルネットワークを容易に学習させることができる。 According to the present invention, in a detection system including a Cerenkov detector and a signal processing section using a neural network, the neural network can be easily trained.

図1は、第1実施形態の検出システム1の構成を示す図である。FIG. 1 is a diagram showing the configuration of a detection system 1 according to the first embodiment. 図2は、チェレンコフ検出器3の構成を示す斜視図である。FIG. 2 is a perspective view showing the configuration of the Cherenkov detector 3. 図3は、相互作用位置の推定の際の信号処理部4の推定部42による処理の一例を説明する図である。FIG. 3 is a diagram illustrating an example of processing by the estimation unit 42 of the signal processing unit 4 when estimating the interaction position. 図4は、ニューラルネットワークの学習の際の信号処理部4の学習用データ作成部43および学習部44による処理の一例を説明する図である。FIG. 4 is a diagram illustrating an example of processing by the learning data creation unit 43 and learning unit 44 of the signal processing unit 4 during learning of the neural network. 図5は、ニューラルネットワークの構成の一例を示す図である。FIG. 5 is a diagram showing an example of the configuration of a neural network. 図6は、シミュレーションの結果を示す図である。FIG. 6 is a diagram showing the results of the simulation. 図7は、第2実施形態の検出システム2の構成を示す図である。FIG. 7 is a diagram showing the configuration of the detection system 2 of the second embodiment. 図8は、光子対発生位置の推定の際の信号処理部5の推定部52による処理の一例を説明する図である。FIG. 8 is a diagram illustrating an example of processing performed by the estimation unit 52 of the signal processing unit 5 when estimating the photon pair generation position. 図9は、ニューラルネットワークの学習の際の信号処理部5の学習用データ作成部53および学習部54による処理の一例を説明する図である。FIG. 9 is a diagram illustrating an example of processing by the learning data creation unit 53 and learning unit 54 of the signal processing unit 5 during learning of the neural network. 図10は、ニューラルネットワークの構成の一例を示す図である。FIG. 10 is a diagram showing an example of the configuration of a neural network. 図11は、シミュレーションの結果を示す図である。FIG. 11 is a diagram showing the results of the simulation.

以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。本発明は、これらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In addition, in the description of the drawings, the same elements are given the same reference numerals, and redundant description will be omitted. The present invention is not limited to these examples, but is indicated by the claims, and is intended to include all changes within the meaning and scope equivalent to the claims.

図1は、第1実施形態の検出システム1の構成を示す図である。検出システム1は、チェレンコフ検出器3および信号処理部4を備える。チェレンコフ検出器3は、輻射体10および光検出器20を備える。図2は、チェレンコフ検出器3の構成を示す斜視図である。 FIG. 1 is a diagram showing the configuration of a detection system 1 according to the first embodiment. The detection system 1 includes a Cerenkov detector 3 and a signal processing section 4. Cherenkov detector 3 includes a radiator 10 and a photodetector 20. FIG. 2 is a perspective view showing the configuration of the Cherenkov detector 3.

輻射体10は、入射した粒子(例えばγ線)との相互作用によりチェレンコフ光を発生させる。輻射体10は、屈折率が既知であってチェレンコフ効果が生じ得るモノリシックな材料からなる。輻射体10は、シンチレーション光が生じ難い材料であるのが好ましい。輻射体10の材料は、例えば、鉛ガラス(SiO+PbO)、フッ化鉛(PbF)、PWO(PbWO)等である。輻射体10は直方体形状を有するのが好ましい。 The radiator 10 generates Cerenkov light through interaction with incident particles (eg, γ rays). The radiator 10 is made of a monolithic material with a known refractive index and capable of producing the Cerenkov effect. The radiator 10 is preferably made of a material that does not easily generate scintillation light. The material of the radiator 10 is, for example, lead glass (SiO 2 +PbO), lead fluoride (PbF 2 ), PWO (PbWO 4 ), or the like. Preferably, the radiator 10 has a rectangular parallelepiped shape.

光検出器20は、輻射体10で発生したチェレンコフ光を検出する受光面21を有する。光検出器20の受光面21は、直方体形状の輻射体10の一つの面に対向しており、その面と平行である。光検出器20の受光面21は、輻射体10の一つの面に接していてもよい。光検出器20は、受光面21におけるチェレンコフ光検出に基づいて、受光面21上のチェレンコフ光の検出位置(x,y)および検出時刻tを表す信号を出力する。その信号は、チェレンコフ光検出時のパルス出力により、検出時刻tを表すことができる。 The photodetector 20 has a light receiving surface 21 that detects Cerenkov light generated by the radiator 10. The light-receiving surface 21 of the photodetector 20 faces one surface of the rectangular parallelepiped-shaped radiator 10 and is parallel to that surface. The light receiving surface 21 of the photodetector 20 may be in contact with one surface of the radiator 10. Based on the detection of Cherenkov light on the light receiving surface 21, the photodetector 20 outputs a signal representing the detection position (x, y) of the Cherenkov light on the light receiving surface 21 and the detection time t. The signal can represent the detection time t by the pulse output at the time of Cerenkov light detection.

光検出器20は、フォトンカウンティング動作をすることができる高速・高感度のものであるのが好適である。光検出器20として例えばマルチアノード光電子増倍管またはMPPC(登録商標)が好適に用いられる。マルチアノード光電子増倍管(multi-anode photo multiplier tube)は、複数の画素として複数のアノードを有し、各アノードの受光量に応じた検出信号を出力することができる。MPPC(Multi-Pixel Photon Counter)は、ガイガー・モードで動作するアバランシェ・フォトダイオードにクエンチング抵抗が接続されたものを1つの画素として、複数の画素が2次元配列されたものである。これらは高速・高感度の光検出をすることができる。 Preferably, the photodetector 20 is a high-speed, high-sensitivity device capable of photon counting operation. As the photodetector 20, for example, a multi-anode photomultiplier tube or MPPC (registered trademark) is preferably used. A multi-anode photomultiplier tube has a plurality of anodes as a plurality of pixels, and can output a detection signal according to the amount of light received by each anode. MPPC (Multi-Pixel Photon Counter) is a two-dimensional array of a plurality of pixels, each pixel being an avalanche photodiode that operates in Geiger mode and connected to a quenching resistor. These devices are capable of high-speed, highly sensitive light detection.

信号処理部4は、光検出器20から出力される信号を入力する。信号処理部4は、この入力信号を処理することで、輻射体10における相互作用事象毎に、光検出器20の受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tに基づいて、ニューラルネットワークにより、輻射体10における相互作用位置(x,y,z)を推定する。なお、x,y,z直交座標系のx軸およびy軸は、光検出器20の受光面21に平行であって、互いに直交している。z軸は、光検出器20の受光面21に垂直である。 The signal processing section 4 inputs the signal output from the photodetector 20. By processing this input signal, the signal processing unit 4 calculates the number n of Cerenkov light detection events on the light receiving surface 21 of the photodetector 20 and the detection position of each Cerenkov light detection event for each interaction event in the radiator 10. Based on (x, y) and the detection time t, the interaction position (x, y, z) in the radiator 10 is estimated by a neural network. Note that the x-axis and y-axis of the x, y, z orthogonal coordinate system are parallel to the light receiving surface 21 of the photodetector 20 and orthogonal to each other. The z-axis is perpendicular to the light receiving surface 21 of the photodetector 20.

また、信号処理部4は、輻射体10における相互作用事象毎に、光検出器20の受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tに基づいて、ニューラルネットワークを学習させる為の学習用データを作成する。そして、信号処理部4は、この学習用データを用いてニューラルネットワークを学習させる。 The signal processing unit 4 also determines, for each interaction event in the radiator 10, the number n of Cerenkov light detection events on the light receiving surface 21 of the photodetector 20, the detection position (x, y) of each Cerenkov light detection event, and the detection position (x, y) of each Cherenkov light detection event. Based on time t, training data for training the neural network is created. Then, the signal processing unit 4 causes the neural network to learn using this learning data.

信号処理部4は例えばコンピュータにより構成される。信号処理部4は、ニューラルネットワークによる処理をCPU(Central Processing Unit)により行ってもよいが、より高速な処理が可能なDSP(Digital Signal Processor)またはGPU(Graphics Processing Unit)により行うのが好適である。 The signal processing section 4 is configured by, for example, a computer. The signal processing unit 4 may perform neural network processing using a CPU (Central Processing Unit), but it is preferable to perform processing using a DSP (Digital Signal Processor) or GPU (Graphics Processing Unit) that can perform faster processing. be.

信号処理部4は、前処理部41、推定部42、学習用データ作成部43、学習部44および記憶部45を備える。 The signal processing section 4 includes a preprocessing section 41 , an estimation section 42 , a learning data creation section 43 , a learning section 44 , and a storage section 45 .

前処理部41は、光検出器20から出力される信号に基づいて、各チェレンコフ光検出事象について検出位置(x,y)および検出時刻tを求める。検出時刻tは、入力信号のパルスのタイミングから求めることができる。その後、前処理部41は、各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tを含むデータを検出時刻tでソートする。そして、前処理部41は、ソートしたデータのうち一定幅のタイムウィンドウ内にあるデータを、共通の相互作用事象により生じたチェレンコフ光検出事象のデータであると判断する。 The preprocessing unit 41 determines the detection position (x, y) and detection time t for each Cerenkov light detection event based on the signal output from the photodetector 20. The detection time t can be determined from the pulse timing of the input signal. After that, the preprocessing unit 41 sorts the data including the detection position (x, y) and detection time t of each Cherenkov light detection event by the detection time t. Then, the preprocessing unit 41 determines that data within a time window of a certain width among the sorted data is data of a Cherenkov light detection event caused by a common interaction event.

このようにして、前処理部41は、各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tを含むデータを相互作用事象毎に区分する。これにより、相互作用事象毎に、受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tを求めることができる。 In this way, the preprocessing unit 41 classifies data including the detection position (x, y) and detection time t of each Cerenkov light detection event for each interaction event. Thereby, the number n of Cerenkov light detection events on the light receiving surface 21, the detection position (x, y) and the detection time t of each Cerenkov light detection event can be determined for each interaction event.

また、前処理部41は、チェレンコフ光検出事象の数nが閾値th未満である相互作用事象のデータを破棄して、推定部42は、チェレンコフ光検出事象の数nが閾値th以上である相互作用事象について選択的に相互作用位置を推定するのが好適である。これは、チェレンコフ光検出事象の数nが閾値th未満である相互作用事象の場合、推定部42による相互作用位置の推定の精度が悪いからである。同様に、学習用データ作成部43は、チェレンコフ光検出事象の数nが閾値th以上である相互作用事象について学習用データを作成するのが好適である。例えば閾値thは3である。 Further, the preprocessing unit 41 discards data of interaction events for which the number n of Cerenkov light detection events is less than the threshold th, and the estimation unit 42 discards data for interaction events for which the number n of Cerenkov light detection events is greater than or equal to the threshold th. Preferably, interaction positions are estimated selectively for action events. This is because, in the case of an interaction event in which the number n of Cerenkov light detection events is less than the threshold th, the estimation unit 42 estimates the interaction position with poor accuracy. Similarly, the learning data creation unit 43 preferably creates learning data for interaction events in which the number n of Cerenkov light detection events is greater than or equal to the threshold th. For example, the threshold value th is 3.

推定部42は、前処理部41により前処理が為された後のデータを入力して、相互作用事象毎に、光検出器20の受光面21におけるチェレンコフ光検出事象の数nならびに各チェレンコフ光検出事象の検出位置(x,y)および検出時刻tに基づいて、ニューラルネットワークにより相互作用位置(x,y,z)を推定する。ここで用いられるニューラルネットワークは、例えば、多層パーセプトロン(Multi-layer Perceptron、MLP)、畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)、再帰型ニューラルネットワーク(Recurrent Neural Network、RNN)等である。 The estimation unit 42 inputs the data preprocessed by the preprocessing unit 41 and calculates the number n of Cerenkov light detection events on the light receiving surface 21 of the photodetector 20 and each Cerenkov light for each interaction event. The interaction position (x, y, z) is estimated by a neural network based on the detection position (x, y) of the detection event and the detection time t. The neural networks used here include, for example, a multi-layer perceptron (MLP), a convolutional neural network (CNN), a recurrent neural network (RNN), and the like.

推定部42は、複数のニューラルネットワークを有し、チェレンコフ光検出事象の数nに対応したニューラルネットワークにより相互作用位置を推定してもよい。すなわち、チェレンコフ光検出事象の数がnである相互作用事象については、その数nに対応して設けられたニューラルネットワークにより、相互作用位置を推定してもよい。 The estimation unit 42 may include a plurality of neural networks, and may estimate the interaction position using the neural network corresponding to the number n of Cerenkov light detection events. That is, for an interaction event in which the number of Cerenkov light detection events is n, the interaction position may be estimated by a neural network provided corresponding to the number n.

学習用データ作成部43は、相互作用事象毎に、チェレンコフ検出器3の光検出器20によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を学習用データとする。相互作用事象に含まれるチェレンコフ光検出事象がn個であって、そのうちからm個のチェレンコフ光検出事象の組を生成する場合(ただし、m<n)、n個の集合の中からm個を取り出す組合せの個数は である。 The learning data creation unit 43 generates a plurality of sets of less than n Cerenkov light detection events from among the n Cerenkov light detection events by the photodetector 20 of the Cherenkov detector 3 for each interaction event, The detection position and detection time of each Cerenkov light detection event included in each of these plurality of sets is used as learning data. When there are n Cherenkov photodetection events included in the interaction event and a set of m Cherenkov photodetection events is to be generated from them (m<n), m are selected from the n set. The number of combinations to be extracted is n C m .

学習部44は、学習用データ作成部43により作成された学習用データを用いてニューラルネットワークを学習させる。記憶部45は、前処理部41、推定部42、学習用データ作成部43および学習部44それぞれによる処理の前、途中および後のデータを記憶する。 The learning unit 44 causes the neural network to learn using the learning data created by the learning data creation unit 43. The storage unit 45 stores data before, during, and after processing by the preprocessing unit 41, the estimation unit 42, the learning data creation unit 43, and the learning unit 44, respectively.

図3は、相互作用位置の推定の際の信号処理部4の推定部42による処理の一例を説明する図である。推定部42は、前処理部41により前処理が為された後の相互作用事象毎のデータを入力する。すなわち、推定部42は、各相互作用事象に含まれるn個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。推定部42は、各相互作用事象に含まれるn個のチェレンコフ光検出事象のうちから検出タイミングの早い5個のチェレンコフ光検出事象のデータを選択し、その5個のチェレンコフ光検出事象のデータ(x,y,t)を学習済みのニューラルネットワークへ入力させる。これによりニューラルネットワークから出力されるデータは、輻射体10における相互作用位置(x,y,z)を推定した結果を表すものとなる。 FIG. 3 is a diagram illustrating an example of processing by the estimation unit 42 of the signal processing unit 4 when estimating the interaction position. The estimation unit 42 receives data for each interaction event after being preprocessed by the preprocessing unit 41 . That is, the estimation unit 42 inputs data (x, y, t) for each of the n Cerenkov light detection events included in each interaction event. The estimating unit 42 selects data of five Cherenkov light detection events with early detection timing from among the n Cherenkov light detection events included in each interaction event, and calculates the data of the five Cherenkov light detection events ( x, y, t) into the trained neural network. Thereby, the data output from the neural network represents the result of estimating the interaction position (x, y, z) on the radiator 10.

図4は、ニューラルネットワークの学習の際の信号処理部4の学習用データ作成部43および学習部44による処理の一例を説明する図である。学習用データ作成部43は、前処理部41により前処理が為された後の相互作用事象毎のデータを入力する。すなわち、学習用データ作成部43は、各相互作用事象に含まれるn個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。 FIG. 4 is a diagram illustrating an example of processing by the learning data creation unit 43 and learning unit 44 of the signal processing unit 4 during learning of the neural network. The learning data creation unit 43 receives data for each interaction event after being preprocessed by the preprocessing unit 41 . That is, the learning data creation unit 43 inputs data (x, y, t) for each of n Cerenkov light detection events included in each interaction event.

学習用データ作成部43は、各相互作用事象に含まれるn個のチェレンコフ光検出事象のうちから5個のチェレンコフ光検出事象の組を複数生成する。このとき最大で個の組を生成することができる。学習用データ作成部43は、各組に含まれる5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を学習用データとし、その学習用データをニューラルネットワークへ入力させる。これによりニューラルネットワークから組の個数と同じ数の出力データ(x,y,z)が得られる。学習部44は、ニューラルネットワークから出力されるデータ(x,y,z)と教師データ(X,Y,Z)との間の誤差を評価し、その誤差が小さくなるように誤差逆伝播法によりニューラルネットワークのパラメータを調整して、ニューラルネットワークを学習させる。 The learning data creation unit 43 generates a plurality of sets of five Cerenkov light detection events from among the n Cerenkov light detection events included in each interaction event. At this time, a maximum of n C 5 sets can be generated. The learning data creation unit 43 sets the data (x, y, t) of each of the five Cerenkov light detection events included in each group as learning data, and inputs the learning data to the neural network. As a result, the same number of output data (x, y, z) as the number of sets can be obtained from the neural network. The learning unit 44 evaluates the error between the data (x, y, z) output from the neural network and the teacher data (X, Y, Z), and uses the error backpropagation method to reduce the error. Train the neural network by adjusting its parameters.

図5は、ニューラルネットワークの構成の一例を示す図である。この図に示されるニューラルネットワークは、入力層、出力層および3つの中間層を含む5層構造を有する多層パーセプトロン(MLP)である。このMLPは、5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力し、相互作用位置(x,y,z)の推定の結果を出力する。なお、ニューラルネットワークからの出力データは、位置を表すものであってもよいし、各位置の相互作用の確信度を表すものであってもよい。 FIG. 5 is a diagram showing an example of the configuration of a neural network. The neural network shown in this figure is a multilayer perceptron (MLP) with a five-layer structure including an input layer, an output layer and three hidden layers. This MLP inputs data (x, y, t) for each of the five Cerenkov photodetection events and outputs the result of estimating the interaction position (x, y, z). Note that the output data from the neural network may represent a position or may represent the reliability of interaction at each position.

次に、第1実施形態についてモンテカルロ法を用いて行ったシミュレーションの結果を説明する。輻射体10として、PbFからなり、40×40×10mmの直方体形状を有するものを想定した。光検出器20の受光面21は、輻射体10の40×40mmの面に接しているものとした。光検出器20として、空間分解能および時間分解能の双方が無限小である理想的なものを想定した。ニューラルネットワークとして図5に示したMLPを用い、そのMLPから位置を表すデータを出力させた。 Next, the results of a simulation performed using the Monte Carlo method for the first embodiment will be explained. The radiator 10 was assumed to be made of PbF 2 and have a rectangular parallelepiped shape of 40×40×10 mm 3 . The light receiving surface 21 of the photodetector 20 was in contact with a 40×40 mm 2 surface of the radiator 10. As the photodetector 20, an ideal one with both spatial resolution and temporal resolution is assumed to be infinitesimal. The MLP shown in FIG. 5 was used as a neural network, and data representing the position was output from the MLP.

シミュレーションでは、輻射体における各粒子の相互作用を逐一トラッキングしており、その履歴を参照することで輻射体における相互作用位置が分かるので、これを教師データ(X,Y,Z)とすることができる。 In the simulation, the interaction of each particle in the radiator is tracked one by one, and by referring to the history, the interaction position in the radiator can be determined, so this can be used as training data (X, Y, Z). can.

実験の場合は、例えば、コリメーションされたγ線(ペンシルビーム)を使用する。このペンシルビームをxy平面に垂直に入射させたときの位置を相互作用位置(X,Y)の代わりとする。同様に、ペンシルビームをxz平面に垂直に入射させると(X,Z)が分かり、ペンシルビームをyz平面に垂直に入射させると(Y,Z)が分かる。この方法では、一発で教師データ(X,Y,Z)を得ることができないので、各平面用のニューラルネットワークを個別に学習し、その予測を統合する。例えば、(X,Y)用、(X,Z)用および(Y,Z)用それぞれのニューラルネットワークの出力の平均を教師データ(X,Y,Z)とすることができる。 For experiments, for example, collimated gamma rays (pencil beam) are used. The position when this pencil beam is incident perpendicularly to the xy plane is used as the interaction position (X, Y). Similarly, when a pencil beam is made perpendicular to the xz plane, (X, Z) is found, and when a pencil beam is made perpendicular to the yz plane, (Y, Z) is found. In this method, since it is not possible to obtain the training data (X, Y, Z) in one go, the neural network for each plane is learned individually and the predictions thereof are integrated. For example, the average of the outputs of the neural networks for (X, Y), (X, Z), and (Y, Z) can be used as the teacher data (X, Y, Z).

シミュレーションは、第1比較例、第2比較例および第1実施例それぞれについて行った。第1比較例では、相互作用事象に含まれるチェレンコフ光検出事象の個数が5であるデータのみを学習用データとして用いてMLPを学習させた。第2比較例では、相互作用事象に含まれるチェレンコフ光検出事象の個数が5以上7以下であるデータのうち検出タイミングの早い5個のチェレンコフ光検出事象のデータを学習用データとして用いてMLPを学習させた。第1実施例では、相互作用事象に含まれるチェレンコフ光検出事象の個数nが5以上7以下であるデータに基づいて、図4を用いて一例として説明した条件で作成した学習用データを用いてMLPを学習させた。 The simulation was performed for each of the first comparative example, the second comparative example, and the first example. In the first comparative example, MLP was trained using only data in which the number of Cerenkov light detection events included in interaction events was 5 as training data. In the second comparative example, MLP is performed using data of five Cherenkov light detection events with early detection timings as learning data among data in which the number of Cherenkov light detection events included in the interaction event is 5 or more and 7 or less. Made me learn. In the first example, the learning data created under the conditions described as an example using FIG. I learned MLP.

第1比較例で作成された学習用データの個数は521,460個であった。第2比較例で作成された学習用データの個数は、875,000個であり、第1比較例の場合の1.68倍であった。第1実施例で作成された学習用データの個数は、4,170,600個であり、第1比較例の場合の8倍であった。このように、第1比較例および第2比較例と比べると、第1実施例では、より多くの学習用データを用意することができる。 The number of learning data created in the first comparative example was 521,460. The number of learning data created in the second comparative example was 875,000, which was 1.68 times that in the first comparative example. The number of learning data created in the first example was 4,170,600, which was eight times that of the first comparative example. In this way, compared to the first comparative example and the second comparative example, more learning data can be prepared in the first example.

図6は、シミュレーションの結果を示す図である。この図は、第1比較例、第2比較例および第1実施例それぞれについて、xy平面での相互作用位置の推定誤差のヒストグラム、および、z軸方向の相互作用位置の推定誤差のヒストグラムを示す。推定誤差は、真の相互作用位置から推定相互作用位置を引いた値である。横軸は誤差を表し、縦軸は頻度を表す。各ヒストグラムをローレンツ関数で近似して、そのローレンツ関数の半値全幅(Full Width at Half Maximum、FWHM)を求めた。 FIG. 6 is a diagram showing the results of the simulation. This figure shows a histogram of the estimation error of the interaction position in the xy plane and a histogram of the estimation error of the interaction position in the z-axis direction for each of the first comparative example, the second comparative example, and the first example. . The estimation error is the value obtained by subtracting the estimated interaction position from the true interaction position. The horizontal axis represents error, and the vertical axis represents frequency. Each histogram was approximated by a Lorentz function, and the full width at half maximum (FWHM) of the Lorentz function was determined.

第1比較例では、xy平面での推定誤差のFWHMは0.89mmであり、z軸方向の推定誤差のFWHMは1.57mmであった。第2比較例では、xy平面での推定誤差のFWHMは0.79mmであり、z軸方向の推定誤差のFWHMは1.42mmであった。第1実施例では、xy平面での推定誤差のFWHMは0.65mmであり、z軸方向の推定誤差のFWHMは1.40mmであった。第1比較例および第2比較例と比べると、第1実施例では、軸方向の推定誤差およびxy平面での推定誤差の何れも小さい値であった。第1実施例では、より多くの学習用データを用いてMLPを学習させたことにより、相互作用位置の推定の精度が向上したと考えられる。 In the first comparative example, the FWHM of the estimation error in the xy plane was 0.89 mm, and the FWHM of the estimation error in the z-axis direction was 1.57 mm. In the second comparative example, the FWHM of the estimation error in the xy plane was 0.79 mm, and the FWHM of the estimation error in the z-axis direction was 1.42 mm. In the first example, the FWHM of the estimation error in the xy plane was 0.65 mm, and the FWHM of the estimation error in the z-axis direction was 1.40 mm. Compared with the first comparative example and the second comparative example, in the first example, both the estimation error in the axial direction and the estimation error in the xy plane were small values. In the first example, it is considered that the accuracy of estimating the interaction position is improved by learning the MLP using more training data.

次に第2実施形態について説明する。図7は、第2実施形態の検出システム2の構成を示す図である。検出システム2は、第1チェレンコフ検出器3A、第2チェレンコフ検出器3Bおよび信号処理部5を備える。チェレンコフ検出器3A,3Bは、第1実施形態におけるチェレンコフ検出器3と同じ構成を有する。チェレンコフ検出器3A,3Bそれぞれの輻射体10の入射面11(光検出器20側と反対の面。図2参照)は互いに対向している。 Next, a second embodiment will be described. FIG. 7 is a diagram showing the configuration of the detection system 2 of the second embodiment. The detection system 2 includes a first Cerenkov detector 3A, a second Cerenkov detector 3B, and a signal processing section 5. The Cerenkov detectors 3A and 3B have the same configuration as the Cerenkov detector 3 in the first embodiment. The entrance surfaces 11 (surfaces opposite to the photodetector 20 side, see FIG. 2) of the radiators 10 of the Cerenkov detectors 3A and 3B are opposed to each other.

第1チェレンコフ検出器3Aと第2チェレンコフ検出器3Bとの間の空間にRI線源があると、そのRI線源から放出された陽電子と電子とが対消滅し、その対消滅により光子対(エネルギ511keVのγ線の対)が発生する。光子対を構成する2つの光子は互いに反対方向に飛行する。一方の光子を第1チェレンコフ検出器3Aにより検出するとともに他方の光子を第2チェレンコフ検出器3Bにより検出することにより、すなわち、2つのチェレンコフ検出器3A,3Bにより光子対を同時計数すること(同時計数事象)により、光子対発生事象(対消滅事象)を検出することができる。 When an RI source is present in the space between the first Cherenkov detector 3A and the second Cherenkov detector 3B, positrons and electrons emitted from the RI source annihilate, and due to the annihilation, photon pairs ( A pair of gamma rays with an energy of 511 keV) are generated. The two photons that make up the photon pair fly in opposite directions. By detecting one photon by the first Cerenkov detector 3A and the other photon by the second Cerenkov detector 3B, that is, by simultaneously counting the photon pair by the two Cerenkov detectors 3A and 3B. Photon pair generation events (pair annihilation events) can be detected by counting events).

信号処理部5は、チェレンコフ検出器3A,3Bそれぞれの光検出器20から出力される信号を入力する。信号処理部5は、これらの入力信号を処理することで、同時計数事象毎に、チェレンコフ検出器3A,3Bそれぞれの光検出器20の受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置(対消滅位置)を推定する。 The signal processing unit 5 receives signals output from the photodetectors 20 of each of the Cherenkov detectors 3A and 3B. By processing these input signals, the signal processing unit 5 calculates, for each coincidence event, the number of Cherenkov light detection events on the light receiving surface of the photodetector 20 of each of the Cherenkov detectors 3A and 3B, and the number of Cherenkov light detection events. Based on the detection position and detection time, the photon pair generation position (pair annihilation position) is estimated by a neural network.

また、信号処理部5は、同時計数事象毎に、チェレンコフ検出器3A,3Bそれぞれの光検出器20の受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークを学習させる為の学習用データを作成する。そして、信号処理部5は、この学習用データを用いてニューラルネットワークを学習させる。 Further, the signal processing unit 5 performs a process based on the number of Cherenkov light detection events on the light receiving surface of the photodetector 20 of each of the Cherenkov detectors 3A and 3B and the detection position and detection time of each Cherenkov light detection event for each coincidence event. Create training data for training the neural network. Then, the signal processing unit 5 causes the neural network to learn using this learning data.

信号処理部5は例えばコンピュータにより構成される。信号処理部5は、ニューラルネットワークによる処理をCPUにより行ってもよいが、より高速な処理が可能なDSPまたはGPUにより行うのが好適である。 The signal processing unit 5 is configured by, for example, a computer. Although the signal processing unit 5 may perform processing using a neural network using a CPU, it is preferable to perform processing using a DSP or GPU that can perform higher-speed processing.

信号処理部5は、前処理部51、推定部52、学習用データ作成部53、学習部54および記憶部55を備える。 The signal processing section 5 includes a preprocessing section 51 , an estimation section 52 , a learning data creation section 53 , a learning section 54 , and a storage section 55 .

前処理部51は、第1チェレンコフ検出器3Aの光検出器20から出力される信号について第1実施形態における前処理部41と同様の処理を行う。前処理部51は、第2チェレンコフ検出器3Bの光検出器20から出力される信号についても第1実施形態における前処理部41と同様の処理を行う。 The preprocessing unit 51 performs the same processing as the preprocessing unit 41 in the first embodiment on the signal output from the photodetector 20 of the first Cerenkov detector 3A. The preprocessing unit 51 also performs the same processing as the preprocessing unit 41 in the first embodiment on the signal output from the photodetector 20 of the second Cerenkov detector 3B.

前処理部51は次のような処理をも行う。前処理部51は、第1チェレンコフ検出器3Aの光検出器20から出力された信号に基づいて検出された相互作用事象データと、第2チェレンコフ検出器3Bの光検出器20から出力された信号に基づいて検出された相互作用事象のデータとが、同時計数タイムウィンドウ内にある場合に、両データが共通の光子対発生事象によるものであると判断する。このとき、両データの代表時刻が同時計数タイムウィンドウ内にあるか否かを判定すればよい。代表時刻は、各相互作用事象に含まれる検出時刻のうち最も早い検出時刻でもよいし、検出時刻の平均値でもよい。 The preprocessing unit 51 also performs the following processing. The preprocessing unit 51 processes interaction event data detected based on the signal output from the photodetector 20 of the first Cerenkov detector 3A and the signal output from the photodetector 20 of the second Cerenkov detector 3B. If the data of the interaction event detected based on the data are within the coincidence time window, it is determined that both data are due to a common photon pair generation event. At this time, it may be determined whether the representative times of both data are within the coincidence time window. The representative time may be the earliest detection time among the detection times included in each interaction event, or may be the average value of the detection times.

推定部52は、前処理部51により前処理が為された後のデータを入力して、同時計数事象毎に、チェレンコフ検出器3A,3Bそれぞれの光検出器20の受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の検出位置および検出時刻に基づいて、ニューラルネットワークにより光子対発生位置(x,y,z)を推定する。ここで用いられるニューラルネットワークは、例えば、多層パーセプトロン(MLP)、畳み込みニューラルネットワーク(CNN)、再帰型ニューラルネットワーク(RNN)等である。 The estimation unit 52 inputs the data preprocessed by the preprocessing unit 51 and calculates a Cerenkov light detection event on the light receiving surface of the photodetector 20 of each of the Cerenkov detectors 3A and 3B for each coincidence event. The photon pair generation position (x, y, z) is estimated by a neural network based on the number of , and the detection position and detection time of each Cerenkov photodetection event. The neural network used here is, for example, a multilayer perceptron (MLP), a convolutional neural network (CNN), a recurrent neural network (RNN), or the like.

学習用データ作成部53は、同時計数事象毎に、第1チェレンコフ検出器3Aの光検出器20によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第1学習用データとし、また、第2チェレンコフ検出器3Bの光検出器20によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の検出位置および検出時刻を第2学習用データとする。 The learning data creation unit 53 generates, for each coincidence event, a plurality of sets of less than n1 Cherenkov light detection events from among the n1 Cherenkov light detection events by the photodetector 20 of the first Cherenkov detector 3A. Then, the detection position and detection time of each Cerenkov light detection event included in each of these plurality of sets are used as first learning data, and n2 Cerenkov light detections by the photodetector 20 of the second Cerenkov detector 3B are performed. A plurality of sets of less than n2 Cerenkov light detection events are generated from among the events, and the detection position and detection time of each Cerenkov light detection event included in each of the plurality of sets is used as second learning data.

学習部54は、学習用データ作成部53により作成された第1学習用データおよび第2学習用データを用いてニューラルネットワークを学習させる。記憶部55は、前処理部51、推定部52、学習用データ作成部53および学習部54それぞれによる処理の前、途中および後のデータを記憶する。 The learning unit 54 causes the neural network to learn using the first learning data and the second learning data created by the learning data creating unit 53. The storage unit 55 stores data before, during, and after processing by the preprocessing unit 51, the estimation unit 52, the learning data creation unit 53, and the learning unit 54, respectively.

図8は、光子対発生位置の推定の際の信号処理部5の推定部52による処理の一例を説明する図である。推定部52は、前処理部51により前処理が為された後の同時計数事象毎のデータを入力する。すなわち、推定部52は、同時計数事象毎に、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力するとともに、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。推定部52は、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象それぞれのデータのうちから検出タイミングの早い5個のチェレンコフ光検出事象のデータを選択し、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象それぞれのデータのうちから検出タイミングの早い5個のチェレンコフ光検出事象のデータを選択して、これらの選択したデータを学習済みのニューラルネットワークへ入力させる。これによりニューラルネットワークから出力されるデータは、光子対発生位置(x,y,z)を推定した結果を表すものとなる。 FIG. 8 is a diagram illustrating an example of processing by the estimation unit 52 of the signal processing unit 5 when estimating the photon pair generation position. The estimation unit 52 receives data for each coincidence event after being preprocessed by the preprocessing unit 51 . That is, the estimation unit 52 inputs data (x, y, t) for each of n1 Cerenkov light detection events by the first Cerenkov detector 3A for each coincidence event, and inputs n2 data (x, y, t) for each of the n1 Cerenkov light detection events by the second Cerenkov detector 3B. Input data (x, y, t) for each of the Cherenkov photodetection events. The estimation unit 52 selects data of five Cherenkov photodetection events with early detection timings from data of n1 Cherenkov photodetection events by the first Cherenkov detector 3A, and selects data of n2 Cherenkov photodetection events by the second Cherenkov detector 3B. The data of five Cherenkov photodetection events with early detection timings are selected from among the data of each of the Cherenkov photodetection events, and these selected data are input to the trained neural network. Thereby, the data output from the neural network represents the result of estimating the photon pair generation position (x, y, z).

図9は、ニューラルネットワークの学習の際の信号処理部5の学習用データ作成部53および学習部54による処理の一例を説明する図である。学習用データ作成部53は、前処理部51により前処理が為された後の同時計数事象毎のデータを入力する。すなわち、学習用データ作成部53は、同時計数事象毎に、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力するとともに、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力する。 FIG. 9 is a diagram illustrating an example of processing by the learning data creation unit 53 and learning unit 54 of the signal processing unit 5 during learning of the neural network. The learning data creation section 53 receives data for each coincidence event after being preprocessed by the preprocessing section 51 . That is, the learning data creation unit 53 inputs data (x, y, t) for each of n1 Cerenkov light detection events by the first Cerenkov detector 3A for each coincidence event, and also inputs data (x, y, t) for each of n1 Cerenkov light detection events by the first Cerenkov detector 3A Input data (x, y, t) for each of n2 Cerenkov photodetection events by 3B.

学習用データ作成部53は、第1チェレンコフ検出器3Aによるn1個のチェレンコフ光検出事象のうちから5個のチェレンコフ光検出事象の組を複数生成する。このとき最大でn1個の組を生成することができる。学習用データ作成部53は、各組に含まれる5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を第1学習用データとする。 The learning data creation unit 53 generates a plurality of sets of five Cherenkov light detection events from among the n1 Cherenkov light detection events by the first Cherenkov detector 3A. At this time, a maximum of n1 C 5 sets can be generated. The learning data creation unit 53 sets the data (x, y, t) of each of the five Cerenkov light detection events included in each set as first learning data.

学習用データ作成部53は、第2チェレンコフ検出器3Bによるn2個のチェレンコフ光検出事象のうちから5個のチェレンコフ光検出事象の組を複数生成する。このとき最大でn2個の組を生成することができる。学習用データ作成部53は、各組に含まれる5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を第2学習用データとする。 The learning data creation unit 53 generates a plurality of sets of five Cerenkov light detection events from among the n2 Cerenkov light detection events by the second Cherenkov detector 3B. At this time, a maximum of n2 C 5 sets can be generated. The learning data creation unit 53 sets the data (x, y, t) of each of the five Cerenkov light detection events included in each set as second learning data.

学習用データ作成部53は、第1学習用データおよび第2学習用データをニューラルネットワークへ入力させる。学習用データ作成部53は、最大でn1×n2 組の学習用データをニューラルネットワークへ入力させることができる。これによりニューラルネットワークから組の個数と同じ数の出力データ(x,y,z)が得られる。学習部54は、ニューラルネットワークから出力されるデータ(x,y,z)と教師データ(X,Y,Z)との間の誤差を評価し、その誤差が小さくなるように誤差逆伝播法によりニューラルネットワークのパラメータを調整して、ニューラルネットワークを学習させる。 The learning data creation unit 53 inputs the first learning data and the second learning data to the neural network. The learning data creation unit 53 can input up to n1 C 5 × n2 C 5 sets of learning data to the neural network. As a result, the same number of output data (x, y, z) as the number of sets can be obtained from the neural network. The learning unit 54 evaluates the error between the data (x, y, z) output from the neural network and the teacher data (X, Y, Z), and uses the error backpropagation method to reduce the error. Train the neural network by adjusting its parameters.

図10は、ニューラルネットワークの構成の一例を示す図である。この図に示されるニューラルネットワークは、入力層、出力層および3つの中間層を含む5層構造を有する多層パーセプトロン(MLP)である。このMLPは、第1チェレンコフ検出器3Aにより検出されたn1個のチェレンコフ光検出事象のうちから選択した5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力するとともに、第2チェレンコフ検出器3Bにより検出されたn2個のチェレンコフ光検出事象のうちから選択した5個のチェレンコフ光検出事象それぞれのデータ(x,y,t)を入力して、光子対発生位置(x,y,z)の推定の結果を出力する。なお、ニューラルネットワークからの出力データは、位置を表すものであってもよいし、各位置の光子対発生の確信度を表すものであってもよい。 FIG. 10 is a diagram showing an example of the configuration of a neural network. The neural network shown in this figure is a multilayer perceptron (MLP) with a five-layer structure including an input layer, an output layer and three hidden layers. This MLP inputs the data (x, y, t) of each of the five Cherenkov light detection events selected from the n1 Cherenkov light detection events detected by the first Cherenkov detector 3A, and The data (x, y, t) of each of the 5 Cherenkov photodetection events selected from n2 Cherenkov photodetection events detected by the Cherenkov detector 3B are input, and the photon pair generation position (x, y , z). Note that the output data from the neural network may represent a position, or may represent the certainty of the generation of a photon pair at each position.

次に、第2実施形態についてモンテカルロ法を用いて行ったシミュレーションの結果を説明する。第1チェレンコフ検出器3Aおよび第2チェレンコフ検出器3Bそれぞれとして、前述のものを想定した。第1チェレンコフ検出器3Aおよび第2チェレンコフ検出器3Bそれぞれの入射面11の中心位置を互いに結ぶ線分の中点をxyz直交座標系の原点とし、その線分がz軸上にあるとし、各々の入射面11の各辺がx軸またはy軸に平行であるとし、両入射面11の間の間隔を50mmとした。ニューラルネットワークとして図10に示したMLPを用い、そのMLPから各位置の光子対発生の確信度を表すデータを出力させた。 Next, the results of a simulation performed using the Monte Carlo method for the second embodiment will be explained. The above-described ones were assumed as the first Cherenkov detector 3A and the second Cherenkov detector 3B, respectively. The midpoint of the line segment connecting the center positions of the incident surfaces 11 of the first Cherenkov detector 3A and the second Cherenkov detector 3B is the origin of the xyz orthogonal coordinate system, and the line segment is on the z-axis. It was assumed that each side of the entrance surface 11 was parallel to the x-axis or the y-axis, and the interval between both entrance surfaces 11 was 50 mm. The MLP shown in FIG. 10 was used as a neural network, and data representing the certainty of photon pair generation at each position was output from the MLP.

光子対発生位置(教師データ(X,Y,Z))として、原点を中心としてx軸、y軸およびz軸それぞれの正負方向に5mm間隔で125(=5×5×5)個の位置を想定した。3次元空間の対称性を考慮して、或る一つの象限(および該象限の境界の軸上)にRI線源を配置して光子対を発生させで同時計数情報を収集し、この同時計数情報を用いることで他の象限についても同時計数情報を作成した。 As photon pair generation positions (teacher data (X, Y, Z)), 125 (=5 x 5 x 5) positions are set at 5 mm intervals in the positive and negative directions of the x-axis, y-axis, and z-axis, centering on the origin. I assumed. Considering the symmetry of three-dimensional space, an RI source is placed in one quadrant (and on the axis of the boundary of the quadrant) to generate photon pairs and collect coincidence information. By using this information, we created coincidence information for other quadrants as well.

シミュレーションは、第3比較例、第4比較例および第2実施例それぞれについて行った。第3比較例では、共通の光子対発生事象に含まれる相互作用事象の個数n1,n2が何れも5であるデータのみを学習用データとして用いてMLPを学習させた。第4比較例では、共通の光子対発生事象に含まれる相互作用事象の個数n1,n2が何れも5以上8以下であるデータのうち検出タイミングの早い5個ずつのチェレンコフ光検出事象のデータを学習用データとして用いてMLPを学習させた。第2実施例では、共通の光子対発生事象に含まれる相互作用事象の個数n1,n2が何れも5以上8以下であるデータに基づいて、図9を用いて一例として説明した条件で作成した学習用データを用いてMLPを学習させた。 The simulation was performed for each of the third comparative example, the fourth comparative example, and the second example. In the third comparative example, MLP was trained using only data in which the numbers n1 and n2 of interaction events included in a common photon pair occurrence event were both 5 as learning data. In the fourth comparative example, among the data in which the numbers n1 and n2 of interaction events included in a common photon pair generation event are both 5 or more and 8 or less, data of five Cherenkov photodetection events with early detection timings are used. This was used as training data to train MLP. The second example was created under the conditions described as an example using FIG. 9 based on data in which the numbers n1 and n2 of interaction events included in a common photon pair generation event are both 5 or more and 8 or less. MLP was trained using the training data.

第3比較例で作成された学習用データの個数は43,000個であった。第4比較例で作成された学習用データの個数は、122,125個であり、第3比較例の場合の2.84倍であった。第2実施例で作成された学習用データの個数は、6,666,375個であり、第3比較例の場合の155倍であった。このように、第3比較例および第4比較例と比べると、第2実施例では、より多くの学習用データを用意することができる。 The number of learning data created in the third comparative example was 43,000. The number of learning data created in the fourth comparative example was 122,125, which was 2.84 times that in the third comparative example. The number of learning data created in the second example was 6,666,375, which was 155 times that in the third comparative example. In this way, compared to the third comparative example and the fourth comparative example, more learning data can be prepared in the second example.

図11は、シミュレーションの結果を示す図である。この図は、第3比較例、第4比較例および第2実施例それぞれの光子対発生位置の推定の精度を示す。第3比較例では推定精度は91.45%であり、第4比較例では推定精度は93.80%であり、第2実施例では推定精度は95.11%であった。第3比較例および第4比較例と比べると、第2実施例では、光子対発生位置の推定の精度が高い値であった。第2実施例では、より多くの学習用データを用いてMLPを学習させたことにより、光子対発生位置の推定の精度が向上したと考えられる。 FIG. 11 is a diagram showing the results of the simulation. This figure shows the accuracy of estimating the photon pair generation position in each of the third comparative example, the fourth comparative example, and the second example. In the third comparative example, the estimation accuracy was 91.45%, in the fourth comparative example, the estimation accuracy was 93.80%, and in the second example, the estimation accuracy was 95.11%. Compared with the third comparative example and the fourth comparative example, in the second example, the accuracy of estimating the photon pair generation position was high. In the second example, it is considered that the accuracy of estimating the photon pair generation position was improved by learning the MLP using more learning data.

なお、光子対発生位置によって学習用データの数に偏りがあると、その偏りがある学習用データを用いて学習させたニューラルネットワークによる光子対発生位置の推定にも偏りが生じることが考えられる。そこで、2つのチェレンコフ検出器の間の各光子対発生位置について作成された学習用データの数を確認しながら同時計数データの収集を行い、或る光子対発生位置について作成された学習用データの数が或る目標値に達したら、その光子対発生位置については同時計数データの収集を終了するのが好ましい。この場合、各光子対発生位置についての同時計数データの収集の所要時間は位置によって異なることがある。 Note that if there is a bias in the number of learning data depending on the photon pair generation position, it is conceivable that the estimation of the photon pair generation position by a neural network trained using the biased learning data will also be biased. Therefore, we collected coincidence data while checking the number of learning data created for each photon pair generation position between two Cerenkov detectors, and we When the number reaches a certain target value, it is preferable to stop collecting coincidence data for that photon pair generation position. In this case, the time required to collect coincidence data for each photon pair generation position may vary depending on the position.

以上のとおり、本実施形態によれば、チェレンコフ検出器とニューラルネットワークを用いた信号処理部とを備える検出システムにおいて、該ニューラルネットワークを学習させる際に用いる大量の学習用データを短時間で作成することができ、該ニューラルネットワークを容易に学習させることができる。ニューラルネットワークの学習は、検出システムの製造者においても容易に行うことができ、検出システムの利用者においても容易に行うことができる。例えば、検出システムのキャリブレーションを行うことが必要となった場合に、利用者自らがニューラルネットワークの再学習または追加学習を容易に行うことができる。 As described above, according to the present embodiment, in a detection system including a Cerenkov detector and a signal processing unit using a neural network, a large amount of training data used for training the neural network can be created in a short time. The neural network can be easily trained. Training of the neural network can be easily performed by the manufacturer of the detection system, and can also be easily performed by the user of the detection system. For example, if the detection system needs to be calibrated, the user can easily retrain or additionally train the neural network.

1,2…検出システム、3…チェレンコフ検出器、3A…第1チェレンコフ検出器、3B…第2チェレンコフ検出器、10…輻射体、20…光検出器、4…信号処理部、41…前処理部、42…推定部、43…学習用データ作成部、44…学習部、45…記憶部、5…信号処理部、51…前処理部、52…推定部、53…学習用データ作成部、54…学習部、55…記憶部。 DESCRIPTION OF SYMBOLS 1, 2...Detection system, 3...Cherenkov detector, 3A...1st Cherenkov detector, 3B...2nd Cherenkov detector, 10...radiator, 20...photodetector, 4...signal processing unit, 41...preprocessing Section, 42...Estimation unit, 43...Learning data creation unit, 44...Learning unit, 45...Storage unit, 5...Signal processing unit, 51...Preprocessing unit, 52...Estimation unit, 53...Learning data creation unit, 54...Learning section, 55...Storage section.

Claims (4)

入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、前記輻射体で発生したチェレンコフ光を検出する受光面を有し前記受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を含むチェレンコフ検出器と、
前記光検出器から出力される信号を入力して、前記輻射体における相互作用事象毎に、前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、前記輻射体における相互作用位置を推定する推定部と、
相互作用事象毎に、前記チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を学習用データとする学習用データ作成部と、
前記学習用データ作成部により作成された前記学習用データを用いて前記ニューラルネットワークを学習させる学習部と、
を備える検出システム。
A radiator that generates Cherenkov light by interaction with incident particles, and a light receiving surface that detects the Cherenkov light generated by the radiator, and a signal indicating the detection position and detection time of the Cherenkov light on the light receiving surface. a Cerenkov detector including a photodetector that outputs;
A signal output from the photodetector is input, and for each interaction event in the radiator, the number of Cerenkov light detection events on the light receiving surface and the detection position and detection time of each Cerenkov light detection event are determined. an estimation unit that estimates an interaction position in the radiator using a neural network;
For each interaction event, a plurality of sets of less than n Cerenkov light detection events are generated from among the n number of Cerenkov light detection events by the photodetector of the Cherenkov detector, and each of the sets is included in each of the plurality of sets. a learning data creation unit that uses the detection position and the detection time of each Cerenkov light detection event as learning data;
a learning unit that causes the neural network to learn using the learning data created by the learning data creation unit;
A detection system comprising:
入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、前記輻射体で発生したチェレンコフ光を検出する受光面を有し前記受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を各々含む第1チェレンコフ検出器および第2チェレンコフ検出器と、
前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、
同時計数事象毎に、前記第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第1学習用データとし、前記第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第2学習用データとする学習用データ作成部と、
前記学習用データ作成部により作成された前記第1学習用データおよび前記第2学習用データを用いて前記ニューラルネットワークを学習させる学習部と、
を備える検出システム。
A radiator that generates Cherenkov light by interaction with incident particles, and a light receiving surface that detects the Cherenkov light generated by the radiator, and a signal indicating the detection position and detection time of the Cherenkov light on the light receiving surface. a first Cerenkov detector and a second Cerenkov detector each including a photodetector that outputs a photodetector;
The signal output from the photodetector of each of the first Cherenkov detector and the second Cherenkov detector is input, and the second Based on the number of Cherenkov light detection events on the light receiving surface of each of the first Cherenkov detector and the second Cherenkov detector, and the detection position and detection time of each Cherenkov light detection event, a photon pair generation position is determined by a neural network. an estimator that estimates;
For each coincidence event, a plurality of sets of less than n1 Cherenkov light detection events are generated from among the n1 Cherenkov light detection events by the photodetector of the first Cherenkov detector, and for each of these plurality of sets, The detection position and the detection time of each included Cherenkov light detection event are used as first learning data, and less than n2 Cherenkov light detection events are detected from among the n2 Cherenkov light detection events by the photodetector of the second Cherenkov detector. a learning data creation unit that generates a plurality of sets of detection events and uses the detection position and the detection time of each Cerenkov light detection event included in each of the plurality of sets as second learning data;
a learning unit that causes the neural network to learn using the first learning data and the second learning data created by the learning data creation unit;
A detection system comprising:
入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、前記輻射体で発生したチェレンコフ光を検出する受光面を有し前記受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を含むチェレンコフ検出器と、
前記光検出器から出力される信号を入力して、前記輻射体における相互作用事象毎に、前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、前記輻射体における相互作用位置を推定する推定部と、
を備える検出システムの前記ニューラルネットワークを学習させる方法であって、
相互作用事象毎に、前記チェレンコフ検出器の光検出器によるn個のチェレンコフ光検出事象のうちからn個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を学習用データとする学習用データ作成ステップと、
前記学習用データ作成ステップにおいて作成された前記学習用データを用いて前記ニューラルネットワークを学習させる学習ステップと、
を備える学習方法。
A radiator that generates Cherenkov light by interaction with incident particles, and a light receiving surface that detects the Cherenkov light generated by the radiator, and a signal indicating the detection position and detection time of the Cherenkov light on the light receiving surface. a Cerenkov detector including a photodetector that outputs;
A signal output from the photodetector is input, and for each interaction event in the radiator, the number of Cerenkov light detection events on the light receiving surface and the detection position and detection time of each Cerenkov light detection event are determined. an estimation unit that estimates an interaction position in the radiator using a neural network;
A method for training the neural network of a detection system comprising:
For each interaction event, a plurality of sets of less than n Cerenkov light detection events are generated from among the n number of Cerenkov light detection events by the photodetector of the Cherenkov detector, and each of the sets is included in each of the plurality of sets. a learning data creation step in which the detection position and the detection time of each Cerenkov light detection event are used as learning data;
a learning step of causing the neural network to learn using the learning data created in the learning data creation step;
A learning method that prepares you.
入射した粒子との相互作用によりチェレンコフ光を発生させる輻射体と、前記輻射体で発生したチェレンコフ光を検出する受光面を有し前記受光面上のチェレンコフ光の検出位置および検出時刻を表す信号を出力する光検出器と、を各々含む第1チェレンコフ検出器および第2チェレンコフ検出器と、
前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記光検出器から出力される信号を入力して、陽電子と電子との対消滅により発生した光子対の同時計数事象毎に、前記第1チェレンコフ検出器および前記第2チェレンコフ検出器それぞれの前記受光面におけるチェレンコフ光検出事象の数ならびに各チェレンコフ光検出事象の前記検出位置および前記検出時刻に基づいて、ニューラルネットワークにより、光子対発生位置を推定する推定部と、
を備える検出システムの前記ニューラルネットワークを学習させる方法であって、
同時計数事象毎に、前記第1チェレンコフ検出器の光検出器によるn1個のチェレンコフ光検出事象のうちからn1個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第1学習用データとし、前記第2チェレンコフ検出器の光検出器によるn2個のチェレンコフ光検出事象のうちからn2個未満のチェレンコフ光検出事象の組を複数生成して、これらの複数の組それぞれに含まれる各チェレンコフ光検出事象の前記検出位置および前記検出時刻を第2学習用データとする学習用データ作成ステップと、
前記学習用データ作成ステップにおいて作成された前記第1学習用データおよび前記第2学習用データを用いて前記ニューラルネットワークを学習させる学習ステップと、
を備える学習方法。
A radiator that generates Cherenkov light by interaction with incident particles, and a light receiving surface that detects the Cherenkov light generated by the radiator, and a signal indicating the detection position and detection time of the Cherenkov light on the light receiving surface. a first Cerenkov detector and a second Cerenkov detector each including a photodetector that outputs a photodetector;
The signal output from the photodetector of each of the first Cherenkov detector and the second Cherenkov detector is input, and the second Based on the number of Cherenkov light detection events on the light receiving surface of each of the first Cherenkov detector and the second Cherenkov detector, and the detection position and detection time of each Cherenkov light detection event, a photon pair generation position is determined by a neural network. an estimator that estimates;
A method for training the neural network of a detection system comprising:
For each coincidence event, a plurality of sets of less than n1 Cherenkov light detection events are generated from among the n1 Cherenkov light detection events by the photodetector of the first Cherenkov detector, and for each of these plurality of sets, The detection position and the detection time of each included Cherenkov light detection event are used as first learning data, and less than n2 Cherenkov light detection events are detected from among the n2 Cherenkov light detection events by the photodetector of the second Cherenkov detector. a learning data creation step of generating a plurality of sets of detection events and using the detection position and the detection time of each Cerenkov light detection event included in each of the plurality of sets as second learning data;
a learning step of causing the neural network to learn using the first learning data and the second learning data created in the learning data creation step;
A learning method that prepares you.
JP2020027273A 2020-02-20 2020-02-20 Detection system and learning method Active JP7454402B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020027273A JP7454402B2 (en) 2020-02-20 2020-02-20 Detection system and learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020027273A JP7454402B2 (en) 2020-02-20 2020-02-20 Detection system and learning method

Publications (2)

Publication Number Publication Date
JP2021131327A JP2021131327A (en) 2021-09-09
JP7454402B2 true JP7454402B2 (en) 2024-03-22

Family

ID=77550818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020027273A Active JP7454402B2 (en) 2020-02-20 2020-02-20 Detection system and learning method

Country Status (1)

Country Link
JP (1) JP7454402B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008510136A (en) 2004-08-12 2008-04-03 ナヴォテック メディカル リミテッド Location of radiation sources in the subject's body
WO2018167900A1 (en) 2017-03-16 2018-09-20 日本電気株式会社 Neural network learning device, method, and program
US20190064369A1 (en) 2017-08-30 2019-02-28 Shenzhen United Imaging Healthcare Co., Ltd. System, method, and detector module for pet imaging
JP2020020577A (en) 2018-07-30 2020-02-06 学校法人北里研究所 Cherenkov detector

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008510136A (en) 2004-08-12 2008-04-03 ナヴォテック メディカル リミテッド Location of radiation sources in the subject's body
WO2018167900A1 (en) 2017-03-16 2018-09-20 日本電気株式会社 Neural network learning device, method, and program
US20190064369A1 (en) 2017-08-30 2019-02-28 Shenzhen United Imaging Healthcare Co., Ltd. System, method, and detector module for pet imaging
JP2020020577A (en) 2018-07-30 2020-02-06 学校法人北里研究所 Cherenkov detector

Also Published As

Publication number Publication date
JP2021131327A (en) 2021-09-09

Similar Documents

Publication Publication Date Title
Müller et al. A novel DOI positioning algorithm for monolithic scintillator crystals in PET based on gradient tree boosting
Barrett et al. Maximum-likelihood methods for processing signals from gamma-ray detectors
US20190120975A1 (en) Device for counting particles for a radiation detector
US20160084703A1 (en) Detection of radiation quanta using an optical detector pixel array and pixel cell trigger state sensing circuits
WO2018090900A1 (en) Method and apparatus for measuring arrival time of high-energy photons
CN105510363A (en) Device, system and method for double-energy detection
US20200326438A1 (en) Radiation position detector and pet device
CN110664423B (en) Imaging method, imaging device, detector, terminal equipment and PET system
JP4367903B2 (en) Radiation position detector calibration method and radiation position detector
CN106461797B (en) Method for improving energy resolution of a gamma ray scintillation detector, associated system, component and application
JP7454402B2 (en) Detection system and learning method
JPH04270984A (en) Position detector
JP2020020577A (en) Cherenkov detector
CN110673194B (en) Compton scattering sequence recovery method, apparatus, device and medium
Bronstein et al. Optimal nonlinear line-of-flight estimation in positron emission tomography
CN110680368B (en) Method and device for detecting effective single event, and method and system for reading signal
WO2018079730A1 (en) Charged particle track detector
Loyd et al. Scintillator-based detectors
US10616521B2 (en) Imaging device for detecting sparse event information in a pixel array
CN209961906U (en) Concurrency detection circuit, photon detector and pulse type TOF sensor
Tsirigotis et al. Hellenic Open University Reconstruction & Simulation (HOURS) software package: User Guide & short reference of Event Generation, Cherenkov photon production and Optical Module simulation
Champley et al. Statistical LOR estimation for a high-resolution dMiCE PET detector
TW201405331A (en) System for recycling triple event data in PET and method thereof
WO2017175764A1 (en) Radiation position detector and pet device
Cates et al. Achievable position resolution of an alpha detector with continuous spatial response for use in associated particle imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7454402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150