JP2017086903A - Medical image diagnostic system, morphological image diagnostic apparatus, and nuclear medicine image diagnostic apparatus - Google Patents

Medical image diagnostic system, morphological image diagnostic apparatus, and nuclear medicine image diagnostic apparatus Download PDF

Info

Publication number
JP2017086903A
JP2017086903A JP2016213666A JP2016213666A JP2017086903A JP 2017086903 A JP2017086903 A JP 2017086903A JP 2016213666 A JP2016213666 A JP 2016213666A JP 2016213666 A JP2016213666 A JP 2016213666A JP 2017086903 A JP2017086903 A JP 2017086903A
Authority
JP
Japan
Prior art keywords
imaging
processing circuit
image
subject
image diagnostic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016213666A
Other languages
Japanese (ja)
Other versions
JP6815167B2 (en
Inventor
泰誠 山田
Yasumasa Yamada
泰誠 山田
康弘 熨斗
Yasuhiro Noshi
康弘 熨斗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Medical Systems Corp filed Critical Toshiba Medical Systems Corp
Priority to US15/341,353 priority Critical patent/US20170119322A1/en
Publication of JP2017086903A publication Critical patent/JP2017086903A/en
Application granted granted Critical
Publication of JP6815167B2 publication Critical patent/JP6815167B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a medical image diagnostic system, a morphological image diagnostic apparatus, and a nuclear medicine image diagnostic apparatus which reduce burden on an operator.SOLUTION: A medical image diagnostic system according to an embodiment is the one having a morphological image diagnostic apparatus and a nuclear medicine image diagnostic apparatus, and includes an acquisition part, a rack device, and a control device. The acquisition part acquires information on a position of a portion of a subject on the basis of a morphological image collected by the morphological image diagnostic apparatus. The rack device captures a nuclear medicine image of the subject. The control part controls the rack device on the basis of the information on the position of the portion and an imaging condition for each of a plurality of portions.SELECTED DRAWING: Figure 2

Description

本発明の実施の形態は、医用画像診断システム、形態画像診断装置及び核医学画像診断装置に関する。   Embodiments described herein relate generally to a medical image diagnostic system, a morphological image diagnostic apparatus, and a nuclear medicine image diagnostic apparatus.

近年、PET(Positron Emission Tomography)−CT(Computed Tomograph)装置など、機能画像診断装置と、形態画像診断装置とを組み合わせた装置が知られている。   2. Description of the Related Art In recent years, apparatuses that combine a functional image diagnostic apparatus and a morphological image diagnostic apparatus, such as a PET (Positron Emission Tomography) -CT (Computed Tomography) apparatus, are known.

形態画像診断装置と機能画像診断装置を組み合わせた医用画像診断システムは、例えば、形態画像診断装置においてスキャンを行って位置決めスキャン画像の生成を行い、生成された位置決めスキャン画像に基づいて、操作者が立案した撮影計画により機能画像診断装置が全身撮影を行う。   A medical image diagnostic system that combines a morphological image diagnostic apparatus and a functional image diagnostic apparatus performs, for example, scanning in a morphological image diagnostic apparatus to generate a positioning scan image, and an operator performs a scan based on the generated positioning scan image. The functional image diagnostic apparatus performs whole-body imaging according to the planned imaging plan.

しかしながら、全身撮影と特定部位の詳細撮影や、複数の部位の詳細撮影を機能画像診断装置において同時に行う場合には、操作者は位置決めスキャン画像で撮影範囲と部位を確認しながら、撮影ポジション毎に、機能画像診断装置による収集時間を入力しなければならない。そのため、操作者の負担が大きい。   However, when performing whole body imaging, detailed imaging of a specific part, and detailed imaging of a plurality of parts at the same time in the functional image diagnostic apparatus, the operator confirms the imaging range and part with a positioning scan image, and for each imaging position. The acquisition time by the functional image diagnostic apparatus must be input. Therefore, the burden on the operator is large.

特開2012−011181号公報JP 2012-011181 A

実施形態が解決しようとする課題は、操作者の負担を軽減することができる医用画像診断システム、形態画像診断装置及び核医学画像診断装置を提供することである。   The problem to be solved by the embodiment is to provide a medical image diagnostic system, a morphological image diagnostic apparatus, and a nuclear medicine image diagnostic apparatus that can reduce the burden on the operator.

実施形態に係る医用画像診断システムは、形態画像診断装置と核医学画像診断装置とを有する医用画像診断システムであり、取得部と、架台装置と、制御部とを備える。取得部は、前記形態画像診断装置が収集した形態画像に基づいて、被検体の部位の位置に係る情報を取得する。架台装置は、前記被検体の核医学画像を撮影する。制御部は、前記部位の位置に係る情報と、複数の部位毎の撮影条件とに基づいて、前記架台装置を制御する。   A medical image diagnostic system according to an embodiment is a medical image diagnostic system having a morphological image diagnostic apparatus and a nuclear medicine image diagnostic apparatus, and includes an acquisition unit, a gantry device, and a control unit. The acquisition unit acquires information related to the position of the part of the subject based on the morphological images collected by the morphological image diagnostic apparatus. The gantry device captures a nuclear medicine image of the subject. The control unit controls the gantry device based on information related to the position of the part and imaging conditions for each of the plurality of parts.

図1は、第1の実施形態に係る医用画像診断システムの全体構成を説明するための図。FIG. 1 is a diagram for explaining the overall configuration of the medical image diagnostic system according to the first embodiment. 図2は、第1の実施形態に係る医用画像診断システムの全体構成を説明するためのブロック図。FIG. 2 is a block diagram for explaining the overall configuration of the medical image diagnostic system according to the first embodiment. 図3は、第1の実施形態に係る医用画像診断システムの処理の流れを説明するためのフローチャート。FIG. 3 is a flowchart for explaining a processing flow of the medical image diagnostic system according to the first embodiment. 図4は、第1の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図。FIG. 4 is a diagram for describing setting of imaging conditions according to the medical image diagnostic system according to the first embodiment. 図5は、第2の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図(1)。FIG. 5 is a diagram (1) illustrating the setting of imaging conditions according to the medical image diagnostic system according to the second embodiment. 図6Aは、第2の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図(2)。FIG. 6A is a diagram (2) illustrating the setting of imaging conditions according to the medical image diagnostic system according to the second embodiment. 図6Bは、第2の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図(3)。FIG. 6B is a diagram (3) illustrating the setting of imaging conditions according to the medical image diagnostic system according to the second embodiment. 図6Cは、第2の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図(4)。FIG. 6C is a diagram (4) illustrating the setting of imaging conditions according to the medical image diagnostic system according to the second embodiment. 図7は、第3の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図。FIG. 7 is a view for explaining setting of imaging conditions according to the medical image diagnostic system according to the third embodiment. 図8は、第4の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図。FIG. 8 is a view for explaining setting of imaging conditions according to the medical image diagnostic system according to the fourth embodiment. 図9は、第4の実施形態に係る医用画像診断システムにおけるデータ処理について説明した図。FIG. 9 is a diagram for explaining data processing in the medical image diagnostic system according to the fourth embodiment. 図10は、第5の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図。FIG. 10 is a diagram for describing setting of imaging conditions according to the medical image diagnostic system according to the fifth embodiment. 図11は、第5の実施形態に係る医用画像診断システムにおけるデータ処理について説明した図。FIG. 11 is a diagram for explaining data processing in the medical image diagnostic system according to the fifth embodiment. 図12は、第6の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図。FIG. 12 is a diagram for describing setting of imaging conditions according to the medical image diagnostic system according to the sixth embodiment. 図13は、第7の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図。FIG. 13 is a diagram for describing setting of imaging conditions according to the medical image diagnostic system according to the seventh embodiment.

以下、添付図面を参照して、実施形態に係る医用画像診断システムについて、詳細に説明する。   Hereinafter, a medical image diagnostic system according to an embodiment will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
まず、実施形態に係る医用画像診断システムの全体構成について、図1及び図2を用いて説明する。図1及び図2は、第1の実施形態に係る医用画像診断システムの全体構成を説明するための図である。
(First embodiment)
First, the overall configuration of the medical image diagnostic system according to the embodiment will be described with reference to FIGS. 1 and 2. 1 and 2 are diagrams for explaining the overall configuration of the medical image diagnostic system according to the first embodiment.

図1に示すように、第1の実施形態に係る医用画像診断システムは、第1架台装置1と、第2架台装置2と、寝台3と、コンソール装置4とを備える。   As shown in FIG. 1, the medical image diagnostic system according to the first embodiment includes a first gantry device 1, a second gantry device 2, a bed 3, and a console device 4.

ここで、第1架台装置1は、例えば形態画像診断装置の有する架台装置であり、第2架台装置2は、例えば機能画像診断装置の有する架台装置である。形態画像診断装置の例としては、例えばX線CT(Computed Tomography)装置や、MRI(Magnetic Resonance Imaging)装置が挙げられる。また、機能画像診断装置の例としては、例えば核医学イメージング装置であるPET(Positron Emission Tomography)装置や、SPECT(Single Photon Emission Computed Tomography)装置が挙げられる。以下では、第1架台装置1が、X線CT装置における架台装置であり、第2架台装置2が、PET装置における架台装置である例について説明する。このとき、第1の実施形態に係る医用画像診断システムは、PET−CT装置となる。   Here, the first gantry device 1 is a gantry device included in the morphological image diagnostic apparatus, for example, and the second gantry device 2 is a gantry apparatus included in the functional image diagnostic device, for example. Examples of the morphological image diagnosis apparatus include an X-ray CT (Computed Tomography) apparatus and an MRI (Magnetic Resonance Imaging) apparatus. Examples of the functional image diagnostic apparatus include, for example, a PET (Positron Emission Tomography) apparatus that is a nuclear medicine imaging apparatus, and a SPECT (Single Photon Emission Computed Tomography) apparatus. Hereinafter, an example in which the first gantry device 1 is a gantry device in an X-ray CT apparatus and the second gantry device 2 is a gantry device in a PET apparatus will be described. At this time, the medical image diagnostic system according to the first embodiment is a PET-CT apparatus.

第1架台装置1は、被検体Pを透過したX線を検出することで、X線CT画像を再構成するためのX線投影データや、スキャノグラムを生成するためのX線投影データを生成する装置である。   The first gantry device 1 detects X-rays transmitted through the subject P, thereby generating X-ray projection data for reconstructing an X-ray CT image and X-ray projection data for generating a scanogram. Device.

第1架台装置1は、図2に示すX線管10、X線検出器15、データ収集部16などを有する。ここで、X線管10は、X線ビームを発生し、発生したX線ビームを被検体Pに照射する装置である。X線検出器15は、X線管に対向する位置にて、被検体Pを透過したX線を検出する。具体的には、X線検出器15は、被検体Pを透過したX線の2次元強度分布のデータ(2次元X線強度分布データ)を検出する2次元アレイ型検出器である。より具体的には、X線検出器15は、複数チャンネル分のX線検出素子を配してなる検出素子列が被検体Pの体軸方向に沿って複数列配列されている。なお、X線管10およびX線検出器15は、第1架台装置1の内部にて、図示しない回転フレームにより支持されている。   The first gantry device 1 includes the X-ray tube 10, the X-ray detector 15, the data collection unit 16, and the like illustrated in FIG. 2. Here, the X-ray tube 10 is an apparatus that generates an X-ray beam and irradiates the subject P with the generated X-ray beam. The X-ray detector 15 detects X-rays transmitted through the subject P at a position facing the X-ray tube. Specifically, the X-ray detector 15 is a two-dimensional array type detector that detects two-dimensional intensity distribution data (two-dimensional X-ray intensity distribution data) of X-rays transmitted through the subject P. More specifically, in the X-ray detector 15, a plurality of detection element arrays each including a plurality of channels of X-ray detection elements are arranged along the body axis direction of the subject P. The X-ray tube 10 and the X-ray detector 15 are supported inside the first gantry device 1 by a rotating frame (not shown).

データ収集部16は、例えばDAS(Data Acquisition System)であり、X線検出器15により検出された2次元X線強度分布データに対して、増幅処理やA/D変換処理などを行なって、X線投影データを生成する。そして、データ収集部16は、X線投影データを図1に示すコンソール装置4に送信する。なお、実施形態は、データ収集部16が、第1架台装置1に含まれる場合に限られず、コンソール装置4に含まれていてもよい。   The data collection unit 16 is a DAS (Data Acquisition System), for example, and performs an amplification process, an A / D conversion process, or the like on the two-dimensional X-ray intensity distribution data detected by the X-ray detector 15 to obtain an X Generate line projection data. Then, the data collection unit 16 transmits the X-ray projection data to the console device 4 shown in FIG. The embodiment is not limited to the case where the data collection unit 16 is included in the first gantry device 1, and may be included in the console device 4.

図1に戻り、第2架台装置2は、被検体Pに投与された陽電子放出核種を取り込んだ生体組織から放出される一対のガンマ線を検出することで、PET画像を再構成するためのガンマ線の投影データ(ガンマ線投影データ)を生成する装置である。   Returning to FIG. 1, the second gantry device 2 detects a pair of gamma rays emitted from the biological tissue that has taken in the positron emitting nuclide administered to the subject P, thereby generating a gamma ray for reconstructing the PET image. It is a device that generates projection data (gamma ray projection data).

第2架台装置は、図2に示すPET検出器20や、同時計数回路12などを有する。PET検出器20は、被検体Pから放出されるガンマ線を検出するフォトンカウンティング(photon counting)方式の検出器である。具体的には、PET検出器20は、複数のPET検出器モジュールが、被検体Pの周囲をリング状に取り囲むように配置されることで構成される。   The second gantry device includes the PET detector 20 shown in FIG. 2, the coincidence counting circuit 12, and the like. The PET detector 20 is a photon counting detector that detects gamma rays emitted from the subject P. Specifically, the PET detector 20 is configured by arranging a plurality of PET detector modules so as to surround the periphery of the subject P in a ring shape.

例えば、PET検出器モジュールは、シンチレータと、光電子増倍管(PMT:Photomultiplier Tube)と、ライトガイドとを有するアンガー型の検出器である。   For example, the PET detector module is an anger-type detector having a scintillator, a photomultiplier tube (PMT), and a light guide.

シンチレータは、被検体Pから放出されて入射したガンマ線を可視光に変換するNaI(ヨウ化ナトリウム)やBGO(ゲルマニウム酸ビスマス)などが、2次元に複数個配列されている。また、光電子増倍管は、シンチレータから出力された可視光を増倍して電気信号に変換する装置であり、ライトガイドを介して稠密に複数個配置されている。ライトガイドは、シンチレータから出力された可視光を光電子増倍管に伝達するために用いられ、光透過性に優れたプラスチック素材などからなる。   The scintillator has a plurality of two-dimensional arrays of NaI (sodium iodide), BGO (bismuth germanate), and the like that convert incident gamma rays emitted from the subject P into visible light. The photomultiplier tube is a device that multiplies visible light output from the scintillator and converts it into an electrical signal, and a plurality of photomultiplier tubes are arranged densely via a light guide. The light guide is used to transmit visible light output from the scintillator to the photomultiplier tube, and is made of a plastic material having excellent light transmittance.

なお、光電子増倍管は、シンチレーション光を受光し光電子を発生させる光電陰極、発生した光電子を加速する電場を与える多段のダイノード、および電子の流れ出し口である陽極から成っている。光電効果により光電陰極から放出された電子は、ダイノードに向って加速されてダイノードの表面に衝突し、複数の電子を叩き出す。この現象が多段のダイノードに渡って繰り返されることにより、なだれ的に電子数が増倍され、陽極での電子数は、約100万にまで達する。かかる例では、光電子増倍管の利得率は、100万倍となる。また、なだれ現象を利用した増幅のためにダイノードと陽極との間には、通常1000ボルト以上の電圧が印加される。   The photomultiplier tube includes a photocathode that receives scintillation light and generates photoelectrons, a multistage dynode that provides an electric field that accelerates the generated photoelectrons, and an anode that is an outlet for electrons. Electrons emitted from the photocathode due to the photoelectric effect are accelerated toward the dynode, collide with the surface of the dynode, and knock out a plurality of electrons. By repeating this phenomenon over multiple dynodes, the number of electrons is avalancheally increased, and the number of electrons at the anode reaches about 1 million. In such an example, the gain factor of the photomultiplier tube is 1 million times. In addition, a voltage of 1000 volts or more is usually applied between the dynode and the anode for amplification using the avalanche phenomenon.

このように、PET検出器20は、ガンマ線をシンチレータにより可視光に変換し、変換した可視光を光電子増倍管により電気信号に変換することで、被検体Pから放出されたガンマ線の数を計数する。   In this manner, the PET detector 20 counts the number of gamma rays emitted from the subject P by converting gamma rays into visible light with a scintillator and converting the converted visible light into electrical signals with a photomultiplier tube. To do.

第2架台装置2は、例えば同時計数回路12を有する。同時係数回路12は、複数のPET検出器20としてのPET検出器のモジュールそれぞれが有する複数の光電子増倍管それぞれと接続される。そして、同時計数回路12は、PET検出器20の出力結果から、陽電子から放出された一対のガンマ線の入射方向を決定するための同時計数情報を生成する。具体的には、同時計数回路12は、シンチレータから出力された可視光を同じタイミングで電気信号に変換出力した光電子増倍管の位置および電気信号の強度から重心位置を演算することで、ガンマ線の入射位置(シンチレータの位置)を決定する。また、同時計数回路12は、各光電子増倍管が出力した電気信号の強度を演算処理(積分処理および微分処理)することで、入射したガンマ線のエネルギー値を演算する。   The second gantry device 2 includes a coincidence counting circuit 12, for example. The simultaneous coefficient circuit 12 is connected to each of a plurality of photomultiplier tubes included in each module of the PET detector as the plurality of PET detectors 20. Then, the coincidence circuit 12 generates coincidence information for determining the incident direction of the pair of gamma rays emitted from the positron from the output result of the PET detector 20. Specifically, the coincidence counting circuit 12 calculates the position of the center of gravity from the position of the photomultiplier tube that outputs the visible light output from the scintillator to the electrical signal at the same timing and the intensity of the electrical signal, thereby obtaining The incident position (scintillator position) is determined. The coincidence counting circuit 12 calculates the energy value of the incident gamma rays by calculating (integrating and differentiating) the intensity of the electrical signal output from each photomultiplier tube.

そして、同時計数回路12は、PET検出器20の出力結果の中から、ガンマ線の入射タイミング(時間)が一定時間の時間ウィンドウ幅以内にあり、エネルギー値がともに一定のエネルギーウィンドウ幅にある組み合わせを検索(Coincidence Finding)する。例えば、2nsecの時間ウィンドウ幅と、350keV〜550keVのエネルギーウィンドウ幅とが、検索条件として設定される。そして、同時計数回路12は、検索した組み合わせの出力結果を、2つの消滅フォトンを同時計数した情報であるとして同時計数情報(Coincidence List)を生成する。そして、同時計数回路12は、同時計数情報をPET画像再構成用のガンマ線投影データとして図1に示すコンソール装置4に送信する。なお、2つの消滅フォトンを同時計数した2つの検出位置を結ぶ線は、LOR(Line of Response)と呼ばれる。また、同時計数情報は、コンソール装置4にて生成される場合であってもよい。   The coincidence counting circuit 12 then selects a combination in which the gamma ray incident timing (time) is within a certain time window width and the energy values are both within a certain energy window width among the output results of the PET detector 20. Search (Coincidence Finding). For example, a time window width of 2 nsec and an energy window width of 350 keV to 550 keV are set as search conditions. Then, the coincidence counting circuit 12 generates coincidence count information (Coincidence List) on the basis of the output result of the searched combination as information obtained by simultaneously counting two annihilation photons. The coincidence counting circuit 12 transmits coincidence counting information to the console device 4 shown in FIG. 1 as gamma ray projection data for PET image reconstruction. A line connecting two detection positions obtained by simultaneously counting two annihilated photons is called a LOR (Line of Response). Further, the coincidence counting information may be generated by the console device 4.

図1に戻って、寝台3は、被検体Pを載せるベッドである。寝台3は、コンソール装置4を介して受け付けた医用画像診断システムとしてのPET−CT装置の操作者からの指示に基づいて、第1架台装置1および第2架台装置2それぞれの撮影口に順次移動される。   Returning to FIG. 1, the bed 3 is a bed on which the subject P is placed. The couch 3 sequentially moves to the respective imaging openings of the first gantry device 1 and the second gantry device 2 based on an instruction from an operator of a PET-CT apparatus as a medical image diagnostic system received via the console device 4. Is done.

すなわち、医用画像診断システムとしてのPET−CT装置は、寝台3を移動させることで、最初に、第1の撮影であるX線CT画像の撮影を行ない、続いて、第2の撮影の条件を設定する。その後、設定された撮影条件に基づいて、医用画像システムは、第2の撮影でるPET画像の撮影を行なう。例えば、第1架台装置1は、本撮影において回転フレーム15を回転させながら寝台3を移動させることで、被検体Pの撮影部位をX線により螺旋状にスキャンするヘリカルスキャンを行う。コンソール装置4は、得られたデータに基づいてX線CT画像を生成する。生成されるX線CT画像は、2D画像であってもよいし3D画像であってもよい。また、第1架台装置1は、位置決め撮影において、低線量ヘリカルスキャンを行う。コンソール装置4は、得られたデータをもとに、3Dの位置決め画像であるヘリカルスキャノ画像を生成する。また、第1架台装置1は、位置決め撮像において回転フレームを固定させた状態でX線管からX線を照射しながら寝台3を移動させることで、被検体Pの全身を体軸方向に沿ってスキャンし、コンソール装置4が2Dの位置決め画像であるX線CT画像(スキャノ画像)を生成してもよい。   That is, the PET-CT apparatus as a medical image diagnostic system first takes an X-ray CT image, which is the first imaging, by moving the bed 3, and then sets the second imaging condition. Set. Thereafter, based on the set imaging conditions, the medical image system performs imaging of a PET image as the second imaging. For example, the first gantry device 1 performs a helical scan in which the imaging region of the subject P is spirally scanned with X-rays by moving the bed 3 while rotating the rotating frame 15 in the main imaging. The console device 4 generates an X-ray CT image based on the obtained data. The generated X-ray CT image may be a 2D image or a 3D image. The first gantry device 1 performs a low-dose helical scan in positioning imaging. The console apparatus 4 generates a helical scan image that is a 3D positioning image based on the obtained data. In addition, the first gantry device 1 moves the bed 3 while irradiating X-rays from the X-ray tube while fixing the rotating frame in positioning imaging, so that the whole body of the subject P is moved along the body axis direction. Scanning may be performed, and the console device 4 may generate an X-ray CT image (scan image) that is a 2D positioning image.

第2架台装置2は、被検体Pの撮影部位が第2架台装置2の撮影口内に挿入されるように寝台3を移動させることで、PET画像を生成する。   The second gantry device 2 generates a PET image by moving the bed 3 so that the imaging part of the subject P is inserted into the imaging port of the second gantry device 2.

コンソール装置4は、操作者からの指示を受け付けて医用画像診断装置における撮影処理を制御する装置である。   The console device 4 is a device that receives an instruction from an operator and controls imaging processing in the medical image diagnostic apparatus.

図2に示すように、コンソール装置4は、例えば、記憶回路30と、処理回路5とを有する。処理回路5は、例えば、画像生成機能31と、設定機能32と、特定機能33と、制御機能34と、受付機能35と、入力装置36と、ディスプレイ37とを有する。画像生成機能31の例としては、例えば、第1生成機能11、第2生成機能12がある。   As shown in FIG. 2, the console device 4 includes, for example, a storage circuit 30 and a processing circuit 5. The processing circuit 5 includes, for example, an image generation function 31, a setting function 32, a specific function 33, a control function 34, a reception function 35, an input device 36, and a display 37. Examples of the image generation function 31 include a first generation function 11 and a second generation function 12.

ここで、図2に示す設定機能32、特定機能33、受付機能35、第1生成機能11、第2生成機能12、画像生成機能31は、それぞれ設定部、特定部、受付部、第1生成部、第2生成部、画像生成部とも呼ばれる。   Here, the setting function 32, the specific function 33, the reception function 35, the first generation function 11, the second generation function 12, and the image generation function 31 shown in FIG. 2 are respectively a setting unit, a specific unit, a reception unit, and a first generation. Part, second generation unit, and image generation unit.

図2における実施形態では、画像生成機能31(第1生成機能11、第2生成機能12)、設定機能32、特定機能33、制御機能34、受付機能35にて行われる各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路30へ記憶されている。処理回路5はプログラムを記憶回路30から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読みだした状態の処理回路5は、図2の処理回路5内に示された各機能を有することになる。なお、図2においては単一の処理回路5にて、画像生成機能31(第1生成機能11、第2生成機能12)、設定機能32、特定機能33、制御機能34、受付部35にて行われる処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路5を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。   In the embodiment in FIG. 2, each processing function performed by the image generation function 31 (first generation function 11, second generation function 12), setting function 32, specific function 33, control function 34, and reception function 35 is a computer. Is stored in the storage circuit 30 in the form of an executable program. The processing circuit 5 is a processor that realizes a function corresponding to each program by reading the program from the storage circuit 30 and executing the program. In other words, the processing circuit 5 in a state where each program is read has the functions shown in the processing circuit 5 of FIG. In FIG. 2, a single processing circuit 5 uses an image generation function 31 (first generation function 11, second generation function 12), a setting function 32, a specific function 33, a control function 34, and a reception unit 35. Although the processing function to be performed has been described as being realized, the processing circuit 5 may be configured by combining a plurality of independent processors, and the function may be realized by each processor executing a program.

換言すると、上述のそれぞれの機能がプログラムとして構成され、1つの処理回路が各プログラムを実行する場合であってもよいし、特定の機能が専用の独立したプログラム実行回路に実装される場合であってもよい。   In other words, each function described above may be configured as a program, and one processing circuit may execute each program, or a specific function may be implemented in a dedicated independent program execution circuit. May be.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(central processing unit)、GPU(Graphical processing unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD),複合プログラマブル論理デバイス(Complex Programmable Logic Device),及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路30に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路30にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。   The term “processor” used in the above description refers to, for example, a CPU (central processing unit), a GPU (Graphical processing unit), an application specific integrated circuit (ASIC), a programmable logic device (for example), or the like. It means a circuit such as a simple programmable logic device (SPLD), a complex programmable logic device (Complex Programmable Logic Device), and a field programmable gate array (FPGA). That. The processor implements a function by reading and executing a program stored in the storage circuit 30. Instead of storing the program in the storage circuit 30, the program may be directly incorporated into the processor circuit. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit.

更に、記憶回路30は、第1架台装置1から送信されたX線投影データを記憶する。具体的には、記憶回路30は、第1生成機能11により、スキャノグラムを生成するためのX線投影データや、X線CT画像を再構成するためのX線投影データを記憶する。   Furthermore, the storage circuit 30 stores the X-ray projection data transmitted from the first gantry device 1. Specifically, the storage circuit 30 stores X-ray projection data for generating a scanogram and X-ray projection data for reconstructing an X-ray CT image by the first generation function 11.

処理回路5は、画像生成機能31により、記憶回路30が記憶するスキャノグラムを生成するためのX線投影データから、スキャノグラムを生成する。処理回路5は、第1生成機能11により、記憶回路30が記憶する再構成用のX線投影データを、例えば、FBP(Filtered Back Projection)法により逆投影処理することで、X線CT画像を再構成する。   The processing circuit 5 generates a scanogram from the X-ray projection data for generating the scanogram stored in the storage circuit 30 by the image generation function 31. The processing circuit 5 uses the first generation function 11 to back-project the reconstruction X-ray projection data stored in the storage circuit 30 by, for example, the FBP (Filtered Back Projection) method, thereby converting the X-ray CT image. Reconfigure.

すなわち、処理回路5は、第1生成機能11により、PET−CT装置を用いた全身検査において撮影計画を立案するためのスキャノグラムを生成して形態画像を生成する。そして、処理回路5は、第1生成機能11により、PET−CT装置を用いた全身検査において、撮影計画により決定された撮影条件(例えば、スライス幅など)に基づいて、X線投影データから、被検体Pの体軸方向に直交する複数の断面を撮影した複数のX線CT画像を再構成する。   That is, the processing circuit 5 generates a morphological image by using the first generation function 11 to generate a scanogram for making an imaging plan in the whole body examination using the PET-CT apparatus. Then, the processing circuit 5 uses the first generation function 11 to calculate from the X-ray projection data based on the imaging conditions (for example, slice width) determined by the imaging plan in the whole body examination using the PET-CT apparatus. A plurality of X-ray CT images obtained by photographing a plurality of cross sections orthogonal to the body axis direction of the subject P are reconstructed.

例えば、処理回路5は、第1生成機能11により、記憶回路30に記憶された投影データに基づいてボリュームデータ又は2次元の断層画像データを再構成する。ボリュームデータと2次元の断層画像データとを「画像」と総称する。画像データや操作画面を表示するために、図示しない表示部がコンソール装置4に設けられる。また、処理回路5は、受付機能35により、操作者の指示を、入力装置36を通じて受け付ける。入力装置36は、例えば、キーボード、マウス等から構成される。   For example, the processing circuit 5 uses the first generation function 11 to reconstruct volume data or two-dimensional tomographic image data based on the projection data stored in the storage circuit 30. Volume data and two-dimensional tomographic image data are collectively referred to as “image”. In order to display image data and an operation screen, a display unit (not shown) is provided in the console device 4. Further, the processing circuit 5 receives an operator's instruction through the input device 36 by the reception function 35. The input device 36 is composed of, for example, a keyboard and a mouse.

処理回路5は、特定機能33に含まれるアナトミカルランドマーク検出機能により、被検体に対してX線CTヘリカルスキャンを行って得られた形態画像(ヘリカルスキャノ画像)より、パターン認識等の画像処理によりその形態的特徴等に基づいて複数の解剖学的特徴点を抽出する。各解剖学的特徴点の位置データと、それぞれの解剖学的特徴の識別コードとは、記憶回路30に保持される。また、処理回路5は、特定機能33に含まれるアナトミカルランドマーク検出機能により、本撮影によって取得された画像データから、パターン認識等の画像処理により、形態的特徴等に基づいて複数の解剖学的特徴点を抽出することも可能である。   The processing circuit 5 performs image processing such as pattern recognition from a morphological image (helical scan image) obtained by performing an X-ray CT helical scan on the subject by the anatomical landmark detection function included in the specifying function 33. Thus, a plurality of anatomical feature points are extracted based on the morphological features and the like. The position data of each anatomical feature point and the identification code of each anatomical feature are held in the storage circuit 30. In addition, the processing circuit 5 uses the anatomical landmark detection function included in the specifying function 33 to perform image processing such as pattern recognition on the basis of anatomical features from image data acquired by actual imaging. It is also possible to extract feature points.

すなわち、処理回路5は、特定機能33により、形態画像から、被検体Pの特徴点の位置を特定し、特定した特徴点の位置に基づいて、被検体Pの部位を特定する。また、処理回路5は、位置決め撮影の際だけでなく、本撮影時においても、特定機能33により、形態画像から、被検体Pの特徴点の位置を特定し、特定した特徴点の位置に基づいて、被検体Pの部位を特定してもよい。   That is, the processing circuit 5 uses the specifying function 33 to specify the position of the feature point of the subject P from the morphological image, and specifies the site of the subject P based on the specified position of the feature point. Further, the processing circuit 5 specifies the position of the feature point of the subject P from the morphological image by the specifying function 33 not only in the positioning shooting but also in the main shooting, and based on the position of the specified feature point. Thus, the site of the subject P may be specified.

なお、処理回路5が、特定機能33により、被検体Pの部位を特定する方法は、上述のように、アナトミカルランドマーク検出機能により特定された特徴点の位置に基づいて特定する方法に限られず、例えば処理回路5は、アナトミカルランドマーク検出以外の部位認識の方法を用いて、上述の被検体Pの部位を特定してもよい。   Note that the method of specifying the part of the subject P by the processing circuit 5 using the specifying function 33 is not limited to the method of specifying based on the position of the feature point specified by the anatomical landmark detection function as described above. For example, the processing circuit 5 may specify the region of the above-described subject P by using a region recognition method other than the anatomical landmark detection.

また、処理回路5は、受付機能35により、図示しない入出力装置から操作者の指示を受け付けてもよい。例えば、処理回路5は、受付機能35により、第2架台装置2が行う第2の撮影において、被検体の部位に応じた撮影条件(部位ごとの撮影条件)の入力を、図示しない入出力装置から受け付ける。処理回路5は、例えば、設定機能32により、特定機能33により特定した被検体の部位に対して、第2の撮影の、部位に応じた撮影条件を設定する。例えば、処理回路5は、設定機能33により、受付機能35により受け付けた撮影条件の入力に基づいて、第2の撮影の、部位に応じた撮影条件を設定する。   Further, the processing circuit 5 may receive an operator's instruction from an input / output device (not shown) by the reception function 35. For example, in the second imaging performed by the second gantry device 2 by the reception function 35, the processing circuit 5 inputs an imaging condition (imaging condition for each part) according to the part of the subject to be input / output device (not shown). Accept from. For example, the processing circuit 5 sets the imaging conditions corresponding to the part of the second imaging for the part of the subject specified by the specifying function 33 by the setting function 32. For example, the processing circuit 5 uses the setting function 33 to set the imaging condition corresponding to the part of the second imaging based on the input of the imaging condition received by the reception function 35.

処理回路5は、制御機能34により、医用画像診断装置全体の処理を制御する。具体的には、処理回路5は、制御機能34により、第1架台装置1および第2架台装置2を制御することで、医用画像診断装置による撮影を制御する。また、処理回路5は、制御機能34により、記憶回路30が記憶するデータを用いて第2生成機能12の実行を制御する。また、処理回路5は、制御機能34により、記憶回路30が記憶するデータを用いたスキャノグラム生成機能および第2生成機能12の実行を制御する。また、処理回路5は、制御機能34により、図示しない入出力装置にて、操作者が指示を入力するためのGUI(Graphical User Interface)や、スキャノグラム、X線CT画像およびPET画像を表示するように制御する。また、処理回路5は、制御機能34により、処理回路5が設定機能32により設定した撮影条件に従って第2架台装置2が第2の撮影に基づいて機能画像を生成する処理を制御する。   The processing circuit 5 controls processing of the entire medical image diagnostic apparatus by the control function 34. Specifically, the processing circuit 5 controls imaging by the medical image diagnostic apparatus by controlling the first gantry device 1 and the second gantry device 2 by the control function 34. Further, the processing circuit 5 controls the execution of the second generation function 12 by using the data stored in the storage circuit 30 by the control function 34. Further, the processing circuit 5 controls the execution of the scanogram generation function and the second generation function 12 using the data stored in the storage circuit 30 by the control function 34. Further, the processing circuit 5 causes the control function 34 to display a GUI (Graphical User Interface) for an operator to input an instruction, a scanogram, an X-ray CT image, and a PET image with an input / output device (not shown). To control. Further, the processing circuit 5 controls the processing by which the second gantry device 2 generates a functional image based on the second imaging according to the imaging condition set by the processing circuit 5 by the setting function 32 by the control function 34.

また、記憶回路30は、第1架台装置1から送信された投影データを記憶するのみでなく、第2架台装置2に含まれる同時計数回路から送信されたガンマ線投影データも記憶する。このとき、処理回路5は、第2生成機能12により、記憶回路30が記憶するガンマ線投影データから逐次近似法によりPET画像を再構成する。   The storage circuit 30 stores not only the projection data transmitted from the first gantry device 1 but also the gamma ray projection data transmitted from the coincidence circuit included in the second gantry device 2. At this time, the processing circuit 5 reconstructs the PET image by the successive approximation method from the gamma ray projection data stored in the storage circuit 30 by the second generation function 12.

以下、第2生成機能12により実行される逐次近似法について説明する。逐次近似法としては、MLEM(Maximum Likelihood Expectation Maximization)法や、MLEM法のアルゴリズムを改良することで大幅に収束時間を短縮したOSEM(Ordered Subset MLEM)法がある。   Hereinafter, the successive approximation method executed by the second generation function 12 will be described. As the successive approximation method, there are an MLEM (Maximum Likelihood Expectation Maximization) method and an OSEM (Ordered Subset MLEM) method in which the convergence time is significantly shortened by improving the algorithm of the MLEM method.

MLEM法においては、実際に収集されたガンマ線投影データからPET画像が、例えば、FBP法などの逆投影処理により初期画像として再構成される。そして、初期画像を投影処理することで、第1イタレーションの推定投影データが生成され、第1イタレーションの推定投影データを逆投影処理することで第1イタレーションの再構成画像が再構成される。そして、第1イタレーションの再構成画像を投影処理することで、第2イタレーションの推定投影データが生成され、第2イタレーションの推定投影データを逆投影処理することで第2イタレーションの再構成画像が再構成される。かかる処理が、逐次近似の繰り返し演算数分繰り返される。なお、以下では、繰り返し演算数をイタレーション(Iteration)数と記載する。   In the MLEM method, a PET image is reconstructed from an actually collected gamma ray projection data as an initial image by back projection processing such as the FBP method. The estimated projection data of the first iteration is generated by projecting the initial image, and the reconstructed image of the first iteration is reconstructed by backprojecting the estimated projection data of the first iteration. The Then, the reconstructed image of the first iteration is projected to generate estimated projection data of the second iteration, and the estimated projection data of the second iteration is back-projected to regenerate the second iteration. The composition image is reconstructed. Such processing is repeated for the number of iterations of successive approximation. In the following, the number of repeated operations is referred to as an iteration number.

これにより、実際に収集された投影データとの比率が略「1」に収束した推定投影データが生成される。収束した推定投影データを逆投影処理した再構成画像は、確率論的に最も確からしい陽電子放出核種の集積分布を表すPET画像となる。   As a result, estimated projection data in which the ratio with the actually collected projection data is converged to approximately “1” is generated. A reconstructed image obtained by back-projecting the converged estimated projection data is a PET image representing the most probabilistic most probable positron emission nuclide accumulation distribution.

また、OSEM法は、ガンマ線投影データを、いくつかの部分集合(サブセット)に分割し、サブセットごとに上記した逐次近似を行なうことで、画像を修正する方法である。すなわち、分割数(サブセット数)が「1」であるOSEM法は、MLEM法となる。   The OSEM method is a method of correcting an image by dividing gamma ray projection data into several subsets and performing the above-described successive approximation for each subset. That is, the OSEM method in which the division number (subset number) is “1” is the MLEM method.

ここで、第2生成機能12における総演算数は、MLEM法を実行する場合、イタレーション数に依存する。また、第2生成機能12における総演算数は、OSEM法を実行する場合、サブセット数にイタレーション数を乗算した数に依存する。   Here, the total number of operations in the second generation function 12 depends on the number of iterations when the MLEM method is executed. The total number of operations in the second generation function 12 depends on the number obtained by multiplying the number of subsets by the number of iterations when executing the OSEM method.

なお、以下では、処理回路5が、第2生成機能12において、OSEM法によりPET画像を再構成する場合について説明する。ただし、実施形態は、処理回路5が、第2生成機能12において、MLEM法によりPET画像を再構成する場合であっても適用可能である。   Hereinafter, a case where the processing circuit 5 reconstructs a PET image by the OSEM method in the second generation function 12 will be described. However, the embodiment is applicable even when the processing circuit 5 reconstructs a PET image by the MLEM method in the second generation function 12.

第1の実施形態に係る医用画像診断システムに係るコンソール装置4の有する処理回路5は、第1生成機能11と、特定機能33と、設定機能22と、第2生成機能12とを備える。処理回路5は、第1生成機能11により、被検体に対する第1の撮影に基づいて形態画像を生成する。処理回路5は、特定機能33により、形態画像から、被検体の特徴点の位置を特定し、特定した特徴点の位置に基づいて、被検体の部位を特定する。処理回路5は、設定機能22により、特定機能33が特定した部位に対して、第2の撮影の、部位に応じた撮影条件(複数の部位毎の撮影条件)を設定する。処理回路5は、第2生成機能により、部位に応じた撮影条件に従って行われた第2の撮影に基づいて機能画像(核医学画像)を生成する。   The processing circuit 5 included in the console device 4 according to the medical image diagnostic system according to the first embodiment includes a first generation function 11, a specifying function 33, a setting function 22, and a second generation function 12. The processing circuit 5 uses the first generation function 11 to generate a morphological image based on the first imaging for the subject. The processing circuit 5 specifies the position of the feature point of the subject from the morphological image by the specifying function 33, and specifies the site of the subject based on the specified position of the feature point. The processing circuit 5 sets the imaging condition (imaging condition for each of a plurality of parts) of the second imaging for the part specified by the specifying function 33 by the setting function 22. The processing circuit 5 generates a functional image (nuclear medicine image) based on the second imaging performed in accordance with the imaging condition corresponding to the region by the second generation function.

換言すると、第1の実施形態に係る医用画像診断システムは、例えば、形態画像診断装置(例えば第1架台装置1)と核医学画像診断装置(例えば、第2架台装置)とを有する医用画像診断システムである。当該医用画像診断システムは、処理回路5と架台装置(例えば第2架台装置2)とを有する。処理回路5は、図示しない取得部により、形態画像診断装置が収集した形態画像に基づいて、被検体Pの部位に係る情報を取得する。架台装置は、被検体の核医学画像を撮影する。処理回路5は、取得した被検体Pの部位に関する情報と、複数の部位毎の撮影条件とに基づいて、架台装置を制御する。   In other words, the medical image diagnosis system according to the first embodiment includes, for example, a medical image diagnosis including a morphological image diagnosis apparatus (for example, the first gantry apparatus 1) and a nuclear medicine image diagnosis apparatus (for example, the second gantry apparatus). System. The medical image diagnostic system includes a processing circuit 5 and a gantry device (for example, the second gantry device 2). The processing circuit 5 acquires information related to the part of the subject P based on the morphological image collected by the morphological image diagnostic apparatus by an acquisition unit (not shown). The gantry device captures a nuclear medicine image of the subject. The processing circuit 5 controls the gantry device based on the acquired information related to the part of the subject P and the imaging conditions for each of the plurality of parts.

さらに、処理回路5は、受付機能35を更に備えても良い。かかる場合、処理回路5は、受付機能35により、部位に応じた撮影条件の入力を受け付ける。また、処理回路5は、設定機能22により、受付機能35により受け付けた撮影条件の入力に基づいて、第2の撮影の、部位に応じた撮影条件を設定する。   Further, the processing circuit 5 may further include a reception function 35. In such a case, the processing circuit 5 receives an input of imaging conditions corresponding to the part by the reception function 35. Further, the processing circuit 5 sets the imaging condition corresponding to the part of the second imaging based on the input of the imaging condition received by the reception function 35 by the setting function 22.

これらの点について、図3及び図4を用いて説明する。図3は、第1の実施形態に係る医用画像診断システムの処理の流れを説明するためのフローチャートである。処理回路5は、記憶回路30から、各種機能に対応する所定のプログラムを呼び出し実行することにより、各種機能を実現する。また、図4は、第1の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図である。以下、図3のフローチャートの各ステップについて、適宜図4を参照しながら説明する。   These points will be described with reference to FIGS. FIG. 3 is a flowchart for explaining the flow of processing of the medical image diagnostic system according to the first embodiment. The processing circuit 5 implements various functions by calling and executing predetermined programs corresponding to the various functions from the storage circuit 30. FIG. 4 is a diagram illustrating setting of imaging conditions according to the medical image diagnostic system according to the first embodiment. Hereinafter, each step of the flowchart of FIG. 3 will be described with reference to FIG. 4 as appropriate.

処理回路5は、受付機能35により、第2の撮影における、被検体の部位に応じた撮影条件(複数の部位毎の撮影条件)の入力を受け付ける。ここで、第2の撮影とは、例えば第2架台装置2を用いたPET撮影である。処理回路5は、受付機能35により、操作者から、パラメータ設定の入力を受け付ける(ステップS101)。ここで言うパラメータとは、例えば、特定部位とその収集時間および全身撮影(より具体的には、特定部位以外の部位の撮影)の収集時間の設定である。すなわち、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件(複数の部位毎の撮影条件)として、撮影範囲における撮影時間又は撮影速度の入力を受け付ける。処理回路5は、受付機能35により、操作者から、例えば、部位「頭部」に対して、部位に応じた撮影条件として、収集時間「1ポジションあたり5分」の入力を受け付ける。また、処理回路5は、受付機能35により、部位「全身(頭部以外の部位)」に対して、部位に応じた撮影条件として、収集時間「1ポジションあたり2分」の入力を受け付ける。ここで「1ポジション」とは、例えば、第2の撮影においてPET装置を用いて、ステップ・アンド・シュート方式で撮影を行う場合において、1回のステップにおいて撮影を行う範囲のことを言う。   The processing circuit 5 receives an input of imaging conditions (imaging conditions for each of a plurality of parts) according to the part of the subject in the second imaging by the reception function 35. Here, the second imaging is, for example, PET imaging using the second gantry device 2. The processing circuit 5 receives an input of parameter setting from the operator by the reception function 35 (step S101). The parameters referred to here are, for example, settings of a specific part, its collection time, and collection time for whole body imaging (more specifically, imaging of parts other than the specific part). That is, the processing circuit 5 receives an input of an imaging time or an imaging speed in the imaging range as an imaging condition (imaging condition for each of a plurality of parts) according to the part of the subject by the reception function 35. The processing circuit 5 accepts an input of the collection time “5 minutes per position” from the operator as an imaging condition corresponding to the part, for example, for the part “head” by the accepting function 35. Further, the processing circuit 5 accepts an input of the collection time “2 minutes per position” as an imaging condition corresponding to the part “whole body (part other than the head)” by the reception function 35. Here, “one position” refers to a range in which imaging is performed in one step, for example, in the case where imaging is performed by the step-and-shoot method using a PET apparatus in the second imaging.

また、別の例として、処理回路5は、受付機能35により、操作者から、1ポジション当たりの収集時間ではなく、所定の部位の全体を撮影するのに要する収集時間の入力を受け付けても良い。例えば、処理回路5は、受付機能35により、部位「頭部」に対して、部位に応じた撮影条件として、収集時間「全部で15分」の入力を受け付け、部位「全身(頭部部位以外の部位)」に対して、部位に応じた撮影条件として、収集時間「全部で20分」の入力を受け付けてもよい。   As another example, the processing circuit 5 may receive an input of the collection time required for imaging the entire predetermined part, instead of the collection time per position, from the operator by the reception function 35. . For example, the processing circuit 5 accepts an input of the collection time “15 minutes in total” as an imaging condition corresponding to the part to the part “head” by the reception function 35, and the part “whole body (other than the head part) ) ”May be received as an imaging condition corresponding to the part.

第1架台装置1は、処理回路5が受付機能35により操作者からパラメータ設定の入力を受け付けると、第1の撮影を行う(ステップS102)。ここで、第1の撮影とは、例えばX線CT装置を用いたX線CT撮影である。例えば、第1架台装置1は、低線量ヘリカルスキャンによりX線CT撮影を実施する。   When the processing circuit 5 receives an input of parameter setting from the operator by the reception function 35, the first gantry device 1 performs first imaging (step S102). Here, the first imaging is X-ray CT imaging using, for example, an X-ray CT apparatus. For example, the first gantry device 1 performs X-ray CT imaging by low-dose helical scan.

処理回路5は、第1生成機能11により、被検体に対する第1の撮影に基づいて形態画像を生成する。   The processing circuit 5 uses the first generation function 11 to generate a morphological image based on the first imaging for the subject.

処理回路5は、特定機能33により、生成した形態画像から、被検体の特徴点の位置を特定する。すなわち、処理回路5は、所定の部位を抽出する(ステップS103)。例えば、処理回路5を構成する処理ソフトウェアは、撮影した低線量ヘリカルスキャン画像から所定部位を自動で抽出する。   The processing circuit 5 uses the specifying function 33 to specify the position of the feature point of the subject from the generated morphological image. That is, the processing circuit 5 extracts a predetermined part (step S103). For example, the processing software constituting the processing circuit 5 automatically extracts a predetermined part from the photographed low-dose helical scan image.

続いて、処理回路5は、特定機能33により、特定した特徴点の位置に基づいて、被検体の所定の部位を特定する。または、処理回路5は、特定機能33により、特定した特徴点の位置に基づいて、被検体の複数の部位を特定する。すなわち、処理回路5は、特定機能33により、所定の部位(又は複数の部位)の位置を特定する(ステップS104)。   Subsequently, the processing circuit 5 uses the specifying function 33 to specify a predetermined part of the subject based on the position of the specified feature point. Alternatively, the processing circuit 5 uses the specifying function 33 to specify a plurality of parts of the subject based on the position of the specified feature point. That is, the processing circuit 5 specifies the position of a predetermined part (or a plurality of parts) by the specifying function 33 (step S104).

図4に、このようにして処理回路5の特定機能33により特定された部位が、第2の撮影の撮影範囲に重ね合わされて表示されている。この例では、処理回路5は、特定機能33により、部位「頭部50A」を、撮影範囲54Aとして特定する。処理回路5は、特定機能33により、部位「全身(頭部以外の部位)」を、撮影範囲54Bとして特定する。   In FIG. 4, the part specified by the specifying function 33 of the processing circuit 5 in this way is displayed superimposed on the imaging range of the second imaging. In this example, the processing circuit 5 uses the specifying function 33 to specify the region “head 50A” as the imaging range 54A. The processing circuit 5 identifies the region “whole body (region other than the head)” as the imaging range 54B by the identifying function 33.

処理回路5は、設定機能32により、特定機能33により特定した部位に対して、第2の撮影の、部位に応じた撮影条件を設定する。または、処理回路5は、設定機能32により、特定した複数の部位それぞれに対して、第2の撮影の、複数の部位それぞれに応じた撮影条件を設定する。例えば、処理回路5は、設定機能32により、受付機能35により受け付けた撮影条件の入力に基づいて、第2の撮影の、部位に応じた撮影条件を設定する(ステップS105)。例えば、処理回路5は、設定機能32により、収集時間(撮影時間又は撮影速度)の設定を行う。   The processing circuit 5 uses the setting function 32 to set the imaging conditions corresponding to the part of the second imaging for the part specified by the specifying function 33. Alternatively, the processing circuit 5 uses the setting function 32 to set imaging conditions corresponding to each of the plurality of parts for the second imaging for each of the specified parts. For example, the processing circuit 5 uses the setting function 32 to set the imaging condition corresponding to the part of the second imaging based on the input of the imaging condition received by the reception function 35 (step S105). For example, the processing circuit 5 sets the collection time (shooting time or shooting speed) by the setting function 32.

例えば、処理回路5は、設定機能32により、部位「頭部」として特定された撮影範囲54Aに対して、部位に応じた撮影条件「1ポジションあたり5分」を設定する。また、処理回路5は、設定機能32により、部位「全身(頭部以外の部位)」として特定された撮影範囲54Bに対して、部位に応じた撮影条件「1ポジションあたり2分」を設定する。   For example, the processing circuit 5 sets the imaging condition “5 minutes per position” corresponding to the part to the imaging range 54 </ b> A specified as the part “head” by the setting function 32. Further, the processing circuit 5 sets the imaging condition “2 minutes per position” corresponding to the part to the imaging range 54B specified as the part “whole body (part other than the head)” by the setting function 32. .

また、処理回路5は、設定機能32により、1ポジション当たりの収集時間ではなく、所定の部位の全体を撮影するのに要する収集時間の設定をしても良い。例えば、処理回路5は、設定機能32により、部位「頭部」として特定された撮影範囲54Aに対して、部位に応じた撮影条件「全部で15分」にし、部位「全身(頭部以外の部位)」として特定された撮影範囲54Bに対して、部位に応じた撮影条件「全部で20分」を設定してもよい。   In addition, the processing circuit 5 may set the collection time required for imaging the entire predetermined portion, not the collection time per position, by the setting function 32. For example, the processing circuit 5 sets the imaging condition “total 15 minutes” corresponding to the part to the imaging range 54A specified as the part “head” by the setting function 32, and sets the part “whole body (other than the head). The imaging condition “20 minutes in total” may be set for the imaging range 54B specified as “part)”.

また、処理回路5は、設定機能32により、必要に応じてその他のパラメータの設定を行う。   Further, the processing circuit 5 sets other parameters as required by the setting function 32.

なお、領域51、52それぞれは、第2の撮影における部位「頭部」の撮影における1ポジション目、2ポジション目の撮影領域を示す。このように、第2架台装置2は、ポジションごとに、撮影場所をオーバーラップされながら、第2の撮影を行う。   Each of the areas 51 and 52 indicates a first position imaging area and a second position imaging area in the imaging of the part “head” in the second imaging. As described above, the second gantry device 2 performs the second imaging while overlapping the imaging locations for each position.

処理回路5は、収集時間及びその他のパラメータなど撮影条件の設定を行うと、設定した撮影条件などを、ディスプレイ等の表示装置に表示する(ステップS106)。例えば、処理回路5は、ディスプレイに、部位「頭部」に対して、撮影条件「1ポジションあたり5分」が設定されており、部位「全身(頭部以外の部位)」に対して、撮影範囲「1ポジションあたり2分」が設定されている旨のメッセージを表示する。また、例えば、処理回路5は、ディスプレイに、第1の撮影により生成された形態画像に、部位「頭部」として特定された撮影範囲54A及び部位「全身(頭部以外の部位)」として特定された撮影範囲54Bを、重ね合わせて表示する。更に、処理回路5は、ディスプレイに、それらの形態画像に、部位「頭部」に対して、撮影条件「1ポジションあたり5分」が設定されており、部位「全身(頭部以外の部位)」に対して、撮影範囲「1ポジションあたり2分」が設定されている旨のメッセージを併せて表示する。   When the processing circuit 5 sets the shooting conditions such as the acquisition time and other parameters, the processing circuit 5 displays the set shooting conditions and the like on a display device such as a display (step S106). For example, the processing circuit 5 has the imaging condition “5 minutes per position” set for the part “head” on the display, and the part “whole body (part other than the head)” is imaged. A message indicating that the range “2 minutes per position” is set is displayed. Further, for example, the processing circuit 5 specifies, on the morphological image generated by the first imaging on the display, the imaging range 54A specified as the part “head” and the part “whole body (part other than the head)”. The captured imaging range 54B is displayed in an overlapping manner. Further, the processing circuit 5 has the imaging condition “5 minutes per position” for the part “head” in the morphological image on the display, and the part “whole body (part other than the head)” ”Is also displayed together with a message indicating that the photographing range“ 2 minutes per position ”is set.

処理回路5は、入力装置36を通じて、操作者からの入力を受け付ける。操作者からの入力に基づいて、処理回路5は、受付機能35により、撮影条件を承認する入力を受け付けたか否かを判断する(ステップS107)。操作者が撮影条件を承認しない場合、処理回路5は、受付機能35により、撮影条件を承認する入力を受け付けていないと判断し、(ステップS107 No)、ステップS101と同様な処理を繰り返し、操作者からパラメータ設定の再入力を受け付ける。その後、操作者から再入力されたパラメータに基づいて、処理回路5は、ステップS105に戻り、設定機能32により、撮影条件の設定を再び行う。   The processing circuit 5 receives an input from the operator through the input device 36. Based on the input from the operator, the processing circuit 5 determines whether or not an input for approving the photographing condition has been received by the reception function 35 (step S107). If the operator does not approve the shooting condition, the processing circuit 5 determines that the input for approving the shooting condition is not received by the reception function 35 (No in step S107), and repeats the same processing as in step S101 to perform the operation. Accepts re-input of parameter settings from the user. After that, based on the parameters re-input by the operator, the processing circuit 5 returns to step S105 and sets the shooting conditions again by the setting function 32.

操作者が撮影条件を承認する場合、処理回路5は、受付機能35により、撮影条件を承認する入力を受け付けたと判断し(ステップS107 Yes)、第2架台装置2は、処理回路5が設定機能32により設定した部位に応じた撮影条件に従って、機能画像を生成するための第2の撮影を行う。又は、第2架台装置2は、処理回路5が設定機能32により設定した複数の部位それぞれに応じた撮影条件に従って、機能画像を生成するための第2の撮影を行う(ステップS108)。   When the operator approves the imaging condition, the processing circuit 5 determines that the input for approving the imaging condition is received by the reception function 35 (Yes in step S107), and the processing function of the second gantry device 2 is set by the processing circuit 5 The second imaging for generating the functional image is performed in accordance with the imaging condition corresponding to the region set by 32. Alternatively, the second gantry device 2 performs second imaging for generating a functional image in accordance with imaging conditions corresponding to each of the plurality of parts set by the processing function 5 using the setting function 32 (step S108).

第2の撮影が終了すると、処理回路5は、第2生成機能12により、部位に応じた撮影条件に従って行われた第2の撮影に基づいて機能画像を生成し(ステップS109)、又は複数の部位それぞれに応じた撮影条件に従って行われた第2の撮影に基づいて機能画像を生成し、処理は終了する。   When the second imaging is completed, the processing circuit 5 generates a functional image based on the second imaging performed in accordance with the imaging condition corresponding to the part by the second generation function 12 (step S109), or a plurality of functions A functional image is generated based on the second imaging performed according to the imaging condition corresponding to each part, and the process ends.

このように、第1の実施形態では、処理回路5は、特定機能33により、形態画像から、被検体の特徴点の位置を特定し、特定した特徴点の位置に基づいて、被検体の部位を特定する。また、処理回路5は、設定機能32により、特定した部位に対して、第2の撮影の、部位に応じた撮影条件を設定する。また、処理回路5は、第2生成機能12により、部位に応じた撮影条件に従って行われた第2の撮影に基づいて機能画像を生成する。特に、部位に応じた撮影条件として、撮影時間または撮影速度の入力を受け付ける。   As described above, in the first embodiment, the processing circuit 5 uses the specifying function 33 to specify the position of the feature point of the subject from the morphological image, and based on the position of the specified feature point, the part of the subject Is identified. Further, the processing circuit 5 sets the imaging condition corresponding to the part of the second imaging for the specified part by the setting function 32. In addition, the processing circuit 5 generates a functional image based on the second imaging performed according to the imaging condition corresponding to the part by the second generation function 12. In particular, an input of an imaging time or an imaging speed is accepted as an imaging condition corresponding to the part.

これにより、第1の実施形態に係る医用画像診断システムによれば、操作者の負担を軽減することができる。特に、診断のために高精度な撮影が必要とされる部位と、高精度な撮影が必要とされない部位に対して、異なる撮影速度を設定できることで、限られた患者の撮影時間の中で精度の良い画像を取得することができるが、第1の実施形態に係る医用画像診断システムによれば、ユーザが手動で撮影範囲の設定を行わなくてよい。したがって、操作者の負担を軽減しつつ、精度の良い画像を取得することが可能となる。   Thereby, according to the medical image diagnostic system which concerns on 1st Embodiment, an operator's burden can be eased. In particular, it is possible to set different imaging speeds for parts that require high-accuracy imaging for diagnosis and parts that do not require high-accuracy imaging. However, according to the medical image diagnostic system according to the first embodiment, the user does not have to manually set the imaging range. Therefore, it is possible to acquire an accurate image while reducing the burden on the operator.

(第2の実施形態)
第1の実施形態では、部位に応じた撮影条件として、撮影時間又は撮影速度の入力を受け付ける場合について説明した。第2の実施形態では、部位に応じた撮影条件として、部位に応じた撮影条件として、FOV(Field Of View)の大きさを設定する。
これにより、部位に対して不必要に大きいFOVの大きさを設定しなくて済むようになることから、撮像に無関係な領域に係るイベント(バックグラウンドの散乱成分)による誤差を低減することができ、機能画像の画質を向上することができる。
(Second Embodiment)
In 1st Embodiment, the case where the input of imaging time or imaging speed was received as imaging conditions according to the site | part was demonstrated. In the second embodiment, the size of FOV (Field Of View) is set as the imaging condition corresponding to the part as the imaging condition corresponding to the part.
As a result, it is not necessary to set an unnecessarily large FOV size for the part, and errors due to events (background scattered components) related to an area unrelated to imaging can be reduced. The image quality of functional images can be improved.

第2の実施形態に係る医用画像診断システムの有する処理回路5は、設定機能32により、FOVの大きさを設定する。   The processing circuit 5 included in the medical image diagnostic system according to the second embodiment sets the size of the FOV by the setting function 32.

第2の実施形態に係る医用画像診断システムの行う処理について、図3、図5、図6A、図6B、図6Cを参照しながら説明する。図5、図6A、図6B、図6Cは、第2の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図である。   Processing performed by the medical image diagnostic system according to the second embodiment will be described with reference to FIGS. 3, 5, 6A, 6B, and 6C. 5, 6A, 6B, and 6C are diagrams for describing setting of imaging conditions according to the medical image diagnostic system according to the second embodiment.

第2の実施形態においては、第1の実施形態と同様に、図3のフローチャートに記載の処理を行うが、ステップS105の処理が第1の実施形態と異なる。以下、第1の実施形態と同様の処理を行う部分については、詳細な説明は省略する。   In the second embodiment, similarly to the first embodiment, the processing described in the flowchart of FIG. 3 is performed, but the processing in step S105 is different from that in the first embodiment. Hereinafter, a detailed description of a portion that performs the same processing as in the first embodiment will be omitted.

図5に示されているように、第2の実施形態では、第1の実施形態と同様の処理を行うことにより、ステップS104において、処理回路5は、特定機能33により、特定した特徴点の位置に基づいて、被検体の所定の部位を特定する。図5の例では、処理回路5は、特定機能33により、部位「頭部」を、撮影範囲64Aとして特定する。処理回路5は、特定機能33により、部位「肩から下腹部」を、撮影範囲64Bとして特定する。処理回路5は、特定機能33により、部位「下肢」を、撮影範囲64Cとして特定する。   As shown in FIG. 5, in the second embodiment, by performing the same processing as in the first embodiment, in step S <b> 104, the processing circuit 5 uses the specifying function 33 to specify the specified feature point. A predetermined part of the subject is identified based on the position. In the example of FIG. 5, the processing circuit 5 specifies the region “head” as the imaging range 64 </ b> A by the specifying function 33. The processing circuit 5 uses the specifying function 33 to specify the region “shoulder to lower abdomen” as the imaging range 64B. The processing circuit 5 specifies the region “lower limb” as the imaging range 64 </ b> C by the specifying function 33.

第2の実施形態では、ステップS105において、処理回路5は、設定機能32により、FOVの大きさを設定する。図6Aは、部位「頭部」に対するアキシャル断面像であり、境界71Aが、被検体の体表面に対応する。同様に、図6Bは、部位「肩から下腹部」に対するアキシャル断面像であり、境界71Bが、被検体の体表面に対応する。同様に、図6Cは、部位「下肢」に対するアキシャル断面像であり、境界71Cが、被検体の体表面に対応する。   In the second embodiment, the processing circuit 5 sets the size of the FOV by the setting function 32 in step S105. FIG. 6A is an axial cross-sectional image for the region “head”, and the boundary 71A corresponds to the body surface of the subject. Similarly, FIG. 6B is an axial cross-sectional image with respect to the site “shoulder to lower abdomen”, and the boundary 71B corresponds to the body surface of the subject. Similarly, FIG. 6C is an axial cross-sectional image of the region “lower limb”, and the boundary 71C corresponds to the body surface of the subject.

ここで、処理回路5は、設定機能32により、部位「頭部」として特定された撮影範囲64Aに対するFOVとして、図6Aの領域71Aを設定する。具体的には、処理回路5は、設定機能32により、被検体の体表面70Aの全部を含む領域を、領域71Aとして設定する。同様に、処理回路5は、設定機能32により、部位「肩から下腹部」として特定された撮影範囲64Bに対するFOVとして、図6Bの領域71Bを設定する。処理回路5は、設定機能32により、部位「下肢」として特定された撮影範囲64Cに対するFOVとして、図6Cの領域71Cを設定する。処理回路5は、このように設定した撮影条件に基づいて、第1の実施形態と同様の処理を行う。   Here, the processing circuit 5 sets the area 71 </ b> A of FIG. 6A as an FOV for the imaging range 64 </ b> A specified as the part “head” by the setting function 32. Specifically, the processing circuit 5 sets an area including the entire body surface 70A of the subject as the area 71A by the setting function 32. Similarly, the processing circuit 5 sets the region 71B of FIG. 6B as the FOV for the imaging range 64B specified as the region “shoulder to lower abdomen” by the setting function 32. The processing circuit 5 sets the region 71C in FIG. 6C as the FOV for the imaging range 64C specified as the region “lower limb” by the setting function 32. The processing circuit 5 performs the same processing as in the first embodiment based on the shooting conditions set in this way.

このように、第2の実施形態では、処理回路5は、設定機能32により、FOVの大きさを設定する。この理由は以下の通りである。PETにおいては、対消滅において生成された一組のγ線ペアを検出器が検出するが、部位に対してFOVが不必要に大きいと、被検体とは無関係な場所で発生したγ線の信号(バックグラウンドの散乱成分)を、検出器が検出してしまう。その結果、ノイズが増大し、得られる機能画像の画質が低下する。そのため、FOVの大きさは、被検体の部位に比較して、不必要に大きくしない方が望ましい。第2の実施形態では、処理回路5が、設定機能32により、FOVの大きさを自動設定することから、部位に対して不必要に大きいFOVの大きさを設定しなくて済むようになる。その結果、撮像に無関係な領域に係るイベントによる誤差を低減することができ、機能画像の画質を向上することができる。この操作を操作者が手動で行うことも可能であるが、FOVの大きさを設定する操作を操作者が手動で行うのでは、操作者の負担は大きい。第2の実施形態に係る医用画像診断システムは、機能画像の画質を維持することを、操作者の負担を軽減することと両立することができる。   Thus, in the second embodiment, the processing circuit 5 sets the size of the FOV by the setting function 32. The reason is as follows. In PET, the detector detects a pair of γ-ray pairs generated in the pair annihilation, but if the FOV is unnecessarily large for the site, a signal of γ-rays generated at a place unrelated to the subject. The detector detects (background scattered component). As a result, noise increases and the quality of the functional image obtained decreases. For this reason, it is desirable that the size of the FOV is not unnecessarily large compared to the site of the subject. In the second embodiment, since the processing circuit 5 automatically sets the size of the FOV by the setting function 32, it is not necessary to set an unnecessarily large size of the FOV for the part. As a result, an error due to an event relating to an area unrelated to imaging can be reduced, and the quality of the functional image can be improved. Although it is possible for the operator to perform this operation manually, if the operator manually performs an operation for setting the size of the FOV, the burden on the operator is large. In the medical image diagnostic system according to the second embodiment, maintaining the image quality of the functional image can be compatible with reducing the burden on the operator.

(第3の実施形態)
第3の実施形態では、部位に応じた撮影条件として、各回の撮影の重複領域の大きさの入力を設定する。これにより、機能画像の画質(S/N比)を維持しながら撮影時間を短縮することと、操作者の負担を軽減することとを両立することができる。
(Third embodiment)
In the third embodiment, an input of the size of the overlapping area for each imaging is set as an imaging condition corresponding to the part. As a result, it is possible to simultaneously reduce the shooting time while maintaining the image quality (S / N ratio) of the functional image and to reduce the burden on the operator.

第3の実施形態では、処理回路5は、受付機能35により、所定の部位に対して第2の撮影を複数回の撮影に分けて行う場合において、各回の撮影の重複領域の大きさの入力を、部位に応じた撮影条件として受け付ける。処理回路5は、設定機能32により、受け付けた撮影条件の入力に基づいて、第2の撮影の、部位に応じた撮影条件を設定する。   In the third embodiment, the processing circuit 5 inputs the size of the overlapping area of each imaging in the case where the reception function 35 divides the second imaging into a plurality of imagings for a predetermined part. Is accepted as an imaging condition corresponding to the part. The processing circuit 5 sets the imaging condition corresponding to the part of the second imaging based on the received imaging condition input by the setting function 32.

第3の実施形態に係る医用画像診断システムの行う処理について、図3及び図7を参照しながら説明する。図7は、第3の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図である。   Processing performed by the medical image diagnostic system according to the third embodiment will be described with reference to FIGS. 3 and 7. FIG. 7 is a diagram for describing setting of imaging conditions according to the medical image diagnostic system according to the third embodiment.

第3の実施形態においては、第1の実施形態と同様に、図3のフローチャートに記載の処理を行うが、ステップS101及びステップS105の処理が第1の実施形態と異なる。以下、第1の実施形態と同様の処理を行う部分については、詳細な説明は省略する。   In the third embodiment, similarly to the first embodiment, the processing described in the flowchart of FIG. 3 is performed, but the processing in steps S101 and S105 is different from that in the first embodiment. Hereinafter, a detailed description of a portion that performs the same processing as in the first embodiment will be omitted.

前述したように、第2架台装置2は、通常、ポジションごとに、撮影場所をオーバーラップ(重複)させながら、第2の撮影を行う。処理回路5は、オーバーラップ(重複)領域の大きさの入力を、撮影条件として受け付ける。具体的には、ステップS101において、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件(複数の部位毎の撮影条件)として、所定の部位に対して第2の撮影を複数回の撮影に分けて行う場合において、各回の撮影の重複領域の大きさの入力を、部位に応じた撮影条件として受け付ける。例えば、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、部位「頭部」に対して、重複領域の大きさ「50%」の入力を受け付ける。また、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、部位「下肢」に対して、重複領域の大きさ「30%」の入力を受け付ける。また、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、部位「その他」に対して、重複領域の大きさ「40%」の入力を受け付ける。   As described above, the second gantry device 2 normally performs the second imaging while overlapping the imaging locations for each position. The processing circuit 5 accepts an input of the size of the overlap (overlapping) area as an imaging condition. Specifically, in step S101, the processing circuit 5 uses the reception function 35 to perform second imaging on a predetermined part as imaging conditions (imaging conditions for each of a plurality of parts) according to the part of the subject. In the case of performing the imaging separately for a plurality of times, an input of the size of the overlapping area of each time of imaging is accepted as an imaging condition corresponding to the part. For example, the processing circuit 5 receives an input of the overlap region size “50%” for the region “head” as the imaging condition corresponding to the region of the subject by the reception function 35. Further, the processing circuit 5 receives an input of the overlap region size “30%” for the region “lower limb” as the imaging condition corresponding to the region of the subject by the reception function 35. Further, the processing circuit 5 accepts an input of the size of the overlapping region “40%” for the region “other” as the imaging condition corresponding to the region of the subject by the reception function 35.

図7に示されているように、第3の実施形態では、第1の実施形態と同様の処理を行うことにより、ステップS104において、処理回路5は、特定機能33により、特定した特徴点の位置に基づいて、被検体の所定の部位を特定する。図7の例では、処理回路5は、特定機能33により、部位「頭部」を、撮影範囲82Aとして特定する。処理回路5は、特定機能33により、部位「下肢」を、撮影範囲82Cとして特定する。処理回路5は、特定機能33により、部位「その他」を、撮影範囲82Bとして特定する。   As shown in FIG. 7, in the third embodiment, by performing the same processing as in the first embodiment, in step S <b> 104, the processing circuit 5 uses the specifying function 33 to specify the specified feature point. A predetermined part of the subject is identified based on the position. In the example of FIG. 7, the processing circuit 5 specifies the region “head” as the imaging range 82 </ b> A by the specifying function 33. The processing circuit 5 identifies the region “lower limb” as the imaging range 82 </ b> C by the identifying function 33. The processing circuit 5 identifies the part “others” as the imaging range 82 </ b> B by the identifying function 33.

第3の実施形態では、ステップS105において、処理回路5は、設定機能32により、各回の撮影の重複領域の大きさを設定する。   In the third embodiment, in step S <b> 105, the processing circuit 5 sets the size of the overlapping area for each shooting using the setting function 32.

処理回路5は、設定機能32により、部位「頭部」として特定された撮影範囲82Aにおける撮影の重複領域の大きさとして、「50%」を設定する。同様に、処理回路5は、設定機能32により、部位「下肢」として特定された撮影範囲82Bにおける撮影の重複領域の大きさとして、「30%」を設定する。同様に、処理回路5は、設定機能32により、部位「その他」として特定された撮影範囲82Cにおける撮影の重複領域の大きさとして、「40%」を設定する。処理回路5は、このように設定した撮影条件に基づいて、第1の実施形態と同様の処理を行う。   The processing circuit 5 sets “50%” as the size of the overlapping region of the imaging in the imaging range 82 </ b> A specified as the part “head” by the setting function 32. Similarly, the processing circuit 5 sets “30%” as the size of the imaging overlapping area in the imaging range 82 </ b> B specified as the region “lower limb” by the setting function 32. Similarly, the processing circuit 5 sets “40%” as the size of the overlapping region of the imaging in the imaging range 82 </ b> C specified as the part “other” by the setting function 32. The processing circuit 5 performs the same processing as in the first embodiment based on the shooting conditions set in this way.

このように、第3の実施形態では、処理回路5は、設定機能32により、各回の撮影の重複領域の大きさを設定する。この理由は以下の通りである。PETにおいては、ステップ・アンド・シュート方式で撮影を行う場合、各ポジションの両端では、各ポジションの中心付近に比べ、γ線を検出器の端で検出することになるので、検出効率が低下する。従って、その効果を補うために、各回の撮影ごとに、重複領域を設けてデータを補償する。この重複領域の大きさは、大きければ大きいほど得られるデータの精度(S/N比)は増加するが、重複領域が大きいほど、全体での撮影時間は増加してしまう。従って、最終的に要求されるデータの精度は部位ごとに異なることから、部位ごとに重複領域の大きさを設定することで、全体での撮影時間を短縮しつつ、必要な部位でのデータの精度を保つことができる。この操作を操作者が手動で行うことも可能であるが、重複領域の大きさを設定する操作を操作者が手動で行うのでは、操作者の負担は大きい。第3の実施形態に係る医用画像診断システムによれば、機能画像の画質(S/N比)を維持しながら撮影時間を短縮することと、操作者の負担を軽減することとを両立することができる。   In this way, in the third embodiment, the processing circuit 5 sets the size of the overlapping area for each shooting by the setting function 32. The reason is as follows. In PET, when imaging by the step-and-shoot method, the detection efficiency is reduced because γ-rays are detected at the ends of the detector at both ends of each position compared to the vicinity of the center of each position. . Therefore, in order to compensate for the effect, data is compensated by providing an overlap area for each photographing. As the size of the overlapping area is larger, the accuracy (S / N ratio) of the obtained data is increased. However, as the overlapping area is larger, the entire imaging time is increased. Therefore, since the accuracy of the finally required data varies from part to part, setting the size of the overlapping area for each part shortens the entire imaging time, while reducing the data of the necessary part. Accuracy can be maintained. Although this operation can be manually performed by the operator, if the operator manually performs the operation of setting the size of the overlapping area, the burden on the operator is large. According to the medical image diagnostic system according to the third embodiment, it is possible to reduce both the imaging time and the burden on the operator while maintaining the image quality (S / N ratio) of the functional image. Can do.

(第4の実施形態)
第4の実施形態では、処理回路5が呼吸同期撮影や心電同期撮影など同期撮影の撮影条件を設定する。
(Fourth embodiment)
In the fourth embodiment, the processing circuit 5 sets imaging conditions for synchronous imaging such as respiratory synchronous imaging and electrocardiographic synchronous imaging.

第4の実施形態では、処理回路5は、受付機能35により、部位に応じた撮影条件(複数の部位毎の撮影条件)として、同期撮影の撮影条件の入力を受け付ける。処理回路5は、設定機能32により、受け付けた撮影条件の入力に基づいて、第2の撮影の、部位に応じた撮影条件を設定する。   In the fourth embodiment, the processing circuit 5 accepts input of imaging conditions for synchronous imaging as imaging conditions (imaging conditions for each of a plurality of parts) according to the part by the reception function 35. The processing circuit 5 sets the imaging condition corresponding to the part of the second imaging based on the received imaging condition input by the setting function 32.

第4の実施形態に係る医用画像診断システムの行う処理について、図3、図8及び図9を参照しながら説明する。図8は、第4の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図である。また、図9は、第4の実施形態に係る医用画像診断システムにおけるデータ処理について説明した図である。   Processing performed by the medical image diagnostic system according to the fourth embodiment will be described with reference to FIGS. 3, 8, and 9. FIG. 8 is a diagram for describing setting of imaging conditions according to the medical image diagnostic system according to the fourth embodiment. FIG. 9 is a diagram for explaining data processing in the medical image diagnostic system according to the fourth embodiment.

第4の実施形態においては、第1の実施形態と同様に、図3のフローチャートに記載の処理を行う。以下、第1の実施形態と同様の処理を行う部分については、詳細な説明は省略する。   In the fourth embodiment, the processing described in the flowchart of FIG. 3 is performed as in the first embodiment. Hereinafter, a detailed description of a portion that performs the same processing as in the first embodiment will be omitted.

ステップS101において、処理回路5は、受付機能35により、部位に応じた撮影条件(複数の部位毎の撮影条件)として、同期撮影の撮影条件の入力を受け付ける。処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、図8に示された部位「胸部90」に対して、「呼吸同期を行う」旨、及び「呼吸同期に関するパラメータ」の入力を受け付ける。別の例として、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、部位「心臓」に対して、「心電同期を行う」旨、及び「心電同期に関するパラメータ」の入力を受け付ける。また、別の例として、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、所定の部位に対して、「呼吸同期と心電同期とを組み合わせた同期撮影を行う」旨、及び「所定のパラメータ」の入力を受け付ける。加えて、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、図8に示された部位「頭部」や、部位「その他」等に対して、所定の条件の入力を受け付ける。   In step S <b> 101, the processing circuit 5 uses the reception function 35 to accept input of imaging conditions for synchronous imaging as imaging conditions (imaging conditions for each of a plurality of sites) corresponding to the site. The processing circuit 5 uses the reception function 35 to indicate “respiratory synchronization” and “respiratory synchronization parameters” for the region “chest 90” shown in FIG. 8 as imaging conditions according to the region of the subject. "Is accepted. As another example, the processing circuit 5 uses the reception function 35 to indicate that “electrocardiographic synchronization is performed” and “parameters related to electrocardiographic synchronization” for the region “heart” as imaging conditions corresponding to the region of the subject. "Is accepted. As another example, the processing circuit 5 performs “synchronous imaging combining respiratory synchronization and electrocardiographic synchronization” with respect to a predetermined region as an imaging condition corresponding to the region of the subject by the reception function 35. ”And“ predetermined parameters ”are received. In addition, the processing circuit 5 uses the reception function 35 to set a predetermined condition for the region “head”, the region “others”, and the like shown in FIG. 8 as imaging conditions corresponding to the region of the subject. Accept input.

ここで、同期撮影とは、撮影を、所定の間隔で反復継続する事象と関連づけて撮影することで、例えば、撮影を、呼吸位相と関連付けて撮影する呼吸同期、撮影を心電位相と関連つけて撮影する心電同期撮影である。呼吸同期撮影を行う場合、第2架台装置2は、呼吸位相に関連づけて複数の時刻で撮影を行って、複数の時刻それぞれでのデータを収集する。処理回路5は第2生成機能により、例えば、呼吸位相と関連付けられた当該複数の時刻それぞれのデータを、呼吸位相ごとにまとめることにより、呼吸位相ごと(拡張期、収縮期等)の機能画像を生成する。呼吸同期に関するパラメータの例として、呼吸同期撮影を行う撮影回数、撮影開始時刻、撮影終了時刻、撮影時間、撮影間隔等が挙げられる。また、心電同期撮影を行う場合、第2架台装置2は、心電位相に関連付けて複数の時刻で撮影を行って、複数の時刻それぞれでのデータを収集する。処理回路5は第2生成機能により、例えば、心電位相と関連付けられた当該複数の時刻それぞれのデータを、心電位相ごとにまとめることにより、心電位相ごと(心収縮期、心拡張期)の機能画像を生成する。心電同期に関するパラメータの例として、心電同期撮影を行う撮影回数、撮影開始時刻、撮影終了時刻、撮影時間、撮影間隔等が挙げられる。   Synchronous imaging refers to imaging in association with an event that continues to be repeated at a predetermined interval, for example, respiratory synchronization in which imaging is performed in association with a respiratory phase, and imaging in association with an electrocardiographic phase. This is ECG-synchronized shooting. When performing respiratory synchronization imaging, the second gantry device 2 performs imaging at a plurality of times in association with the respiratory phase, and collects data at each of the plurality of times. For example, the processing circuit 5 collects the data of each of the plurality of times associated with the respiratory phase for each respiratory phase by using the second generation function, thereby generating a functional image for each respiratory phase (diastolic phase, systolic phase, etc.). Generate. Examples of parameters relating to respiratory synchronization include the number of times of performing respiratory synchronization imaging, the imaging start time, the imaging end time, the imaging time, and the imaging interval. In addition, when performing electrocardiogram synchronous imaging, the second gantry device 2 performs imaging at a plurality of times in association with the electrocardiographic phase, and collects data at each of the plurality of times. The processing circuit 5 uses the second generation function to, for example, summarize the data of each of the plurality of times associated with the electrocardiographic phase for each electrocardiographic phase, thereby for each electrocardiographic phase (systole, diastole). Generate a functional image of Examples of parameters relating to electrocardiographic synchronization include the number of times of performing electrocardiographic synchronization imaging, imaging start time, imaging end time, imaging time, imaging interval, and the like.

図8に示されているように、第4の実施形態では、第1の実施形態と同様の処理を行うことにより、ステップS104において、処理回路5は、特定機能33により、特定した特徴点の位置に基づいて、被検体の所定の部位を特定する。図8の例では、処理回路5は、特定機能33により、部位「頭部」を、撮影範囲91Aとして特定する。処理回路5は、特定機能33により、部位「胸部」を、撮影範囲91Bとして特定する。処理回路5は、特定機能33により、部位「その他」を、撮影範囲82Bとして特定する。   As shown in FIG. 8, in the fourth embodiment, by performing the same processing as in the first embodiment, in step S <b> 104, the processing circuit 5 uses the specifying function 33 to specify the specified feature point. A predetermined part of the subject is identified based on the position. In the example of FIG. 8, the processing circuit 5 specifies the region “head” as the imaging range 91 </ b> A by the specifying function 33. The processing circuit 5 uses the specifying function 33 to specify the region “chest” as the imaging range 91B. The processing circuit 5 identifies the part “others” as the imaging range 82 </ b> B by the identifying function 33.

第4の実施形態では、ステップS105において、処理回路5は、設定機能32により、部位に応じた撮影条件(複数の部位毎の撮影条件)として、同期撮影の撮影条件を設定する。処理回路5は、設定機能32により、部位「胸部」として特定された撮影範囲91Bにおける撮影条件として、「呼吸同期撮影を行う」旨、及び「呼吸同期撮影に関するパラメータ」の設定を行う。処理回路5は、設定機能32により、部位「胸部」以外の部位に関しては、第1の実施形態と同様の設定を行う。   In the fourth embodiment, in step S105, the processing circuit 5 uses the setting function 32 to set synchronous imaging conditions as imaging conditions (imaging conditions for each of a plurality of parts) according to the part. The processing circuit 5 uses the setting function 32 to set “perform respiratory synchronized imaging” and “parameters related to respiratory synchronized imaging” as imaging conditions in the imaging range 91B specified as the region “chest”. The processing circuit 5 uses the setting function 32 to perform the same settings as those in the first embodiment for parts other than the part “chest”.

ステップS108において、第2架台装置2は、処理回路5が設定機能32により設定した部位に応じた撮影条件に従って、第2の撮影を行う。   In step S <b> 108, the second gantry device 2 performs the second imaging in accordance with the imaging conditions corresponding to the part set by the processing circuit 5 using the setting function 32.

例えば、図9に、この状況が示されている。第2架台装置2は、第1の呼吸位相に対応する時刻で撮影を行って、データ110A及びデータ111Aを収集する。第2架台装置2は、第2の呼吸位相に対応する時刻で撮影を行って、データ110B及びデータ111Bを収集する。第2架台装置2は、第3の呼吸位相に対応する時刻で撮影を行って、データ110C及びデータ111Cを収集する。   For example, FIG. 9 illustrates this situation. The second gantry device 2 performs imaging at a time corresponding to the first respiratory phase, and collects data 110A and data 111A. The second gantry device 2 performs imaging at a time corresponding to the second respiratory phase, and collects data 110B and data 111B. The second gantry device 2 performs imaging at a time corresponding to the third respiratory phase, and collects data 110C and data 111C.

ここで、データ110A、データ110B、データ110Cは、同期撮影の対象である部位「胸部」に係るデータである。また、データデータ111A、データ111B、データ111Cは、部位「胸部」以外の部位に係るデータである。   Here, the data 110A, the data 110B, and the data 110C are data related to the region “chest” that is the target of the synchronous imaging. The data data 111A, data 111B, and data 111C are data related to a part other than the part “chest”.

ステップS109において、第2の撮影が終了すると、処理回路5は、第2生成機能12により、部位に応じた撮影条件に従って行われた第2の撮影に基づいて機能画像を生成する。具体的には、処理回路5は、第2生成機能12により、同期撮影を行う部位に関しては、位相ごとにデータを統合し、それをもとに、位相ごとの画像を生成する。一方、処理回路5は、第2生成機能12により、同期撮影を行わない部位に関しては、すべての位相のデータを統合し、それをもとに、一つの画像を生成する。   In step S109, when the second imaging is finished, the processing circuit 5 causes the second generation function 12 to generate a functional image based on the second imaging performed according to the imaging condition corresponding to the part. Specifically, the processing circuit 5 uses the second generation function 12 to integrate data for each phase and generate an image for each phase with respect to a portion where synchronous imaging is performed. On the other hand, the processing circuit 5 uses the second generation function 12 to integrate all phase data for a part that is not subjected to synchronous imaging, and generates one image based on the integrated data.

具体的には、部位「胸部」については、処理回路5は、第2生成機能12により、第1の呼吸位相に対応するデータ110A、第2の呼吸位相に対応するデータ110B、第3の呼吸位相に対応するデータ110Cを統合して、呼吸位相ごとのデータを生成し、それをもとに、呼吸位相ごとの画像を生成する。一方、部位「胸部」以外の部位については、処理回路5は、第2生成機能12により、データ111A、データ111B、データ111Cを統合して、一つのデータを生成し、それをもとに画像を生成する。   Specifically, for the region “chest”, the processing circuit 5 uses the second generation function 12 to generate data 110A corresponding to the first respiratory phase, data 110B corresponding to the second respiratory phase, and third respiratory The data 110C corresponding to the phase is integrated to generate data for each respiratory phase, and based on that, an image for each respiratory phase is generated. On the other hand, for the part other than the part “chest”, the processing circuit 5 uses the second generation function 12 to integrate the data 111A, the data 111B, and the data 111C to generate one data, and based on the data, Is generated.

このように、第4の実施形態では、処理回路5は、設定機能32により、部位に応じた撮影条件として、同期撮影の撮影条件を設定する。この理由は以下の通りである。胸部や心臓などの部位は、動きがあるので、それ以外の部位とは異なり、同期撮影など、特別な処理を行うのが望ましい。しかしながら、このようなパラメータ設定を操作者が手動で行うのはわずらわしい。処理回路5が同期撮影の撮影条件を設定することで、第4の実施形態に係る医用画像診断システムによれば、操作者の負担を軽減することができる。   As described above, in the fourth embodiment, the processing circuit 5 sets the imaging condition for the synchronous imaging as the imaging condition corresponding to the part by the setting function 32. The reason is as follows. Since parts such as the chest and heart have movement, it is desirable to perform special processing such as synchronous imaging unlike other parts. However, it is troublesome for the operator to manually set such parameters. When the processing circuit 5 sets the photographing conditions for synchronous photographing, the medical image diagnostic system according to the fourth embodiment can reduce the burden on the operator.

(第5の実施形態)
第5の実施形態では、処理回路5がダイナミック撮影の撮影条件を設定する。
(Fifth embodiment)
In the fifth embodiment, the processing circuit 5 sets shooting conditions for dynamic shooting.

第5の実施形態では、処理回路5は、受付機能35により、部位に応じた撮影条件(複数の部位毎の撮影条件)として、ダイナミック撮影の撮影条件の入力を受け付ける。処理回路5は、設定機能32により、受け付けた撮影条件の入力に基づいて、第2の撮影の、部位に応じた撮影条件を設定する。   In the fifth embodiment, the processing circuit 5 accepts input of imaging conditions for dynamic imaging as imaging conditions (imaging conditions for each of a plurality of parts) according to the part by the reception function 35. The processing circuit 5 sets the imaging condition corresponding to the part of the second imaging based on the received imaging condition input by the setting function 32.

第5の実施形態に係る医用画像診断システムの行う処理について、図3、図10及び図11を参照しながら説明する。図10は、第5の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図である。また、図11は、第5の実施形態に係る医用画像診断システムにおけるデータ処理について説明した図である。   Processing performed by the medical image diagnostic system according to the fifth embodiment will be described with reference to FIGS. 3, 10, and 11. FIG. 10 is a diagram for describing setting of imaging conditions according to the medical image diagnostic system according to the fifth embodiment. FIG. 11 is a diagram for explaining data processing in the medical image diagnostic system according to the fifth embodiment.

第5の実施形態においては、第1の実施形態と同様に、図3のフローチャートに記載の処理を行う。以下、第1の実施形態と同様の処理を行う部分については、詳細な説明は省略する。   In the fifth embodiment, similarly to the first embodiment, the processing described in the flowchart of FIG. 3 is performed. Hereinafter, a detailed description of a portion that performs the same processing as in the first embodiment will be omitted.

ステップS101において、処理回路5は、受付機能35により、部位に応じた撮影条件(複数の部位毎の撮影条件)として、ダイナミック撮影の撮影条件の入力を受け付ける。処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、図10に示された部位「心臓」に対して、「ダイナミック撮影を行う」旨、及び「ダイナミックに関するパラメータ」の入力を受け付ける。加えて、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、図8に示された部位「頭部」や、部位「その他」等に対して、所定の条件の入力を受け付ける。   In step S <b> 101, the processing circuit 5 accepts input of imaging conditions for dynamic imaging as imaging conditions (imaging conditions for each of a plurality of parts) according to the part by the reception function 35. The processing circuit 5 uses the reception function 35 to indicate “dynamic imaging” and “dynamic parameters” for the region “heart” shown in FIG. 10 as the imaging conditions according to the region of the subject. Accept input. In addition, the processing circuit 5 uses the reception function 35 to set a predetermined condition for the region “head”, the region “others”, and the like shown in FIG. 8 as imaging conditions corresponding to the region of the subject. Accept input.

ここで、ダイナミック撮影とは、撮影を、時系列(時相)に沿って撮影することで、例えば、所定の部位における時間変化をみることのできる撮影である。ダイナミック撮影も、同期撮影も、共に所定の部位の時間変化を観察するという点においては共通する。同期撮影が、呼吸や心拍などの周期的に繰り返す動きにおける、所定の位相での運動に着目する撮影であるのに対して、ダイナミック撮影とは、例えば造影剤注入に対する過渡的特性に着目する撮影であり、例えば病巣内の血管動態を観察する目的で行われる。例えば、通常の撮影では、所定の注入速度で造影剤を注入し、血液内の造影剤濃度が平衡に達した時点で撮影を開始する。この結果、平衡相における撮影を行うことができる。これに対して、ダイナミック撮影においては、例えば造影剤注入速度を通常の撮影より増大させ短期間に造影剤注入を行い、血液中の造影剤濃度が平衡に達する前に撮影を行うことで、過渡的特性(動脈層)を観察することができる。   Here, the dynamic imaging is imaging in which temporal changes in a predetermined part can be seen, for example, by imaging in time series (time phase). Both dynamic imaging and synchronous imaging are common in that a change in time of a predetermined part is observed. Synchronous imaging is imaging that focuses on motion at a predetermined phase in periodically repeated movements such as breathing and heartbeat, whereas dynamic imaging is imaging that focuses on transient characteristics with respect to, for example, contrast medium injection. For example, it is performed for the purpose of observing vascular dynamics in a lesion. For example, in normal imaging, a contrast medium is injected at a predetermined injection speed, and imaging is started when the contrast medium concentration in blood reaches equilibrium. As a result, imaging in the equilibrium phase can be performed. On the other hand, in dynamic imaging, for example, the contrast agent injection speed is increased compared to normal imaging, contrast medium injection is performed in a short period of time, and imaging is performed before the contrast agent concentration in the blood reaches equilibrium. Characteristic (arterial layer) can be observed.

ダイナミック撮影に関するパラメータの例として、ダイナミック撮影を行う撮影回数、撮影開始時刻、撮影終了時刻、撮影時間、撮影間隔等が挙げられる。   Examples of parameters related to dynamic shooting include the number of shootings for dynamic shooting, shooting start time, shooting end time, shooting time, shooting interval, and the like.

図10に示されているように、第5の実施形態では、第1の実施形態と同様の処理を行うことにより、ステップS104において、処理回路5は、特定機能33により、特定した特徴点の位置に基づいて、被検体の所定の部位を特定する。図10の例では、処理回路5は、特定機能33により、部位「頭部」を、撮影範囲120Aとして特定する。処理回路5は、特定機能33により、部位「心臓」を、撮影範囲120Bとして特定する。処理回路5は、特定機能33により、部位「下肢」を、撮影範囲120Cとして特定する。   As shown in FIG. 10, in the fifth embodiment, by performing the same processing as in the first embodiment, in step S <b> 104, the processing circuit 5 uses the specifying function 33 to specify the specified feature point. A predetermined part of the subject is identified based on the position. In the example of FIG. 10, the processing circuit 5 specifies the region “head” as the imaging range 120 </ b> A by the specifying function 33. The processing circuit 5 uses the specifying function 33 to specify the region “heart” as the imaging range 120B. The processing circuit 5 specifies the region “lower limb” as the imaging range 120 </ b> C by the specifying function 33.

第5の実施形態では、ステップS105において、処理回路5は、設定機能32により、部位に応じた撮影条件(複数の部位毎の撮影条件)として、ダイナミック撮影の撮影条件を設定する。処理回路5は、設定機能32により、部位「心臓」として特定された撮影範囲120Bにおける撮影条件として、「ダイナミック撮影を行う」旨、及び「ダイナミック撮影に関するパラメータ」の設定を行う。処理回路5は、設定機能32により、部位「心臓」以外の部位に関しては、第1の実施形態と同様の設定を行う。   In the fifth embodiment, in step S105, the processing circuit 5 uses the setting function 32 to set imaging conditions for dynamic imaging as imaging conditions (imaging conditions for each of a plurality of sites) according to the site. The processing circuit 5 uses the setting function 32 to set “dynamic imaging” and “parameters related to dynamic imaging” as imaging conditions in the imaging range 120B specified as the region “heart”. The processing circuit 5 uses the setting function 32 to perform the same setting as in the first embodiment for the parts other than the part “heart”.

ステップS108において、第2架台装置2は、処理回路5が設定機能32により設定した部位に応じた撮影条件に従って、第2の撮影を行う。   In step S <b> 108, the second gantry device 2 performs the second imaging in accordance with the imaging conditions corresponding to the part set by the processing circuit 5 using the setting function 32.

例えば、図11に、この状況が示されている。第2架台装置2は、第1の時相に対応する時刻で撮影を行って、データ130A及びデータ131Aを収集する。第2架台装置2は、第2の時相に対応する時刻で撮影を行って、データ130B及びデータ131Bを収集する。第2架台装置2は、第3の時相に対応する時刻で撮影を行って、データ130C及びデータ131Cを収集する。   For example, this situation is shown in FIG. The second gantry device 2 performs imaging at a time corresponding to the first time phase and collects data 130A and data 131A. The second gantry device 2 performs imaging at a time corresponding to the second time phase, and collects data 130B and data 131B. The second gantry device 2 captures data 130 </ b> C and data 131 </ b> C by photographing at a time corresponding to the third time phase.

ここで、データ130A、データ130B、データ130Cは、ダイナミック撮影の対象である部位「心臓」に係るデータである。また、データデータ131A、データ131B、データ131Cは、部位「心臓」以外の部位に係るデータである。   Here, the data 130A, the data 130B, and the data 130C are data related to the region “heart” that is a target of dynamic imaging. The data data 131A, data 131B, and data 131C are data related to a part other than the part “heart”.

ステップS109において、第2の撮影が終了すると、処理回路5は、第2生成機能12により、部位に応じた撮影条件に従って行われた第2の撮影に基づいて機能画像を生成する。具体的には、処理回路5は、第2生成機能12により、ダイナミック撮影を行う部位に関しては、データを統合し、それをもとに、時系列画像を生成する。一方、処理回路5は、第2生成機能12により、ダイナミック撮影を行わない部位に関しては、すべての時相のデータを統合し、それをもとに、一つの画像を生成する。   In step S109, when the second imaging is finished, the processing circuit 5 causes the second generation function 12 to generate a functional image based on the second imaging performed according to the imaging condition corresponding to the part. Specifically, the processing circuit 5 uses the second generation function 12 to integrate data regarding the part to be subjected to dynamic imaging, and generates a time-series image based on the data. On the other hand, the processing circuit 5 uses the second generation function 12 to integrate all time phase data and generate one image based on the data for a portion where dynamic imaging is not performed.

具体的には、部位「心臓」については、処理回路5は、第2生成機能12により、第1の時相に対応するデータ130A、第2の時相に対応するデータ130B、第3の時相に対応するデータ130Cを統合して、時相ごとのデータを生成し、それをもとに、時系列画像を生成する。一方、部位「心臓」以外の部位については、処理回路5は、第2生成機能12により、データ131A、データ131B、データ131Cを統合して、一つのデータを生成し、それをもとに画像を生成する。   Specifically, for the region “heart”, the processing circuit 5 causes the second generation function 12 to use the data 130A corresponding to the first time phase, the data 130B corresponding to the second time phase, and the third time. The data 130C corresponding to the phases are integrated to generate data for each time phase, and a time-series image is generated based on the data. On the other hand, for the part other than the part “heart”, the processing circuit 5 uses the second generation function 12 to integrate the data 131A, the data 131B, and the data 131C to generate one data, and based on the data, Is generated.

このように、第5の実施形態では、処理回路5は、設定機能32により、部位に応じた撮影条件として、ダイナミック撮影の撮影条件を設定する。ダイナミック撮影を行う部位は、通常撮影を行う部位とは別のパラメータ設定が必要であるが、このようなパラメータ設定を操作者が手動で行うのはわずらわしい。処理回路5がダイナミック撮影の撮影条件を設定することで、第5の実施形態に係る医用画像診断システムによれば、操作者の負担を軽減することができる。   Thus, in the fifth embodiment, the processing circuit 5 sets the imaging conditions for dynamic imaging as the imaging conditions corresponding to the part by the setting function 32. The part for performing dynamic imaging requires parameter settings different from the part for performing normal imaging, but it is troublesome for the operator to manually set such parameters. By setting the imaging conditions for dynamic imaging by the processing circuit 5, according to the medical image diagnostic system according to the fifth embodiment, the burden on the operator can be reduced.

(第6の実施形態)
これまでの実施形態では、第2架台装置2が、ステップ・アンド・シュート方式で撮影を行う場合について説明してきたが、実施形態はこれに限られない。第6の実施形態では、第2の撮影は、被検体の撮影部位を連続移動させて行う連続撮影(Continuous 撮影)である。
(Sixth embodiment)
In the embodiments so far, the case has been described in which the second gantry device 2 performs imaging by the step-and-shoot method, but the embodiments are not limited thereto. In the sixth embodiment, the second imaging is continuous imaging performed by continuously moving the imaging region of the subject.

ここで、連続撮影(Continuous撮影)法とは、ステップ・アンド・シュート方式で撮影を行うのではなく、被検体の撮影部位を連続移動させて行う撮影法である。ステップ・アンド・シュート方式では、撮影部位を離散的に変化するので、生成される画像の精度は空間的にばらつきが生じる。被検体の撮影部位を連続移動させて撮影を行うことで、第6の実施形態に係る医用画像診断システムは、生成される画像の精度の空間的なばらつきを軽減することができる。   Here, the continuous imaging (Continuous imaging) method is an imaging method in which the imaging region of the subject is continuously moved, instead of imaging by the step-and-shoot method. In the step-and-shoot method, since the imaging region is changed discretely, the accuracy of the generated image varies spatially. By performing imaging while continuously moving the imaging region of the subject, the medical image diagnostic system according to the sixth embodiment can reduce spatial variations in the accuracy of the generated image.

第6の実施形態に係る医用画像診断システムの行う処理について、図3及び図12を参照しながら説明する。図12は、第6の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図である。   Processing performed by the medical image diagnostic system according to the sixth embodiment will be described with reference to FIGS. 3 and 12. FIG. 12 is a diagram illustrating setting of imaging conditions according to the medical image diagnostic system according to the sixth embodiment.

第6の実施形態においては、第1の実施形態と同様に、図3のフローチャートに記載の処理を行う。以下、第1の実施形態と同様の処理を行う部分については、詳細な説明は省略する。   In the sixth embodiment, similarly to the first embodiment, the process described in the flowchart of FIG. 3 is performed. Hereinafter, a detailed description of a portion that performs the same processing as in the first embodiment will be omitted.

第2架台装置2は、連続撮影法を用いて行う。処理回路5は、連続撮影法に係る所定のパラメータを、撮影条件として受け付ける。ステップS101において、例えば、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、部位「頭部」に対して、合計撮影時間「4分」の入力を受け付ける。また、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、部位「下肢」に対して、合計撮影時間「1分」の入力を受け付ける。また、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、部位「その他」に対して、合計撮影時間「2分」の入力を受け付ける。   The second gantry device 2 is performed using a continuous photographing method. The processing circuit 5 receives a predetermined parameter related to the continuous shooting method as a shooting condition. In step S <b> 101, for example, the processing circuit 5 receives an input of the total imaging time “4 minutes” for the region “head” as the imaging condition corresponding to the region of the subject by the reception function 35. Further, the processing circuit 5 receives an input of the total imaging time “1 minute” for the region “lower limb” as an imaging condition corresponding to the region of the subject by the reception function 35. Further, the processing circuit 5 accepts an input of the total imaging time “2 minutes” for the region “other” as the imaging condition according to the region of the subject by the reception function 35.

図12に示されているように、第6の実施形態では、第1の実施形態と同様の処理を行うことにより、ステップS104において、処理回路5は、特定機能33により、特定した特徴点の位置に基づいて、被検体の所定の部位を特定する。図12の例では、処理回路5は、特定機能33により、部位「頭部」を、撮影範囲140Aとして特定する。処理回路5は、特定機能33により、部位「下肢」を、撮影範囲140Cとして特定する。処理回路5は、特定機能33により、部位「その他」を、撮影範囲140Bとして特定する。   As shown in FIG. 12, in the sixth embodiment, by performing the same processing as in the first embodiment, in step S104, the processing circuit 5 uses the specifying function 33 to specify the specified feature point. A predetermined part of the subject is identified based on the position. In the example of FIG. 12, the processing circuit 5 specifies the region “head” as the imaging range 140 </ b> A by the specifying function 33. The processing circuit 5 specifies the region “lower limb” as the imaging range 140 </ b> C by the specifying function 33. The processing circuit 5 specifies the part “others” as the imaging range 140 </ b> B by the specifying function 33.

第6の実施形態では、ステップS105において、処理回路5は、設定機能32により、連続撮影法に係る所定のパラメータを設定する。   In the sixth embodiment, in step S <b> 105, the processing circuit 5 sets a predetermined parameter related to the continuous shooting method by the setting function 32.

処理回路5は、設定機能32により、部位「頭部」として特定された撮影範囲140Aにおける撮影条件として、合計撮影時間「4分」を設定する。同様に、処理回路5は、設定機能32により、部位「下肢」として特定された撮影範囲140Cにおける撮影条件として、合計撮影時間「1分」を設定する。同様に、処理回路5は、設定機能32により、部位「その他」として特定された撮影範囲140Bにおける撮影条件して、合計撮影時間「2分」を設定する。処理回路5は、このように設定した撮影条件に基づいて、連続撮影法を用いて撮影を行う。   The processing circuit 5 sets the total imaging time “4 minutes” as the imaging condition in the imaging range 140 </ b> A specified as the part “head” by the setting function 32. Similarly, the processing circuit 5 sets the total imaging time “1 minute” as the imaging condition in the imaging range 140 </ b> C specified as the region “lower limb” by the setting function 32. Similarly, the processing circuit 5 sets the total imaging time “2 minutes” as the imaging condition in the imaging range 140 </ b> B specified as the part “others” by the setting function 32. The processing circuit 5 performs imaging using the continuous imaging method based on the imaging conditions set in this way.

このように、第6の実施形態では、処理回路5は、設定機能32により、連続撮影法に係る所定のパラメータを設定する。連続撮影法を行うことにより、生成される画像の精度が空間的に均一化される状態で、部位ごとに所望の精度の画像を得ることができる。しかしながら、連続撮影法における部位毎のパラメータの設定を操作者が手動で行うのでは、操作者の負担は大きい。第6の実施形態に係る医用画像診断システムによれば、連続撮影法を行うメリットを生かしつつ、操作者の負担を軽減することができる。   Thus, in the sixth embodiment, the processing circuit 5 sets a predetermined parameter related to the continuous shooting method by the setting function 32. By performing the continuous imaging method, an image with a desired accuracy can be obtained for each part in a state where the accuracy of the generated image is spatially uniform. However, if the operator manually sets the parameters for each part in the continuous imaging method, the burden on the operator is large. According to the medical image diagnostic system according to the sixth embodiment, the burden on the operator can be reduced while taking advantage of the continuous imaging method.

(第7の実施形態)
第7の実施形態では、処理回路5は、受付機能35により、収集されたデータの再構成条件の入力を、部位に応じた撮影条件(複数の部位毎の撮影条件)として受け付ける。処理回路5は、設定機能32により、受け付けた撮影条件の入力に基づいて、第2の撮影の、部位に応じた撮影条件を設定する。
(Seventh embodiment)
In the seventh embodiment, the processing circuit 5 accepts input of reconstruction conditions for collected data as an imaging condition (imaging condition for each of a plurality of parts) according to a part by the reception function 35. The processing circuit 5 sets the imaging condition corresponding to the part of the second imaging based on the received imaging condition input by the setting function 32.

第7の実施形態に係る医用画像診断システムの行う処理について、図3及び図13を参照しながら説明する。図13は、第6の実施形態に係る医用画像診断システムに係る撮影条件の設定について説明した図である。   Processing performed by the medical image diagnostic system according to the seventh embodiment will be described with reference to FIGS. 3 and 13. FIG. 13 is a diagram for describing setting of imaging conditions according to the medical image diagnostic system according to the sixth embodiment.

第7の実施形態においては、第1の実施形態と同様に、図3のフローチャートに記載の処理を行う。以下、第1の実施形態と同様の処理を行う部分については、詳細な説明は省略する。   In the seventh embodiment, similarly to the first embodiment, the processing described in the flowchart of FIG. 3 is performed. Hereinafter, a detailed description of a portion that performs the same processing as in the first embodiment will be omitted.

ステップS101において、例えば、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、部位「頭部」に対して、頭部に係る再構成条件の入力を受け付ける。また、処理回路5は、受付機能35により、被検体の部位に応じた撮影条件として、部位「全身(頭部を除いた部位)」に対して、全身撮影(頭部を除いた部位)に係る再構成条件の入力を受け付ける。ここで、再構成条件の具体例としては、前述したOSEM法のイタレーション数やサブセット数が挙げられる。   In step S <b> 101, for example, the processing circuit 5 accepts an input of a reconstruction condition related to the head with respect to the part “head” as an imaging condition corresponding to the part of the subject by the accepting function 35. In addition, the processing circuit 5 uses the reception function 35 to perform whole body imaging (parts excluding the head) as a radiographing condition corresponding to the part of the subject with respect to the part “whole body (parts excluding the head)”. An input of such reconstruction conditions is accepted. Here, specific examples of the reconstruction condition include the number of iterations and the number of subsets of the OSEM method described above.

図13に示されているように、第7の実施形態では、第1の実施形態と同様の処理を行うことにより、ステップS104において、処理回路5は、特定機能33により、特定した特徴点の位置に基づいて、被検体の所定の部位を特定する。図13の例では、処理回路5は、特定機能33により、部位「頭部」を、撮影範囲150Bとして特定する。処理回路5は、特定機能33により、部位「全身(頭部を除いた部位)」を、撮影範囲150Cとして特定する。   As shown in FIG. 13, in the seventh embodiment, by performing the same processing as in the first embodiment, in step S <b> 104, the processing circuit 5 uses the specifying function 33 to specify the specified feature point. A predetermined part of the subject is identified based on the position. In the example of FIG. 13, the processing circuit 5 specifies the region “head” as the imaging range 150 </ b> B by the specifying function 33. The processing circuit 5 uses the specifying function 33 to specify the part “whole body (part excluding the head)” as the imaging range 150C.

第7の実施形態では、ステップS105において、処理回路5は、設定機能32により、撮影条件として、部位に応じたデータの再構成条件を設定する。具体的には、処理回路5は、設定機能32により、部位「頭部」として特定された撮影範囲150Aにおける撮影条件として、頭部に係る再構成条件を設定する。同様に、処理回路5は、設定機能32により、部位「全身(頭部を除いた部位)」として特定された撮影範囲150Cにおける撮影条件として、全身(頭部を除いた部位)撮影に係る再構成条件の入力を設定する。   In the seventh embodiment, in step S <b> 105, the processing circuit 5 uses the setting function 32 to set a data reconstruction condition corresponding to a part as an imaging condition. Specifically, the processing circuit 5 sets the reconstruction condition for the head as the imaging condition in the imaging range 150 </ b> A specified as the region “head” by the setting function 32. Similarly, the processing circuit 5 uses the setting function 32 to re-record the whole body (part excluding the head) as the imaging condition in the imaging range 150C specified as the part “whole body (part excluding the head)”. Set the configuration condition input.

処理回路5は、ステップS109において、ステップS105において設定された再構成条件に基づいて、機能画像を生成する。   In step S109, the processing circuit 5 generates a functional image based on the reconstruction condition set in step S105.

このように、第7の実施形態では、処理回路5は、設定機能32により、再構成条件を設定する。部位ごとに必要な画像の精度は異なることから、部位毎に画像の再構成条件を設定することが望ましい。しかしながら、これらのパラメータの設定を操作者が手動で行うのでは、操作者の負担は大きい。第7の実施形態に係る医用画像診断システムによれば、操作者の負担を軽減することができる。   Thus, in the seventh embodiment, the processing circuit 5 sets the reconstruction condition by the setting function 32. Since the required image accuracy differs for each part, it is desirable to set an image reconstruction condition for each part. However, if the operator manually sets these parameters, the burden on the operator is large. According to the medical image diagnostic system according to the seventh embodiment, the burden on the operator can be reduced.

(その他の実施形態)
実施形態に係る医用画像診断システムにおいて、第1架台装置1がX線CT装置の架台であり、第2架台装置2がPET装置の架台である場合について説明したが、モダリティはこれらに限られない。例えば、第1架台装置1として、磁気共鳴イメージング装置の有する架台であってもよい。また、第2架台装置2として、SPECT装置の有する架台であってもよい。
(Other embodiments)
In the medical image diagnostic system according to the embodiment, the case where the first gantry device 1 is a gantry of the X-ray CT apparatus and the second gantry device 2 is the gantry of the PET apparatus has been described, but the modality is not limited thereto. . For example, the first gantry device 1 may be a gantry included in a magnetic resonance imaging apparatus. Further, the second gantry device 2 may be a gantry included in the SPECT device.

実施形態に係る医用画像診断システムにおいて、形態画像診断装置のみを独立して抽出して構成する実施形態も可能である。例えば、形態画像診断装置は、撮影により取得した形態画像から、特徴点を抽出して部位を特定し、それを基に、機能画像診断装置が行う第2の撮影における部位に応じた撮影条件を設定してもよい。具体的には、形態画像診断装置の有する処理回路5は、第1生成機能11と、特定機能33と、設定機能32とを有する。処理回路5は、第1生成機能11により、被検体Pに対する第1の撮影に基づいて形態画像を生成する。処理回路5は、特定機能33により、かかる形態画像から、被検体Pの特徴点の位置を特定し、特定した特徴点の位置に基づいて、前記被検体Pの部位を特定する。処理回路5は、設定機能32により、機能画像を生成するために行う第2の撮影の、部位に応じた撮影条件を、特定機能33により特定された部位に対して設定する。   In the medical image diagnosis system according to the embodiment, an embodiment in which only the morphological image diagnosis apparatus is independently extracted and configured is also possible. For example, the morphological image diagnosis apparatus extracts a feature point from a morphological image acquired by imaging to identify a part, and based on that, sets imaging conditions corresponding to the part in the second imaging performed by the functional image diagnostic apparatus. It may be set. Specifically, the processing circuit 5 included in the morphological image diagnostic apparatus includes a first generation function 11, a specific function 33, and a setting function 32. The processing circuit 5 uses the first generation function 11 to generate a morphological image based on the first imaging for the subject P. The processing circuit 5 uses the specifying function 33 to specify the position of the feature point of the subject P from the morphological image, and specifies the site of the subject P based on the specified position of the feature point. The processing circuit 5 uses the setting function 32 to set the imaging condition corresponding to the part of the second imaging performed for generating the functional image for the part specified by the specifying function 33.

かかる形態画像診断装置は、架台装置(例えば、第1架台装置1)と、処理回路5とを備える。架台装置は、形態画像を収集する。処理回路5は、架台装置が収集した形態画像に基づいて、被検体の部位の位置に係る情報を取得する。処理回路5は、被検体の部位の位置に係る情報と、複数の部位毎の撮影条件とに基づいて、被検体Pの核医学画像を撮影する架台装置を制御する。   The morphological image diagnosis apparatus includes a gantry device (for example, the first gantry device 1) and a processing circuit 5. The gantry device collects morphological images. The processing circuit 5 acquires information related to the position of the part of the subject based on the morphological images collected by the gantry device. The processing circuit 5 controls the gantry device that captures a nuclear medicine image of the subject P based on the information related to the position of the part of the subject and the imaging conditions for each of the plurality of parts.

また、実施形態に係る医用画像診断システムにおいて、機能画像診断装置(核医学診断画像装置)のみを独立して抽出して構成する実施形態も可能である。例えば、機能画像診断装置(核医学診断画像装置)は、形態画像診断装置から取得した形態画像から、特徴点を抽出し、被検体の部位を特定し、それを基に、部位に応じた撮影条件を設定して撮影を行って機能画像を生成してもよい。係る機能画像診断装置(核医学診断画像装置)の有する処理回路5は、特定機能33と、設定機能32と、第2生成機能12とを有する。処理回路5は、特定機能33により、被検体Pに対する第1の撮影により生成された形態画像から、被検体Pの特徴点の位置を特定し、特定した特徴点の位置に基づいて、被検体Pの部位を特定する。処理回路5は、特定機能33により特定された部位に対して、第2の撮影の、部位に応じた撮影条件を設定する。処理回路5は、第2生成機能12により、部位に応じた撮影条件に従って行われた第2の撮影に基づいて、機能画像を生成する。   In addition, in the medical image diagnostic system according to the embodiment, an embodiment in which only the functional image diagnostic apparatus (nuclear medicine diagnostic image apparatus) is extracted and configured independently is also possible. For example, a functional image diagnostic apparatus (nuclear medicine diagnostic imaging apparatus) extracts feature points from a morphological image acquired from a morphological image diagnostic apparatus, identifies a part of a subject, and performs imaging according to the part based on the feature point. A functional image may be generated by setting and shooting a condition. The processing circuit 5 included in the functional image diagnostic apparatus (nuclear medicine diagnostic image apparatus) includes a specifying function 33, a setting function 32, and a second generation function 12. The processing circuit 5 specifies the position of the feature point of the subject P from the morphological image generated by the first imaging of the subject P by the specifying function 33, and based on the position of the specified feature point, the subject The site of P is specified. The processing circuit 5 sets the imaging conditions corresponding to the part of the second imaging for the part specified by the specifying function 33. The processing circuit 5 uses the second generation function 12 to generate a functional image based on the second imaging performed according to the imaging conditions corresponding to the part.

かかる核医学画像診断装置は、処理回路5と、架台装置(例えば、第2架台装置2)とを備える。処理回路5は、被検体P内の形態画像を収集する形態画像診断装置より、形態画像を取得する。架台装置は、被検体Pの核医学画像を撮影する。処理回路5は、形態画像に基づいて、被検体Pの部位の位置に係る情報を取得し、部位の位置に係る情報と複数の部位毎の撮影条件とに基づいて、架台装置を制御する。   The nuclear medicine image diagnostic apparatus includes a processing circuit 5 and a gantry device (for example, the second gantry device 2). The processing circuit 5 acquires a morphological image from a morphological image diagnostic apparatus that collects morphological images in the subject P. The gantry device captures a nuclear medicine image of the subject P. The processing circuit 5 acquires information related to the position of the part of the subject P based on the morphological image, and controls the gantry device based on the information related to the position of the part and the imaging conditions for each of the plurality of parts.

以上に説明したとおり、実施形態に係る医用画像診断システムによれば、操作者の負担を軽減することが可能になる。   As described above, according to the medical image diagnostic system according to the embodiment, the burden on the operator can be reduced.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

5・・・・処理回路
11・・・第1生成機能
12・・・第2生成機能
33・・・特定機能
32・・・設定機能
5 ... Processing circuit 11 ... First generation function 12 ... Second generation function 33 ... Specific function 32 ... Setting function

Claims (14)

形態画像診断装置と核医学画像診断装置とを有する医用画像診断システムにおいて、
前記形態画像診断装置が収集した形態画像に基づいて、被検体の部位の位置に係る情報を取得する取得部と、
前記被検体の核医学画像を撮影する架台装置と、
前記部位の位置に係る情報と、複数の部位毎の撮影条件とに基づいて、前記架台装置を制御する制御部とを備える、医用画像診断システム。
In a medical image diagnostic system having a morphological image diagnostic apparatus and a nuclear medicine image diagnostic apparatus,
Based on the morphological images collected by the morphological image diagnostic apparatus, an acquisition unit that acquires information related to the position of the site of the subject;
A gantry device for taking a nuclear medicine image of the subject;
A medical image diagnostic system comprising: a control unit that controls the gantry device based on information on the position of the part and imaging conditions for each of the plurality of parts.
前記形態画像から、前記被検体の特徴点の位置を特定し、特定した前記特徴点の位置に基づいて、前記被検体の部位を特定する特定部と、
前記架台装置による撮影の撮影条件を設定する設定部と、
を更に備え、
前記制御部は、特定された前記部位の位置に係る情報と、設定された複数の前記部位毎の撮影条件とに基づいて、前記架台装置を制御し、
撮影条件に従って行われた前記撮影に基づいて、核医学画像を生成する、画像生成部を
更に備える、請求項1に記載の医用画像診断システム。
A specifying unit for specifying the position of the feature point of the subject from the morphological image, and for specifying the site of the subject based on the specified position of the feature point;
A setting unit for setting shooting conditions for shooting by the gantry device;
Further comprising
The control unit controls the gantry device based on the information related to the position of the identified part and the imaging conditions for each of the set parts.
The medical image diagnosis system according to claim 1, further comprising an image generation unit that generates a nuclear medicine image based on the imaging performed according to imaging conditions.
前記架台装置による撮影における、部位毎の撮影条件を記憶する記憶回路を更に備える、請求項1又は2に記載の医用画像診断システム。   The medical image diagnosis system according to claim 1, further comprising a storage circuit that stores imaging conditions for each part in imaging by the gantry device. 前記部位に応じた前記撮影条件の入力を受け付ける受付部を更に備え、
受け付けられた前記撮影条件の入力に基づいて、前記撮影条件を設定する設定部を更に備える、請求項1又は3に記載の医用画像診断システム。
A reception unit that receives an input of the imaging condition according to the part;
The medical image diagnosis system according to claim 1, further comprising a setting unit configured to set the imaging condition based on the accepted input of the imaging condition.
前記特定部は、前記形態画像から、前記被検体の特徴点の位置を特定し、特定した前記特徴点の位置に基づいて、前記被検体の複数の部位を特定し、
前記設定部は、特定された前記複数の部位それぞれに対して、前記撮影の、前記複数の部位それぞれに応じた撮影条件を設定し、
前記画像生成部は、前記複数の部位それぞれに応じた前記撮影条件に従って行われた前記撮影に基づいて前記核医学画像を生成する、
請求項2に記載の医用画像診断システム。
The specifying unit specifies a position of the feature point of the subject from the morphological image, specifies a plurality of parts of the subject based on the specified position of the feature point,
The setting unit sets imaging conditions corresponding to each of the plurality of parts of the imaging for each of the plurality of specified parts,
The image generation unit generates the nuclear medicine image based on the imaging performed in accordance with the imaging conditions corresponding to each of the plurality of regions;
The medical image diagnostic system according to claim 2.
前記複数の部位毎の前記撮影条件として、撮影時間又は撮影速度の入力を受け付ける受付部を更に備える、請求項1〜3、5のいずれか一つに記載の医用画像診断システム。   The medical image diagnosis system according to claim 1, further comprising a reception unit that receives an input of an imaging time or an imaging speed as the imaging condition for each of the plurality of parts. 前記受付部は、前記部位に対して前記撮影を複数回の撮影に分けて行う場合において、各回の撮影の重複領域の大きさの入力を、前記複数の部位毎の前記撮影条件として受け付ける、請求項4に記載の医用画像診断システム。   The reception unit receives, as the imaging condition for each of the plurality of parts, an input of the size of an overlapping area of each imaging when performing the imaging for the part by dividing the imaging into a plurality of times of imaging. Item 5. The medical image diagnostic system according to Item 4. 前記受付部は、前記複数の部位毎の前記撮影条件として、収集されたデータの再構成条件の入力を受け付ける、請求項4に記載の医用画像診断システム。   The medical image diagnosis system according to claim 4, wherein the reception unit receives an input of a reconstruction condition of collected data as the imaging condition for each of the plurality of parts. 前記受付部は、前記複数の部位毎の前記撮影条件として、同期撮影の撮影条件の入力を受け付ける、請求項4に記載の医用画像診断システム。   The medical image diagnosis system according to claim 4, wherein the reception unit receives an input of an imaging condition for synchronous imaging as the imaging condition for each of the plurality of parts. 前記受付部は、前記複数の部位毎の前記撮影条件として、ダイナミック撮影の撮影条件の入力を受け付ける、請求項4に記載の医用画像診断システム。   The medical image diagnosis system according to claim 4, wherein the reception unit receives input of imaging conditions for dynamic imaging as the imaging conditions for each of the plurality of parts. 前記複数の部位毎の前記撮影条件として、FOV(Field OfView)の大きさを設定する設定部を更に備える、請求項1又は3に記載の医用画像診断システム。   The medical image diagnosis system according to claim 1, further comprising a setting unit that sets a size of FOV (Field OfView) as the imaging condition for each of the plurality of regions. 前記撮影は、前記被検体の撮影部位を連続移動させて行う連続撮影である、請求項1〜11のいずれか一つに記載の医用画像診断システム。   The medical image diagnosis system according to claim 1, wherein the imaging is continuous imaging performed by continuously moving an imaging region of the subject. 被検体内の形態画像を収集する形態画像診断装置より、前記形態画像を取得する取得部と、
被検体の核医学画像を撮影する架台装置とを備え、
前記取得部は、前記形態画像に基づいて、前記被検体の部位の位置に係る情報を取得し、前記部位の位置に係る情報と複数の前記部位毎の撮影条件とに基づいて、前記架台装置を制御する、核医学画像診断装置。
An acquisition unit that acquires the morphological image from a morphological image diagnostic apparatus that collects the morphological image in the subject;
A gantry device for taking a nuclear medicine image of a subject,
The acquisition unit acquires information related to the position of the part of the subject based on the morphological image, and the gantry device based on the information related to the position of the part and a plurality of imaging conditions for each of the parts A nuclear medicine diagnostic imaging device that controls
形態画像を収集する架台装置と、
前記架台装置が収集した前記形態画像に基づいて、被検体の部位の位置に係る情報を取得する取得部とを備え、
前記取得部は、前記部位の位置に係る情報と、複数の部位毎の撮影条件とに基づいて、被検体の核医学画像を撮影する架台装置を制御する、
形態画像診断装置。
A gantry device for collecting morphological images;
An acquisition unit that acquires information related to the position of the part of the subject based on the morphological image collected by the gantry device;
The acquisition unit controls a gantry device that captures a nuclear medicine image of a subject based on information on the position of the part and imaging conditions for each of a plurality of parts.
Morphological image diagnostic device.
JP2016213666A 2015-11-02 2016-10-31 Medical image diagnostic system, morphological image diagnostic device and nuclear medicine diagnostic imaging device Active JP6815167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/341,353 US20170119322A1 (en) 2015-11-02 2016-11-02 Medical image diagnosis system, structural image diagnosis apparatus, and nuclear medical image diagnosis apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015216150 2015-11-02
JP2015216150 2015-11-02

Publications (2)

Publication Number Publication Date
JP2017086903A true JP2017086903A (en) 2017-05-25
JP6815167B2 JP6815167B2 (en) 2021-01-20

Family

ID=58769703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016213666A Active JP6815167B2 (en) 2015-11-02 2016-10-31 Medical image diagnostic system, morphological image diagnostic device and nuclear medicine diagnostic imaging device

Country Status (1)

Country Link
JP (1) JP6815167B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019049477A (en) * 2017-09-11 2019-03-28 キヤノンメディカルシステムズ株式会社 Medical image diagnostic apparatus
CN112351738A (en) * 2018-06-22 2021-02-09 美国西门子医疗系统股份有限公司 Patient adaptive nuclear imaging
JP2021532372A (en) * 2018-08-29 2021-11-25 シャンドン マディク テクノロジー カンパニー リミテッドShandong Madic Technology Co., Ltd. A detector that combines PET and CT for the whole body, and its device and method.
JP2022505451A (en) * 2018-10-23 2022-01-14 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Reconstruction of active images using anatomical data

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04290982A (en) * 1991-03-19 1992-10-15 Hitachi Medical Corp Radial type tomographic device
JP2006262962A (en) * 2005-03-22 2006-10-05 Shimadzu Corp Nuclear medicine diagnostic apparatus and diagnostic system used therein
JP2010169542A (en) * 2009-01-23 2010-08-05 Hitachi Ltd Tomographic image information generation method of positron emission tomographic device, and positron emission tomographic device
JP2012011181A (en) * 2010-06-03 2012-01-19 Toshiba Corp Medical image diagnosis apparatus and image reconstruction method
JP2012127814A (en) * 2010-12-15 2012-07-05 Fujifilm Ri Pharma Co Ltd Device, method and computer program for estimating blood flow
JP2012150114A (en) * 2011-01-20 2012-08-09 Toshiba Corp Positron emission computer tomographic apparatus and method and program implemented by positron emission computer tomographic apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04290982A (en) * 1991-03-19 1992-10-15 Hitachi Medical Corp Radial type tomographic device
JP2006262962A (en) * 2005-03-22 2006-10-05 Shimadzu Corp Nuclear medicine diagnostic apparatus and diagnostic system used therein
JP2010169542A (en) * 2009-01-23 2010-08-05 Hitachi Ltd Tomographic image information generation method of positron emission tomographic device, and positron emission tomographic device
JP2012011181A (en) * 2010-06-03 2012-01-19 Toshiba Corp Medical image diagnosis apparatus and image reconstruction method
JP2012127814A (en) * 2010-12-15 2012-07-05 Fujifilm Ri Pharma Co Ltd Device, method and computer program for estimating blood flow
JP2012150114A (en) * 2011-01-20 2012-08-09 Toshiba Corp Positron emission computer tomographic apparatus and method and program implemented by positron emission computer tomographic apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陣之内正史: "PET/CT・PETの最新情報 1.GE社Discovery PET/CT 600 Motionの使用経験〜Motion Free PET/CTの有用性〜", PET JOURNAL, JPN6020025806, December 2009 (2009-12-01), pages 10 - 12, ISSN: 0004310649 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019049477A (en) * 2017-09-11 2019-03-28 キヤノンメディカルシステムズ株式会社 Medical image diagnostic apparatus
JP7005240B2 (en) 2017-09-11 2022-01-21 キヤノンメディカルシステムズ株式会社 Medical diagnostic imaging equipment
CN112351738A (en) * 2018-06-22 2021-02-09 美国西门子医疗系统股份有限公司 Patient adaptive nuclear imaging
JP2021529308A (en) * 2018-06-22 2021-10-28 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッドSiemens Medical Solutions USA,Inc. Patient-adaptive radioimaging
US20220164612A1 (en) * 2018-06-22 2022-05-26 Siemens Medical Solutions Usa, Inc. Patient-Adaptive Nuclear Imaging
US11574154B2 (en) 2018-06-22 2023-02-07 Siemens Medical Solutions Usa, Inc. Patient-adaptive nuclear imaging
JP7263402B2 (en) 2018-06-22 2023-04-24 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Patient-adaptive radioimaging
JP2021532372A (en) * 2018-08-29 2021-11-25 シャンドン マディク テクノロジー カンパニー リミテッドShandong Madic Technology Co., Ltd. A detector that combines PET and CT for the whole body, and its device and method.
JP7144916B2 (en) 2018-08-29 2022-09-30 シャンドン マディク テクノロジー カンパニー リミテッド Combined whole body PET and CT detector, and apparatus and method thereof
US11660060B2 (en) 2018-08-29 2023-05-30 Shandong Madic Technology Co., Ltd. Whole body PET and CT combined device
JP2022505451A (en) * 2018-10-23 2022-01-14 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Reconstruction of active images using anatomical data
JP7312820B2 (en) 2018-10-23 2023-07-21 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Active image reconstruction using anatomical data

Also Published As

Publication number Publication date
JP6815167B2 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
JP5813994B2 (en) Medical image diagnostic apparatus and image reconstruction method
JP3800101B2 (en) Tomographic image creating apparatus, tomographic image creating method and radiation inspection apparatus
US9014330B2 (en) Radiation diagnostic apparatus and control method
US10219765B2 (en) Nuclear medicine diagnostic apparatus and control method thereof
JP6662880B2 (en) Radiation emission imaging system, storage medium, and imaging method
JP6815167B2 (en) Medical image diagnostic system, morphological image diagnostic device and nuclear medicine diagnostic imaging device
EP3370619B1 (en) Tomography apparatus and method of reconstructing tomography image thereof
JP2021018109A (en) Medical image processing apparatus, medical image diagnostic apparatus, and nuclear medicine diagnostic apparatus
JP5804681B2 (en) Radiation imaging apparatus and image processing apparatus
US20170119322A1 (en) Medical image diagnosis system, structural image diagnosis apparatus, and nuclear medical image diagnosis apparatus
US20120259196A1 (en) Medical image diagnostic apparatus and control method
JP6021347B2 (en) Medical image capturing apparatus and medical image capturing method
JP6668085B2 (en) Medical image diagnostic apparatus and medical image processing apparatus
JP4997575B2 (en) Attenuation coefficient map creation apparatus, attenuation coefficient map creation method and program
EP2565679A1 (en) Nuclear medicine imaging device and control method
US20150216486A1 (en) Nuclear medical imaging apparatus and controlling method
JP6682243B2 (en) Medical image diagnostic apparatus, image processing apparatus, and image processing method
JP6184075B2 (en) PET-CT apparatus and image processing apparatus
US20160203621A1 (en) Medical diagnostic imaging apparatus, image processing apparatus and image processing method
JP6556460B2 (en) Medical image processing apparatus and medical image processing method
US20220287670A1 (en) Partial Scan and Reconstruction for a Positron Emission Tomography System
JP2013085622A (en) Medical image diagnostic apparatus, medical image display device, and control program
JP6000550B2 (en) Single photon emission tomography apparatus and single photon emission tomography program
JP2016220967A (en) X-ray ct apparatus, radiation diagnostic apparatus, and image processing apparatus
JP2023129000A (en) Medical image diagnostic apparatus, reconstitution method, and reconstitution program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201222

R150 Certificate of patent or registration of utility model

Ref document number: 6815167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150