JP6073558B2 - Medical diagnostic imaging equipment - Google Patents

Medical diagnostic imaging equipment Download PDF

Info

Publication number
JP6073558B2
JP6073558B2 JP2012029298A JP2012029298A JP6073558B2 JP 6073558 B2 JP6073558 B2 JP 6073558B2 JP 2012029298 A JP2012029298 A JP 2012029298A JP 2012029298 A JP2012029298 A JP 2012029298A JP 6073558 B2 JP6073558 B2 JP 6073558B2
Authority
JP
Japan
Prior art keywords
image
unit
information
vivo
pain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012029298A
Other languages
Japanese (ja)
Other versions
JP2013165754A (en
Inventor
達也 木本
達也 木本
和正 荒木田
和正 荒木田
池田 佳弘
佳弘 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Medical Systems Corp filed Critical Toshiba Medical Systems Corp
Priority to JP2012029298A priority Critical patent/JP6073558B2/en
Priority to CN201310047413.0A priority patent/CN103239253B/en
Priority to CN201310047941.6A priority patent/CN103239254B/en
Priority to US13/766,184 priority patent/US9655581B2/en
Priority to US13/766,983 priority patent/US9050054B2/en
Publication of JP2013165754A publication Critical patent/JP2013165754A/en
Application granted granted Critical
Publication of JP6073558B2 publication Critical patent/JP6073558B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明の実施形態は医用画像診断装置に関する。   Embodiments described herein relate generally to a medical image diagnostic apparatus.

医用画像診断装置は被検体の内部を表す画像を取得する装置である。医用画像診断装置としては、X線CT(Computed Tomography)装置やX線撮影装置が知られている。   A medical image diagnostic apparatus is an apparatus that acquires an image representing the inside of a subject. As medical image diagnostic apparatuses, X-ray CT (Computed Tomography) apparatuses and X-ray imaging apparatuses are known.

X線CT装置は、被検体をX線でスキャンしてデータを収集し、収集されたデータをコンピュータで処理することにより、被検体の内部を画像化する装置である。具体的には、X線CT装置は、被検体に対してX線を異なる方向から複数回曝射し、被検体を透過したX線をX線検出器にて検出して複数の検出データを収集する。収集された検出データはデータ収集部によりA/D変換された後、データ処理系に送信される。データ処理系は、検出データに前処理等を施すことで投影データを形成する。続いて、データ処理系は、投影データに基づく再構成処理を実行して断層画像データを形成する。   An X-ray CT apparatus is an apparatus that scans a subject with X-rays, collects data, and processes the collected data with a computer, thereby imaging the inside of the subject. Specifically, the X-ray CT apparatus emits X-rays to a subject a plurality of times from different directions, detects X-rays transmitted through the subject with an X-ray detector, and generates a plurality of detection data. collect. The collected detection data is A / D converted by the data collection unit and then transmitted to the data processing system. The data processing system forms projection data by pre-processing the detection data. Subsequently, the data processing system executes a reconstruction process based on the projection data to form tomographic image data.

また、データ処理系は、更なる再構成処理として、複数の断層画像データに基づきボリュームデータを形成する。ボリュームデータは、被検体の3次元領域に対応するCT値の3次元分布を表すデータセットである。ボリュームデータを取得する場合には、多列型X線検出器を用いたボリュームスキャンが適用される。また、ボリュームスキャンを反復して行うことにより、時相の異なる複数のボリュームデータを取得することができる(4Dスキャン)。   The data processing system forms volume data based on a plurality of tomographic image data as further reconstruction processing. The volume data is a data set representing a three-dimensional distribution of CT values corresponding to a three-dimensional region of the subject. When acquiring volume data, volume scanning using a multi-row X-ray detector is applied. Also, by repeatedly performing the volume scan, a plurality of volume data having different time phases can be acquired (4D scan).

X線CT装置は、ボリュームデータを任意の方向にレンダリングすることによりMPR(Multi Planar Reconstruction)表示を行うことができる。MPR表示された断面画像(MPR画像)には、直交3軸画像とオブリーク画像がある。直交3軸画像とは、体軸に対する直交断面を示すアキシャル像、体軸に沿って被検体を縦切りした断面を示すサジタル像、及び、体軸に沿って被検体を横切りした断面を示すコロナル像を示す。オブリーク画像は、直交3軸画像以外の断面を示す画像である。また、X線CT装置は、任意の視線を設定してボリュームデータをレンダリングすることで、この視線から被検体の3次元領域を見たときの擬似的3次元画像を形成する。   The X-ray CT apparatus can perform MPR (Multi Planar Reconstruction) display by rendering volume data in an arbitrary direction. The cross-sectional image (MPR image) displayed in MPR includes an orthogonal three-axis image and an oblique image. An orthogonal triaxial image is an axial image showing a cross section orthogonal to the body axis, a sagittal image showing a cross section of the subject along the body axis, and a coronal showing a cross section of the subject along the body axis. Show the image. The oblique image is an image showing a cross section other than the orthogonal three-axis image. Further, the X-ray CT apparatus renders volume data by setting an arbitrary line of sight, thereby forming a pseudo 3D image when the 3D region of the subject is viewed from this line of sight.

また、X線撮影装置は、被検体にX線を照射し、その透過X線を2次元X線検出器で検出することで、被検体の内部を画像化する装置である。X線撮影装置による撮影方法には、単発のX線照射により静止画像を得る通常撮影と、X線を連続的に又は間欠的に照射して動画像を得る透視撮影がある。   The X-ray imaging apparatus is an apparatus that images the inside of the subject by irradiating the subject with X-rays and detecting the transmitted X-rays with a two-dimensional X-ray detector. Imaging methods using an X-ray imaging apparatus include normal imaging for obtaining a still image by single X-ray irradiation and fluoroscopic imaging for obtaining a moving image by irradiating X-rays continuously or intermittently.

特開2010−259653号公報JP 2010-259653 A 特開2011−4966号公報JP 2011-4966 A

X線CT装置のボリュームスキャン及び4Dスキャン、並びにX線撮影装置の透視撮影は、関節の動作状態を観察するために使用される。特に、4Dスキャンや透視撮影は、関節を動作させながらの連続撮影に用いられる。このような関節の検査において、関節の動作状態と患者が痛みを感じるタイミングとの関係を把握することが望まれている。つまり、関節をどのように曲げた状態で痛みが発生しているかを把握することが望まれている。   Volume scanning and 4D scanning of the X-ray CT apparatus and fluoroscopic imaging of the X-ray imaging apparatus are used for observing the motion state of the joint. In particular, 4D scanning and fluoroscopic imaging are used for continuous imaging while operating a joint. In such joint examinations, it is desired to grasp the relationship between the operation state of the joint and the timing at which the patient feels pain. That is, it is desired to grasp how pain is generated in a state where the joint is bent.

他の診療分野においても、身体の動作状態と生体反応(生活反応)の発生タイミングとの関係を把握することが望まれている。たとえば、体位に応じた痛みの状態の変化を把握したい場合がある。しかし、従来の医用画像診断装置では、このような情報を得ることができなかった。   In other medical fields as well, it is desired to grasp the relationship between the action state of the body and the occurrence timing of a biological reaction (life reaction). For example, there is a case where it is desired to grasp a change in the pain state according to the body position. However, such information cannot be obtained by the conventional medical image diagnostic apparatus.

この発明が解決しようとする課題は、身体の動作状態と生体反応の発生タイミングとの関係を得ることが可能な医用画像診断装置を提供することである。   The problem to be solved by the present invention is to provide a medical image diagnostic apparatus capable of obtaining the relationship between the motion state of the body and the generation timing of the biological reaction.

第1の実施形態に係る医用画像診断装置は、被検体の所定部位にX線を連続的に又は間欠的に照射して時相の異なる複数の体内画像を取得する体内画像取得部と、前記被検体の特定の状態における生体反応の発生を表す発生情報を入力する入力部と、少なくとも前記発生情報の入力に対応する撮影タイミングで前記所定部位を撮影して外観画像を取得する外観画像取得部と、前記撮影タイミングにおける外観画像を解析して前記所定部位の形状を表す第1の部位形状情報を取得し、かつ前記複数の体内画像を解析して前記所定部位の形状を表す第2の部位形状情報を取得し、取得された複数の前記第2の部位形状情報のうち前記第1の部位形状情報と実質的に一致する第2の形状情報に対応する体内画像を特定する特定部と、記憶部と、特定された体内画像と前記撮影タイミングで取得された外観画像とを関連付けて前記記憶部に記憶させるとともに、画像を表示する指示を受けて、特定された体内画像を表示部に表示させる制御部と、を有する。The medical image diagnostic apparatus according to the first embodiment includes an in-vivo image acquiring unit that acquires a plurality of in-vivo images having different time phases by continuously or intermittently irradiating a predetermined part of a subject with X-rays, An input unit that inputs generation information representing the occurrence of a biological reaction in a specific state of the subject, and an appearance image acquisition unit that acquires an appearance image by imaging the predetermined part at least at an imaging timing corresponding to the input of the generation information A first part shape information representing the shape of the predetermined part by analyzing an appearance image at the imaging timing, and a second part representing the shape of the predetermined part by analyzing the plurality of in-vivo images A specifying unit that acquires shape information and specifies an in-vivo image corresponding to second shape information that substantially matches the first part shape information among the plurality of second part shape information acquired; Memory part and specific A control unit that associates the stored in-vivo image with the appearance image acquired at the photographing timing and stores it in the storage unit, receives an instruction to display the image, and causes the display unit to display the identified in-vivo image; Have
また、第2の実施形態に係る医用画像診断装置は、被検体の所定部位にX線を連続的に又は間欠的に照射して時相の異なる複数の体内画像を取得する体内画像取得部と、前記被検体の特定の状態における生体反応の発生を表す発生情報を入力する入力部と、少なくとも前記発生情報の入力に対応する撮影タイミングで、前記体内画像を取得する方向とほぼ同じ方向から前記所定部位を撮影して外観画像を取得する外観画像取得部と、前記体内画像取得部が前記体内画像を取得中に、前記発生情報の入力と実質的に同時に取得された体内画像を特定する特定部と、記憶部と、特定された体内画像と前記撮影タイミングで取得された外観画像とを関連付けて前記記憶部に記憶させるとともに、画像を表示する指示を受けて、特定された体内画像または前記撮影タイミングで取得された外観画像もしくはそれら双方を表示部に表示させる制御部と、を有する。Further, the medical image diagnostic apparatus according to the second embodiment includes an in-vivo image acquiring unit that acquires a plurality of in-vivo images having different time phases by continuously or intermittently irradiating a predetermined part of a subject with X-rays. An input unit that inputs generation information indicating the occurrence of a biological reaction in a specific state of the subject, and at least at the imaging timing corresponding to the input of the generation information, the direction from which the in-vivo image is acquired is substantially the same as An appearance image acquisition unit that captures a predetermined part to acquire an appearance image, and a specification that identifies the in-vivo image acquired substantially simultaneously with the generation information input while the in-vivo image acquisition unit acquires the in-vivo image And the storage unit, the identified in-vivo image and the appearance image acquired at the photographing timing are associated with each other and stored in the storage unit, and in response to an instruction to display the image, Has a control unit for displaying on the display unit the appearance image or both those obtained by the photographing timing.

実施形態に係る医用画像診断装置(X線CT装置)の構成を表すブロック図である。It is a block diagram showing the structure of the medical image diagnostic apparatus (X-ray CT apparatus) which concerns on embodiment. 実施形態に係る医用画像診断装置(X線CT装置)の構成を表すブロック図である。It is a block diagram showing the structure of the medical image diagnostic apparatus (X-ray CT apparatus) which concerns on embodiment. 実施形態に係る医用画像診断装置(X線CT装置)が実行する処理を説明するための概略図である。It is the schematic for demonstrating the process which the medical image diagnostic apparatus (X-ray CT apparatus) which concerns on embodiment performs. 実施形態に係る医用画像診断装置(X線CT装置)の動作例を表すフローチャートである。It is a flowchart showing the operation example of the medical image diagnostic apparatus (X-ray CT apparatus) which concerns on embodiment. 実施形態に係る医用画像診断装置(X線CT装置)の動作例を表すフローチャートである。It is a flowchart showing the operation example of the medical image diagnostic apparatus (X-ray CT apparatus) which concerns on embodiment. 変形例に係る医用画像診断装置の構成を表すブロック図である。It is a block diagram showing the structure of the medical image diagnostic apparatus which concerns on a modification. 変形例に係る医用画像診断装置の動作を表すフローチャートである。It is a flowchart showing operation | movement of the medical image diagnostic apparatus which concerns on a modification. 変形例に係る医用画像診断装置の動作を表すフローチャートである。It is a flowchart showing operation | movement of the medical image diagnostic apparatus which concerns on a modification. 変形例に係る医用画像診断装置の構成を表すブロック図である。It is a block diagram showing the structure of the medical image diagnostic apparatus which concerns on a modification. 変形例に係る医用画像診断装置による表示態様を表す概略図である。It is the schematic showing the display mode by the medical image diagnostic apparatus which concerns on a modification. 変形例に係る医用画像診断装置の構成を表すブロック図である。It is a block diagram showing the structure of the medical image diagnostic apparatus which concerns on a modification. 変形例に係る医用画像診断装置による表示態様を表す概略図である。It is the schematic showing the display mode by the medical image diagnostic apparatus which concerns on a modification.

実施形態に係る医用画像診断装置について図面を参照しながら説明する。以下、X線CTとX線撮影装置の例を説明する。   A medical image diagnostic apparatus according to an embodiment will be described with reference to the drawings. Hereinafter, examples of the X-ray CT and the X-ray imaging apparatus will be described.

[構成]
図1及び図2を参照して、実施形態に係るX線CT装置1の構成例を説明する。なお、「画像」と「画像データ」を同一視することがある。
[Constitution]
With reference to FIG.1 and FIG.2, the structural example of the X-ray CT apparatus 1 which concerns on embodiment is demonstrated. Note that “image” and “image data” may be identified with each other.

図1は、X線CT装置1の全体構成を表す。図2では、CT画像の取得に関する部分をまとめて体内画像取得部100と表している。体内画像取得部100は、図1の架台装置10、寝台装置30、スキャン制御部42、前処理部431及び再構成処理部432を含んで構成される。また、再構成処理部432がボリュームデータを形成する場合、体内画像取得部100はレンダリング処理部433も含む。   FIG. 1 shows the overall configuration of the X-ray CT apparatus 1. In FIG. 2, the parts related to the acquisition of the CT image are collectively represented as the in-vivo image acquisition unit 100. The in-vivo image acquisition unit 100 includes the gantry device 10, the couch device 30, the scan control unit 42, the preprocessing unit 431, and the reconstruction processing unit 432 in FIG. 1. When the reconstruction processing unit 432 forms volume data, the in-vivo image acquisition unit 100 also includes a rendering processing unit 433.

図1に示すように、X線CT装置1は、架台装置10と、寝台装置30と、コンソール装置40と、外観画像取得部50とを含んで構成される。   As shown in FIG. 1, the X-ray CT apparatus 1 includes a gantry device 10, a bed device 30, a console device 40, and an appearance image acquisition unit 50.

(架台装置)
架台装置10は、被検体Eに対してX線を曝射し、被検体Eを透過したX線の検出データを収集する装置である。架台装置10は、X線発生部11と、X線検出部12と、回転体13と、高電圧発生部14と、架台駆動部15と、X線絞り部16と、絞り駆動部17と、データ収集部18とを有する。
(Mounting device)
The gantry device 10 is an apparatus that irradiates the subject E with X-rays and collects X-ray detection data transmitted through the subject E. The gantry device 10 includes an X-ray generator 11, an X-ray detector 12, a rotating body 13, a high voltage generator 14, a gantry driver 15, an X-ray diaphragm 16, a diaphragm driver 17, And a data collection unit 18.

X線発生部11は、X線を発生させるX線管球(たとえば、円錐状や角錐状のビームを発生する真空管。図示なし)を含んで構成される。発生されたX線は被検体Eに対して曝射される。   The X-ray generator 11 includes an X-ray tube that generates X-rays (for example, a vacuum tube that generates a cone-shaped or pyramid-shaped beam (not shown)). The generated X-rays are exposed to the subject E.

X線検出部12は、複数のX線検出素子(図示なし)を含んで構成される。X線検出部12は、被検体Eを透過したX線の強度分布を示すX線強度分布データ(以下、「検出データ」という場合がある)をX線検出素子で検出し、その検出データを電流信号として出力する。   The X-ray detection unit 12 includes a plurality of X-ray detection elements (not shown). The X-ray detection unit 12 detects X-ray intensity distribution data (hereinafter sometimes referred to as “detection data”) indicating the intensity distribution of X-rays transmitted through the subject E with an X-ray detection element, and the detection data is Output as a current signal.

X線検出部12としては、たとえば、互いに直交する2方向(スライス方向とチャンネル方向)にそれぞれ複数の検出素子が配置された2次元X線検出器(面検出器)が用いられる。複数のX線検出素子は、たとえば、スライス方向に沿って320列設けられている。このように多列のX線検出器を用いることにより、1回転のスキャンでスライス方向に幅を有する3次元の領域を撮影することができる(ボリュームスキャン)。なお、スライス方向は被検体Eの体軸方向に相当し、チャンネル方向はX線発生部11の回転方向に相当する。   As the X-ray detection unit 12, for example, a two-dimensional X-ray detector (surface detector) in which a plurality of detection elements are arranged in two directions (slice direction and channel direction) orthogonal to each other is used. The plurality of X-ray detection elements are provided, for example, in 320 rows along the slice direction. By using a multi-row X-ray detector in this way, a three-dimensional region having a width in the slice direction can be imaged with one scan (volume scan). The slice direction corresponds to the body axis direction of the subject E, and the channel direction corresponds to the rotation direction of the X-ray generation unit 11.

回転体13は、X線発生部11とX線検出部12とを被検体Eを挟んで対向する位置に支持する部材である。回転体13は、スライス方向に貫通した開口部を有する。開口部には、被検体Eが載置された天板が挿入される。回転体13は、架台駆動部15によって、被検体Eを中心とした円軌道に沿って回転される。   The rotating body 13 is a member that supports the X-ray generation unit 11 and the X-ray detection unit 12 at positions facing each other with the subject E interposed therebetween. The rotating body 13 has an opening that penetrates in the slice direction. A top plate on which the subject E is placed is inserted into the opening. The rotating body 13 is rotated along a circular orbit centered on the subject E by the gantry driving unit 15.

高電圧発生部14は、X線発生部11に対して高電圧を印加する。X線発生部11は、この高電圧に基づいてX線を発生させる。X線絞り部16は、スリット(開口)を形成し、このスリットのサイズ及び形状を変えることで、X線発生部11から出力されたX線のファン角(チャンネル方向の広がり角)とX線のコーン角(スライス方向の広がり角)とを調整する。絞り駆動部17は、X線絞り部16を駆動して、スリットのサイズ及び形状を変更する。   The high voltage generator 14 applies a high voltage to the X-ray generator 11. The X-ray generator 11 generates X-rays based on this high voltage. The X-ray diaphragm unit 16 forms a slit (opening), and changes the size and shape of the slit so that the X-ray fan angle (divergence angle in the channel direction) output from the X-ray generation unit 11 and the X-rays are changed. Adjust the cone angle (spreading angle in the slice direction). The diaphragm drive unit 17 drives the X-ray diaphragm unit 16 to change the size and shape of the slit.

データ収集部18(DAS:Data Acquisition System)は、X線検出部12(各X線検出素子)からの検出データを収集する。更に、データ収集部18は、収集された検出データ(電流信号)を電圧信号に変換し、この電圧信号を周期的に積分して増幅し、デジタル信号に変換する。そして、データ収集部18は、デジタル信号に変換された検出データをコンソール装置40に送信する。   A data collection unit 18 (DAS: Data Acquisition System) collects detection data from the X-ray detection unit 12 (each X-ray detection element). Further, the data collection unit 18 converts the collected detection data (current signal) into a voltage signal, periodically integrates and amplifies the voltage signal, and converts it into a digital signal. Then, the data collecting unit 18 transmits the detection data converted into the digital signal to the console device 40.

(寝台装置)
寝台装置30の天板(図示せず)には被検体Eが載置される。寝台装置30は、天板に載置された被検体Eを、その体軸方向に移動させる。また、寝台装置30は、天板を上下方向に移動させる。
(Bed apparatus)
A subject E is placed on a top plate (not shown) of the bed apparatus 30. The couch device 30 moves the subject E placed on the top plate in the body axis direction. Moreover, the couch device 30 moves the top plate in the vertical direction.

(コンソール装置)
コンソール装置40は、X線CT装置1に対する操作入力に用いられる。また、コンソール装置40は、架台装置10から入力された検出データから被検体Eの内部形態を表すCT画像データ(断層画像データやボリュームデータ)を再構成する。コンソール装置40は、制御部41と、スキャン制御部42と、処理部43と、記憶部44と、表示部45と、操作部46とを含んで構成される。
(Console device)
The console device 40 is used for operation input to the X-ray CT apparatus 1. Further, the console device 40 reconstructs CT image data (tomographic image data and volume data) representing the internal form of the subject E from the detection data input from the gantry device 10. The console device 40 includes a control unit 41, a scan control unit 42, a processing unit 43, a storage unit 44, a display unit 45, and an operation unit 46.

制御部41、スキャン制御部42及び処理部43は、たとえば処理装置と記憶装置を含んで構成される。処理装置としては、たとえば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、又はASIC(Application Specific Integrated Circuit)が用いられる。記憶装置は、たとえば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)を含んで構成される。   The control unit 41, the scan control unit 42, and the processing unit 43 include, for example, a processing device and a storage device. As the processing apparatus, for example, a CPU (Central Processing Unit), a GPU (Graphic Processing Unit), or an ASIC (Application Specific Integrated Circuit) is used. The storage device is configured to include, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disc Drive).

記憶装置には、X線CT装置1の各部の機能を実行するためのコンピュータプログラムが記憶されている。処理装置は、これらコンピュータプログラムを実行することで、上記機能を実現する。制御部41は、装置各部を制御する。   The storage device stores a computer program for executing the function of each unit of the X-ray CT apparatus 1. The processing device implements the above functions by executing these computer programs. The control unit 41 controls each unit of the apparatus.

スキャン制御部42は、X線によるスキャンに関する動作を統合的に制御する。この統合的な制御は、高電圧発生部14の制御と、架台駆動部15の制御と、絞り駆動部17の制御と、寝台装置30の制御とを含む。   The scan control unit 42 integrally controls operations related to X-ray scanning. This integrated control includes control of the high voltage generation unit 14, control of the gantry driving unit 15, control of the aperture driving unit 17, and control of the bed apparatus 30.

高電圧発生部14の制御は、X線発生部11に対して所定の高電圧を所定のタイミングで印加させるように高電圧発生部14を制御するものである。架台駆動部15の制御は、所定のタイミング及び所定の速度で回転体13を回転駆動させるように架台駆動部15を制御するものである。絞り制御部17の制御は、X線絞り部16が所定のサイズ及び形状のスリットを形成するように絞り駆動部17を制御するものである。寝台装置30の制御は、所定の位置に所定のタイミングで天板を移動させるように寝台装置30を制御するものである。   The control of the high voltage generator 14 is to control the high voltage generator 14 so that a predetermined high voltage is applied to the X-ray generator 11 at a predetermined timing. The control of the gantry driving unit 15 controls the gantry driving unit 15 so as to rotationally drive the rotating body 13 at a predetermined timing and a predetermined speed. The control of the diaphragm control unit 17 controls the diaphragm driving unit 17 so that the X-ray diaphragm unit 16 forms a slit having a predetermined size and shape. The control of the couch device 30 is to control the couch device 30 so that the top plate is moved to a predetermined position at a predetermined timing.

なお、ボリュームスキャンでは、天板の位置を固定した状態でスキャンが実行される。また、ヘリカルスキャンでは、天板を移動させながらスキャンが実行される。   In the volume scan, the scan is executed with the position of the top plate fixed. In the helical scan, the scan is executed while moving the top plate.

処理部43は、架台装置10(データ収集部18)から入力されたデータと、外観画像取得部50から入力されたデータに対して、各種処理を実行する。処理部42は、前処理部431と、再構成処理部432と、レンダリング処理部433と、画像特定部434とを含んで構成される。   The processing unit 43 performs various processes on the data input from the gantry device 10 (data collection unit 18) and the data input from the appearance image acquisition unit 50. The processing unit 42 includes a preprocessing unit 431, a reconstruction processing unit 432, a rendering processing unit 433, and an image specifying unit 434.

前処理部431は、架台装置10からの検出データに対して対数変換処理、オフセット補正、感度補正、ビームハードニング補正等を含む前処理を行って、投影データを生成する。   The preprocessing unit 431 performs preprocessing including logarithmic conversion processing, offset correction, sensitivity correction, beam hardening correction, and the like on the detection data from the gantry device 10 to generate projection data.

再構成処理部432は、前処理部431により生成された投影データに基づいて、CT画像データ(断層画像データやボリュームデータ)を生成する。断層画像データの再構成処理としては、たとえば、2次元フーリエ変換法、コンボリューション・バックプロジェクション法等、任意の方法を適用することができる。   The reconstruction processing unit 432 generates CT image data (tomographic image data or volume data) based on the projection data generated by the preprocessing unit 431. As the reconstruction processing of the tomographic image data, for example, any method such as a two-dimensional Fourier transform method or a convolution / back projection method can be applied.

ボリュームデータは、再構成された複数の断層画像データを補間処理することにより生成される。ボリュームデータの再構成処理としては、たとえば、コーンビーム再構成法、マルチスライス再構成法、拡大再構成法等、任意の方法を適用することができる。上述した多列のX線検出器を用いたボリュームスキャンにおいては、広範囲のボリュームデータを再構成することができる。   The volume data is generated by interpolating a plurality of reconstructed tomographic image data. As volume data reconstruction processing, for example, an arbitrary method such as a cone beam reconstruction method, a multi-slice reconstruction method, an enlargement reconstruction method, or the like can be applied. In the volume scan using the multi-row X-ray detector described above, a wide range of volume data can be reconstructed.

レンダリング処理部433は、たとえば、MPR処理とボリュームレンダリングを実行可能である。MPR処理は、再構成処理部432により生成されたボリュームデータに任意の断面を設定してレンダリング処理を施すことにより、この断面を表すMPR画像データを生成する画像処理である。ボリュームレンダリングは、任意の視線(レイ)に沿ってボリュームデータをサンプリングし、その値(CT値)を加算していくことにより、被検体Eの3次元領域を表す擬似的3次元画像データを生成する画像処理である。   The rendering processing unit 433 can execute, for example, MPR processing and volume rendering. The MPR process is an image process for generating MPR image data representing a section by setting an arbitrary section to the volume data generated by the reconstruction processing unit 432 and performing a rendering process. Volume rendering generates pseudo three-dimensional image data representing the three-dimensional region of the subject E by sampling volume data along an arbitrary line of sight (ray) and adding the values (CT values). Image processing.

(画像特定部)
まず、画像特定部434が実行する処理の前提となる事項について説明する。再構成処理部432により形成された画像(CT画像)を体内画像と呼び、外観画像取得部50により取得された画像を外観画像と呼ぶ。体内画像とは、被検体Eの体内を描写した画像である。また、外観画像とは、被検体Eの外観を描写した画像である。
(Image identification part)
First, the premise of the process executed by the image specifying unit 434 will be described. An image (CT image) formed by the reconstruction processing unit 432 is called an in-vivo image, and an image acquired by the appearance image acquisition unit 50 is called an appearance image. The in-vivo image is an image depicting the inside of the subject E. The appearance image is an image depicting the appearance of the subject E.

体内画像取得部100は、被検体Eの所定部位にX線を連続的に又は間欠的に照射して複数の体内画像を取得する。この所定部位はたとえば関節部位である。複数の体内画像としては、4Dスキャンにより得られる時系列に沿う複数のボリュームデータ、これらボリュームデータをレンダリングして得られる時系列に沿う複数の断層像又は擬似的3次元画像、所定断面を反復的にスキャンして得られる時系列に沿う複数の断層像などがある。   The in-vivo image acquisition unit 100 acquires a plurality of in-vivo images by irradiating a predetermined part of the subject E with X-rays continuously or intermittently. This predetermined part is, for example, a joint part. As a plurality of in-vivo images, a plurality of volume data along a time series obtained by 4D scanning, a plurality of tomographic images or pseudo three-dimensional images along a time series obtained by rendering these volume data, and a predetermined cross section are repetitive. There are a plurality of tomographic images along the time series obtained by scanning.

操作部46は、被検体Eの生体反応の発生を表す発生情報の入力に用いられる。この生体反応としては、痛みに伴い発生するものがある。痛みに伴い発生する生体反応の例として、痛みの認識、発声、表情の変化、呼吸の変化、発汗の変化、心電図の変化、血圧の変化、筋電図の変化、脳波の変化、瞳孔径の変化などがある。   The operation unit 46 is used to input generation information indicating the occurrence of a biological reaction of the subject E. Some of these biological reactions occur with pain. Examples of biological reactions that occur with pain include pain recognition, vocalization, facial expression changes, respiratory changes, sweating changes, electrocardiographic changes, blood pressure changes, electromyogram changes, brain wave changes, pupil diameter changes There are changes.

操作部46の操作者は、このような生体反応の発生に対応して操作部46を操作する。操作を受けた操作部46は、発生情報としての信号を制御部41に入力する。なお、操作者は、被検体E(患者)又はその他の者(医師、看護師、放射線技師等)である。   The operator of the operation unit 46 operates the operation unit 46 in response to the occurrence of such a biological reaction. Upon receiving the operation, the operation unit 46 inputs a signal as generation information to the control unit 41. The operator is the subject E (patient) or another person (doctor, nurse, radiographer, etc.).

外観画像取得部50は、少なくとも発生情報の入力に対応する撮影タイミングで、被検体Eの所定部位を撮影して外観画像を取得する。この撮影は、静止画撮影でも動画撮影でもよい。外観画像取得部50の詳細については後述する。   The appearance image acquisition unit 50 acquires an appearance image by imaging a predetermined part of the subject E at least at the imaging timing corresponding to the input of the occurrence information. This shooting may be a still image shooting or a moving image shooting. Details of the appearance image acquisition unit 50 will be described later.

以上の準備の下、画像特定部434について説明する。画像特定部434は、体内画像取得部100により取得された複数の体内画像のうち、発生情報の入力と実質的に同時に取得された体内画像を特定する。制御部41は、特定された体内画像と、生体反応の発生情報の入力に対応する撮影タイミングで取得された外観画像とを関連付けて、記憶部44に記憶させる。   With the above preparation, the image specifying unit 434 will be described. The image specifying unit 434 specifies the in-vivo image acquired substantially simultaneously with the input of the generation information among the plurality of in-vivo images acquired by the in-vivo image acquiring unit 100. The control unit 41 associates the identified in-vivo image with the appearance image acquired at the imaging timing corresponding to the input of the biological reaction occurrence information, and causes the storage unit 44 to store the associated in-vivo image.

また、外観画像取得部50が動画撮影を行う場合、又は複数回の静止画撮影を行う場合、画像特定部434は、上記した体内画像の特定とともに、動画撮影により順次取得される外観画像のうち、生体反応の発生情報の入力と実質的に同時に取得された外観画像を特定する。外観画像の特定処理は、体内画像の特定処理と同様にして実行できる。制御部41は、それぞれ特定された体内画像及び外観画像を関連付けて、記憶部44に記憶させる。   In addition, when the appearance image acquisition unit 50 performs moving image shooting, or when performing multiple times of still image shooting, the image specifying unit 434 specifies the in-vivo images described above, and among the appearance images sequentially acquired by moving image shooting, The appearance image acquired substantially simultaneously with the input of the biological reaction occurrence information is specified. The appearance image specifying process can be executed in the same manner as the in-vivo image specifying process. The control unit 41 stores the identified in-vivo image and appearance image in the storage unit 44 in association with each other.

「実質的に同時」とは、完全に同時の場合だけでなく、所定の誤差を許容するものである。この誤差は、たとえば体内画像及び/又は外観画像の取得間隔に応じて決定される。画像特定部434が実行する処理の例を説明する。以下の例では、検査対象は被検体Eの所定の関節部位とする。体内画像と外観画像は、この関節部位を含む範囲を撮影して得られる。   “Substantially simultaneous” means that not only the case of completely simultaneous but also a predetermined error is allowed. This error is determined according to, for example, the acquisition interval of the in-vivo image and / or the appearance image. An example of processing executed by the image specifying unit 434 will be described. In the following example, the examination target is a predetermined joint part of the subject E. The in-vivo image and the appearance image are obtained by photographing the range including the joint part.

第1の処理例が適用される場合、画像特定部434は解析部435を有する(図2を参照)。解析部435は、外観画像取得部50により取得された外観画像を解析することで、関節部位の形状を示す第1の形状情報を取得する。更に、解析部435は、体内画像取得部100により取得された複数の体内画像のそれぞれを解析することで、その体内画像に描画された当該関節部位の形状を示す第2の形状情報を取得する。   When the first processing example is applied, the image specifying unit 434 includes an analysis unit 435 (see FIG. 2). The analysis unit 435 acquires first shape information indicating the shape of the joint part by analyzing the appearance image acquired by the appearance image acquisition unit 50. Furthermore, the analysis unit 435 analyzes each of the plurality of in-vivo images acquired by the in-vivo image acquisition unit 100, thereby acquiring second shape information indicating the shape of the joint part drawn in the in-vivo image. .

ここで、体内画像と外観画像は、(ほぼ)同じ方向から関節部位を描画したものである。これを実現する方法として、体内画像の描画方向に応じて外観画像の描画方向を合わせることもできるし、その逆も可能である。前者は、X線撮影装置を用いる場合に適用され、たとえばX線管又はX線検出器の近傍に外観画像用の撮影装置を設けることで実現できる。   Here, the in-vivo image and the appearance image are obtained by drawing joint portions from (almost) the same direction. As a method for realizing this, the appearance image drawing direction can be adjusted according to the drawing direction of the in-vivo image, and vice versa. The former is applied when an X-ray imaging apparatus is used, and can be realized, for example, by providing an imaging apparatus for appearance images in the vicinity of an X-ray tube or an X-ray detector.

後者は、たとえばボリュームデータを形成する場合に適用され、外観画像の描画方向に応じた断面の断層像をボリュームデータからレンダリングすることで実現できる。この断面の特定方法の例として、ボリュームデータにおける当該関節部位に相当するデータ範囲を特定し、この3次元のデータ範囲のうち、外観画像における当該関節部位に相当する2次元領域の形状に(ほぼ)一致する2次元のデータ範囲を、パターンマッチング等の画像処理を用いて特定し、ボリュームデータに定義された座標系における当該2次元データ範囲の向きを目的の断面の向きとすることができる。   The latter is applied, for example, when forming volume data, and can be realized by rendering a tomographic image of a cross section corresponding to the drawing direction of the appearance image from the volume data. As an example of the method of specifying the cross section, a data range corresponding to the joint part in the volume data is specified, and the shape of the two-dimensional region corresponding to the joint part in the appearance image is substantially (of the three-dimensional data range) (almost). The matching two-dimensional data range can be specified by using image processing such as pattern matching, and the direction of the two-dimensional data range in the coordinate system defined in the volume data can be set as the target cross-sectional direction.

各形状情報は、たとえば、関節部位を含む範囲における体表の輪郭の形状を表す。この場合、解析部435は、各画像の画素値(輝度値、RGB値、CT値等)に基づいて、たとえば所定の色(皮膚の色)又は所定の形状(関節部位及びその周辺部位の形状)を有する画像領域を特定する。更に、解析部435は、この画像領域の輪郭に相当する画像領域(輪郭領域)を特定する。この場合の例として、図3にCT画像Gにおける輪郭領域Gaを示す。この輪郭領域自体又はその形状(近似形状も含む)が第1及び第2の形状情報となる。   Each shape information represents, for example, the shape of the contour of the body surface in the range including the joint part. In this case, the analysis unit 435, for example, a predetermined color (skin color) or a predetermined shape (the shape of the joint part and its peripheral part) based on the pixel value (luminance value, RGB value, CT value, etc.) of each image. ) Is specified. Further, the analysis unit 435 specifies an image region (contour region) corresponding to the contour of the image region. As an example of this case, an outline region Ga in the CT image G is shown in FIG. The contour region itself or its shape (including the approximate shape) is the first and second shape information.

形状情報は、輪郭形状には限定されず、関節部位の形状を表すものであればよい。たとえば骨の輪郭形状や芯線形状を形状情報として用いることができる。これらの場合の例として、図3にCT画像Gにおける骨の輪郭領域Gbと芯線領域Gcを示す。なお、芯線形状を用いる場合、関節部位に位置する2以上の骨の芯線が成す角度を求め、この角度情報を形状情報とすることも可能である。輪郭形状を用いる場合においても、関節部位にて接する2つの部位(たとえば肘関節においては上腕と前腕)のそれぞれの方向を輪郭形状に基づき特定し、これら2つの方向が成す角度を求め、この角度情報を形状情報とすることができる。   The shape information is not limited to the contour shape, and may be any information that represents the shape of the joint part. For example, the contour shape and the core wire shape of the bone can be used as the shape information. As an example of these cases, FIG. 3 shows a bone outline region Gb and a core region Gc in the CT image G. In addition, when using a core wire shape, it is also possible to obtain an angle formed by two or more bone core wires located at a joint site and use this angle information as shape information. Even when the contour shape is used, the directions of two parts that contact each other at the joint part (for example, the upper arm and the forearm in the elbow joint) are specified based on the contour shape, and an angle formed by these two directions is obtained. The information can be shape information.

解析部435は、体内画像取得部100により取得された複数の体内画像のそれぞれについて上記処理を施す。それにより、複数の第2の形状情報が得られる。画像特定部434は、得られた複数の第2の形状情報のうち、外観画像に基づく第1の形状情報と実質的に一致する第2の形状情報に対応する体内画像を特定する。この処理は、たとえば、双方の形状情報をパターンマッチング等の画像処理を用いて行うことができる。このようにして特定された体内画像が、生体反応の発生情報の入力と実質的に同時に取得された体内画像として用いられる。   The analysis unit 435 performs the above process on each of the plurality of in-vivo images acquired by the in-vivo image acquisition unit 100. Thereby, a plurality of pieces of second shape information are obtained. The image specifying unit 434 specifies an in-vivo image corresponding to the second shape information that substantially matches the first shape information based on the appearance image among the obtained plurality of second shape information. This processing can be performed using image processing such as pattern matching for both pieces of shape information, for example. The in-vivo image thus identified is used as the in-vivo image acquired substantially simultaneously with the input of the biological reaction occurrence information.

第2の処理例について説明する。この処理例が適用される場合にも画像特定部434は解析部435を有する(図2を参照)。解析部435は、外観画像取得部50により取得された外観画像を解析することで、この外観画像中の所定の特徴領域の位置を示す第1の特徴位置情報を取得する。更に、解析部435は、体内画像取得部100により取得された複数の体内画像のそれぞれを解析することで、その体内画像における当該特徴領域の位置を示す第2の特徴位置情報を取得する。   A second processing example will be described. Even when this processing example is applied, the image specifying unit 434 includes an analysis unit 435 (see FIG. 2). The analysis unit 435 analyzes the appearance image acquired by the appearance image acquisition unit 50, thereby acquiring first feature position information indicating the position of a predetermined feature region in the appearance image. Further, the analysis unit 435 analyzes each of the plurality of in-vivo images acquired by the in-vivo image acquisition unit 100, thereby acquiring second feature position information indicating the position of the feature region in the in-vivo image.

この特徴領域は、人体の所定部位に相当する画像領域、又は被検体Eとともに撮影された人工物に相当する画像領域である。前者の例として、所定の骨又はその所定部位、所定の臓器又はその所定部位などがある。また、後者の例として、被検体Eに貼付されたマーカ、被検体Eに挿入された挿入物(カテーテル等)、被検体Eの体内に設けられた人工物(骨接合用ボルト等)がある。   This feature region is an image region corresponding to a predetermined part of the human body or an image region corresponding to an artificial object photographed together with the subject E. Examples of the former include a predetermined bone or a predetermined part thereof, a predetermined organ or a predetermined part thereof. Examples of the latter include a marker affixed to the subject E, an insert (such as a catheter) inserted into the subject E, and an artifact (such as an osteosynthesis bolt) provided in the body of the subject E. .

特徴領域を特定する処理は、たとえば、特徴領域の形状に基づくパターンマッチング、又は特徴領域に固有の画素値(輝度値、RGB値、CT値等)に基づいて行うことが可能である。また、特定される特徴領域の個数は1つ以上の任意の個数である。2つ以上の特徴領域を特定する場合、これら特徴領域の位置関係(距離、向き等)を示す情報を特徴位置情報とすることができる。   The process of specifying the feature region can be performed based on, for example, pattern matching based on the shape of the feature region, or pixel values (luminance value, RGB value, CT value, etc.) unique to the feature region. Further, the number of specified characteristic regions is one or more arbitrary numbers. When two or more feature areas are specified, information indicating the positional relationship (distance, orientation, etc.) of these feature areas can be used as the feature position information.

また、各特徴領域は1点(1つの画素)でもよいし、複数の画素からなる画像領域であってもよい。後者の場合、この画像領域のサイズや形状を示す情報を特徴位置情報とすることができる。   Each feature region may be one point (one pixel) or an image region composed of a plurality of pixels. In the latter case, information indicating the size and shape of the image area can be used as the feature position information.

解析部435は、体内画像取得部100により取得された複数の体内画像のそれぞれについて上記処理を施す。それにより、複数の第2の特徴位置情報が得られる。画像特定部434は、得られた複数の第2の特徴位置情報と、外観画像に基づく第1の特徴位置情報とに基づいて、生体反応の発生情報の入力と実質的に同時に取得された体内画像を特定する。   The analysis unit 435 performs the above process on each of the plurality of in-vivo images acquired by the in-vivo image acquisition unit 100. Thereby, a plurality of pieces of second feature position information are obtained. The image specifying unit 434 acquires the body reaction occurrence information substantially simultaneously with the input of the biological reaction occurrence information based on the obtained second feature position information and the first feature position information based on the appearance image. Identify the image.

この処理は、たとえば、第1の特徴位置情報と第2の特徴位置情報とを比較することにより、第1の特徴位置情報に示す2以上の特徴領域の位置関係又は特徴領域のサイズ若しくは形状などと(ほぼ)同一の特徴領域を示す第2の特徴位置情報を選択することにより行うことができる。選択された第2の特徴位置情報に対応する体内画像が、生体反応の発生情報の入力と実質的に同時に取得された体内画像として用いられる。   This processing is performed by, for example, comparing the first feature position information with the second feature position information, the positional relationship between two or more feature areas indicated in the first feature position information, or the size or shape of the feature areas, etc. And (substantially) the second feature position information indicating the same feature region can be selected. The in-vivo image corresponding to the selected second feature position information is used as the in-vivo image acquired substantially simultaneously with the input of the biological reaction occurrence information.

第3の処理例について説明する。この処理例が適用される場合、画像特定部434に解析部435を設ける必要はない(図1を参照)。この処理例を行う場合、画像特定部434は、操作部46による生体反応の発生情報の入力タイミングを示す第1のタイミング情報と、体内画像取得部100による体内画像の取得タイミングを示す第2のタイミング情報とを受ける。そして、画像特定部434は、第1のタイミング情報と実質的に同時に受けた第2のタイミング情報に対応する体内画像を特定する。   A third processing example will be described. When this processing example is applied, it is not necessary to provide the analysis unit 435 in the image specifying unit 434 (see FIG. 1). When performing this processing example, the image specifying unit 434 includes first timing information indicating the input timing of the biological reaction occurrence information by the operation unit 46, and second timing indicating the in-vivo image acquisition timing by the in-vivo image acquisition unit 100. Receive with timing information. Then, the image specifying unit 434 specifies the in-vivo image corresponding to the second timing information received substantially simultaneously with the first timing information.

第1のタイミング情報は、操作部46から制御部41への信号の入力に対応して制御部41から画像特定部434に送られる。第2のタイミング情報は、各時相の体内画像が形成される度に、又は各時相のスキャンが行われる度に、画像特定部434に入力される。   The first timing information is sent from the control unit 41 to the image specifying unit 434 in response to input of a signal from the operation unit 46 to the control unit 41. The second timing information is input to the image specifying unit 434 each time an in-vivo image at each time phase is formed or each time phase scan is performed.

前処理及び再構成処理に要する時間が十分に短い場合には、画像の形成及びスキャンのいずれのタイミングで、再構成処理部432、レンダリング処理部433、制御部41及び架台装置10のいずれかから画像特定部434に第2のタイミング情報が入力される。一方、これ以外の場合には、スキャンが行われたタイミングで、制御部41又は架台装置10から画像特定部434に第2のタイミング情報が入力される。   When the time required for the pre-processing and reconstruction processing is sufficiently short, the reconstruction processing unit 432, the rendering processing unit 433, the control unit 41, and the gantry device 10 can be used at any timing of image formation or scanning. Second timing information is input to the image specifying unit 434. On the other hand, in other cases, the second timing information is input from the control unit 41 or the gantry device 10 to the image specifying unit 434 at the timing when the scan is performed.

画像特定部434には、第2のタイミング情報が逐次に入力される。操作部46の操作に対応する第1のタイミング情報の入力を受けた画像特定部434は、たとえば、第1のタイミング情報の入力タイミングと最も近いタイミングで入力された第2のタイミング情報を特定する。そして、画像特定部434は、特定された第2のタイミング情報に対応する体内画像を、生体反応の発生情報の入力と実質的に同時に取得された体内画像とする。   The image specifying unit 434 receives the second timing information sequentially. The image specifying unit 434 that has received the input of the first timing information corresponding to the operation of the operation unit 46 specifies, for example, the second timing information input at the timing closest to the input timing of the first timing information. . Then, the image specifying unit 434 sets the in-vivo image corresponding to the specified second timing information as the in-vivo image acquired substantially simultaneously with the input of the biological reaction occurrence information.

(記憶部、表示部、操作部)
記憶部44は、検出データ、投影データ、再構成処理後の画像データ等を記憶する。表示部45は、LCD(Liquid Crystal Display)等の表示デバイスによって構成される。操作部46は、X線CT装置1に対する各種の指示入力や情報入力に用いられる。操作部46は、たとえばキーボード、マウス、トラックボール、ジョイスティック等により構成される。また、操作部46は、表示部45に表示されたGUI(Graphical User Interface)を含んでいてもよい。
(Storage unit, display unit, operation unit)
The storage unit 44 stores detection data, projection data, image data after reconstruction processing, and the like. The display unit 45 is configured by a display device such as an LCD (Liquid Crystal Display). The operation unit 46 is used for inputting various instructions and information to the X-ray CT apparatus 1. The operation unit 46 includes, for example, a keyboard, a mouse, a trackball, a joystick, and the like. The operation unit 46 may include a GUI (Graphical User Interface) displayed on the display unit 45.

前述のように、操作部46は、被検体Eの生体反応の発生を表す発生情報の入力に用いられる。つまり、操作部46は、操作者による操作に対応して、生体反応の発生情報としての信号を入力する。このような操作部46は「入力部」として機能するものである。   As described above, the operation unit 46 is used to input generation information indicating the occurrence of a biological reaction of the subject E. That is, the operation unit 46 inputs a signal as biological reaction occurrence information in response to an operation by the operator. Such an operation unit 46 functions as an “input unit”.

(外観画像取得部)
外観画像取得部50は、少なくとも生体反応の発生情報の入力に対応する撮影タイミングで、被検体Eの所定部位(関節部位等)を撮影して外観画像を取得する。この撮影は、静止画撮影でも動画撮影でもよい。外観画像取得部50は、その撮影形態に応じてデジタルカメラ及び/又はデジタルビデオカメラを含んで構成される。
(Appearance image acquisition unit)
The appearance image acquisition unit 50 acquires an appearance image by imaging a predetermined part (joint part or the like) of the subject E at least at an imaging timing corresponding to input of occurrence information of a biological reaction. This shooting may be a still image shooting or a moving image shooting. The appearance image acquisition unit 50 is configured to include a digital camera and / or a digital video camera according to the shooting mode.

静止画撮影の場合、操作部46からの発生情報の入力に対応して撮影を実行するように構成することが可能である。その一例として、発生情報の入力を受けた制御部41が外観画像取得部50を制御して撮影を行わせるように構成することが可能である。   In the case of still image shooting, it can be configured to execute shooting in response to input of generated information from the operation unit 46. For example, the control unit 41 that has received the generated information can be configured to control the appearance image acquisition unit 50 to perform shooting.

また、発生情報の入力を受けた制御部41が報知情報を出力させる制御を行い、この報知情報を認識した操作者が外観画像の撮影トリガーの入力を行うように構成することも可能である。なお、この報知情報は、たとえば表示部45による表示情報、又は図示しない音声出力部により出力される音声情報である。   It is also possible to configure so that the control unit 41 that receives the generated information performs control to output the notification information, and an operator who recognizes the notification information inputs an external image shooting trigger. The notification information is, for example, display information by the display unit 45 or audio information output by an audio output unit (not shown).

静止画撮影により得られた外観画像は、生体反応の発生情報の入力に対応する撮影タイミングで取得された外観画像に相当する。   The appearance image obtained by still image shooting corresponds to the appearance image acquired at the shooting timing corresponding to the input of the occurrence information of the biological reaction.

このような静止画撮影により1以上の任意の個数の外観画像が得られる。2以上の外観画像を取得する場合、これらのうち最初に撮影されたものを含む1つ以上の外観画像を、生体反応の発生情報の入力に対応する撮影タイミングで取得された外観画像として選択することが可能である。この選択処理は、たとえば、あらかじめ決められた時間の間に取得された外観画像を抽出する処理、又はあらかじめ決められた個数の外観画像を抽出する処理を含む。また、静止画撮影の開始から撮影停止が要求されるまでの間に撮影された外観画像を、当該撮影タイミングで取得された外観画像として用いることも可能である。   One or more arbitrary number of appearance images can be obtained by such still image shooting. When acquiring two or more appearance images, one or more appearance images including those first photographed are selected as the appearance images obtained at the photographing timing corresponding to the input of the biological reaction occurrence information. It is possible. This selection process includes, for example, a process of extracting an appearance image acquired during a predetermined time or a process of extracting a predetermined number of appearance images. In addition, it is also possible to use an appearance image that has been captured between the start of still image shooting and the request for stopping shooting as the appearance image acquired at the shooting timing.

動画撮影の場合、外観画像取得部50は反復的に撮影を行って得られる映像信号を逐次コンソール装置40に入力する。この動画撮影により得られる各フレームが外観画像に相当する。それにより、時系列に沿う複数の外観画像が得られる。   In the case of moving image shooting, the appearance image acquisition unit 50 sequentially inputs video signals obtained by repeatedly shooting to the console device 40. Each frame obtained by this moving image shooting corresponds to an appearance image. Thereby, a plurality of appearance images along the time series are obtained.

[動作]
この実施形態に係るX線CT装置1の動作について説明する。以下、第1及び第2の動作例を説明する。第1の動作例は、外観画像取得部50が静止画撮影を行う場合に相当する。第2の動作例は、外観画像取得部50が動画撮影を行う場合に相当する。
[Operation]
The operation of the X-ray CT apparatus 1 according to this embodiment will be described. Hereinafter, first and second operation examples will be described. The first operation example corresponds to a case where the appearance image acquisition unit 50 performs still image shooting. The second operation example corresponds to the case where the appearance image acquisition unit 50 performs moving image shooting.

〔第1の動作例:図4〕
(S1:体内画像の取得)
時相の異なる複数の体内画像の取得を開始する。体内画像の取得は、少なくとも生体反応の発生情報の入力(S3)まで継続される。体内画像を取得する処理は、たとえば次のようにして行われる。
[First operation example: FIG. 4]
(S1: Acquisition of in-vivo images)
Start acquisition of multiple in-vivo images with different time phases. The acquisition of the in-vivo image is continued at least until the input of biological reaction occurrence information (S3). The process of acquiring the in-vivo image is performed as follows, for example.

まず、寝台装置30の天板に被検体Eを載置し、架台装置10の開口部に挿入する。所定のスキャン開始操作がなされると、制御部41は、スキャン制御部42に制御信号を送る。この制御信号を受けたスキャン制御部42は、高電圧発生部14、架台駆動部15及び絞り駆動部17を制御して、被検体Eの所定部位を含む範囲をX線でスキャンさせる。X線検出部12は、被検体Eを透過したX線を検出する。データ収集部18は、スキャンに伴いX線検出器12から逐次に生成される検出データを収集する。データ収集部18は、収集された検出データを前処理部431に送る。前処理部431は、データ収集部18からの検出データに対して前述の前処理を施して投影データを生成する。再構成処理部432は、あらかじめ設定された再構成条件に基づく再構成処理を投影データに施すことにより、時相の異なる複数の体内画像を形成する。   First, the subject E is placed on the top plate of the bed apparatus 30 and inserted into the opening of the gantry apparatus 10. When a predetermined scan start operation is performed, the control unit 41 sends a control signal to the scan control unit 42. Upon receiving this control signal, the scan control unit 42 controls the high voltage generation unit 14, the gantry drive unit 15, and the aperture drive unit 17 to scan a range including a predetermined part of the subject E with X-rays. The X-ray detection unit 12 detects X-rays that have passed through the subject E. The data collection unit 18 collects detection data sequentially generated from the X-ray detector 12 along with the scan. The data collection unit 18 sends the collected detection data to the preprocessing unit 431. The preprocessing unit 431 performs the above-described preprocessing on the detection data from the data collection unit 18 to generate projection data. The reconstruction processing unit 432 forms a plurality of in-vivo images having different time phases by performing a reconstruction process based on a preset reconstruction condition on the projection data.

(S2、S3:生体反応の発生情報の入力)
操作者は、所定の生体反応の発生を認識したら(S2:YES)、操作部46を操作する。操作を受けた操作部46は、生体反応の発生情報としての信号を制御部41に入力する(S3)。
(S2, S3: Input of biological reaction occurrence information)
When the operator recognizes the occurrence of a predetermined biological reaction (S2: YES), the operator operates the operation unit 46. Upon receiving the operation, the operation unit 46 inputs a signal as biological reaction occurrence information to the control unit 41 (S3).

(S4:外観画像の取得)
生体反応の発生情報の入力を受けた制御部41は、外観画像取得部50を制御して被検体Eの所定部位を撮影させる。又は、生体反応の発生情報の入力を受けた制御部41は、所定の報知情報を出力させる。報知情報を認識した操作者は、操作部46を操作して外観画像の取得を指示する。この指示に対応して外観画像取得部50は撮影を行う。それにより外観画像が得られる。
(S4: Acquisition of appearance image)
Upon receiving the biological reaction occurrence information, the control unit 41 controls the appearance image acquisition unit 50 to image a predetermined part of the subject E. Or the control part 41 which received the generation | occurrence | production information of biological reaction outputs predetermined alerting | reporting information. The operator who has recognized the notification information operates the operation unit 46 to instruct acquisition of an appearance image. In response to this instruction, the appearance image acquisition unit 50 performs photographing. Thereby, an appearance image is obtained.

(S5:体内画像の特定)
画像特定部434は、前述した処理のいずれかを実行することにより、ステップ1で取得された複数の体内画像のうち、生体反応の発生情報の入力(S3)と実質的に同時に取得された体内画像を特定する。
(S5: Identification of in-vivo images)
The image specifying unit 434 executes any one of the processes described above, so that among the plurality of in-vivo images acquired in step 1, the in-vivo body acquired substantially simultaneously with the input of biological reaction occurrence information (S 3). Identify the image.

(S6:体内画像と外観画像の関連付け及び記憶)
制御部41は、ステップ5で特定された体内画像と、ステップ4で取得された外観画像とを関連付けて、記憶部44に記憶させる。以上で、第1の動作例に係る動作は終了である。
(S6: Association and storage of in-vivo image and appearance image)
The control unit 41 associates the in-vivo image specified in step 5 with the appearance image acquired in step 4 and stores the image in the storage unit 44. This is the end of the operation according to the first operation example.

〔第2の動作例:図5〕
(S11:体内画像の取得)
第1の動作例と同様にして、時相の異なる複数の体内画像の取得を開始する。
[Second operation example: FIG. 5]
(S11: Acquisition of in-vivo image)
Similar to the first operation example, acquisition of a plurality of in-vivo images having different time phases is started.

(S12:外観画像の取得)
外観画像取得部50は、被検体Eの所定部位の動画撮影を開始する。それにより、時系列に沿う複数の外観画像が得られる。外観画像の取得は、少なくとも生体反応の発生情報の入力(S14)まで継続される。
(S12: Acquisition of appearance image)
The appearance image acquisition unit 50 starts moving image shooting of a predetermined part of the subject E. Thereby, a plurality of appearance images along the time series are obtained. The acquisition of the appearance image is continued until at least the input of occurrence information of biological reaction (S14).

(S13、S14:生体反応の発生情報の入力)
操作者は、所定の生体反応の発生を認識したら(S13:YES)、操作部46を操作する。操作を受けた操作部46は、生体反応の発生情報としての信号を制御部41に入力する(S14)。
(S13, S14: Input of biological reaction occurrence information)
When the operator recognizes the occurrence of a predetermined biological reaction (S13: YES), the operator operates the operation unit 46. Upon receiving the operation, the operation unit 46 inputs a signal as biological reaction occurrence information to the control unit 41 (S14).

(S15:体内画像の特定)
画像特定部434は、ステップ11で取得された複数の体内画像のうち、生体反応の発生情報の入力(S14)と実質的に同時に取得された体内画像を特定する。
(S15: Identification of in-vivo image)
The image specifying unit 434 specifies an in-vivo image acquired substantially simultaneously with the input of biological reaction occurrence information (S14) among the plurality of in-vivo images acquired in step 11.

(S16:外観画像の特定)
更に、画像特定部434は、ステップ12で取得された複数の外観画像のうち、生体反応の発生情報の入力(S14)と実質的に同時に取得された外観画像を特定する。なお、体内画像の特定処理と外観画像の特定処理は、いずれを先に行なってもよいし、双方を平行して行なってもよい。
(S16: Identification of appearance image)
Furthermore, the image specifying unit 434 specifies the appearance image acquired substantially simultaneously with the input of the biological reaction occurrence information (S14) among the plurality of appearance images acquired in Step 12. The in-vivo image specifying process and the appearance image specifying process may be performed first or both in parallel.

(S17:体内画像と外観画像の関連付け及び記憶)
制御部41は、ステップ15で特定された体内画像と、ステップ16で特定された外観画像とを関連付けて、記憶部44に記憶させる。以上で、第2の動作例に係る動作は終了である。
(S17: Association and storage of in-vivo image and appearance image)
The control unit 41 associates the in-vivo image specified in step 15 with the appearance image specified in step 16 and stores the image in the storage unit 44. This is the end of the operation according to the second operation example.

[表示態様]
以上のようにして記憶された体内画像及び外観画像を表示させる手法を説明する。
[Display mode]
A method for displaying the in-vivo image and the appearance image stored as described above will be described.

〔第1の表示例〕
この表示例は、体内画像及び外観画像の双方を表示させる場合に関する。
[First display example]
This display example relates to a case where both an in-vivo image and an appearance image are displayed.

制御部41は、所定のトリガーを受けたことに対応し、互いに関連付けられた体内画像及び外観画像を記憶部44から読み出して表示部45に表示させる。その表示態様は、読み出された体内画像及び外観画像のうち一方のみを表示させるものでもよいし、双方を表示させるものでもよい。後者は、双方の画像を並べて表示させる場合と、一方の画像に他方の画像を重ねて表示させる場合とを含む。   In response to receiving a predetermined trigger, the control unit 41 reads in-vivo images and appearance images associated with each other from the storage unit 44 and causes the display unit 45 to display them. As the display mode, only one of the read in-vivo image and appearance image may be displayed, or both may be displayed. The latter includes a case where both images are displayed side by side and a case where the other image is displayed superimposed on one image.

第1の表示例によれば、関連付けられた双方の画像を容易に比較しながら閲覧することができる。   According to the first display example, both images associated with each other can be browsed easily.

〔第2の表示例〕
この表示例は、体内画像及び外観画像の一方に対する表示要求がなされた場合に関する。この表示例を適用する場合、互いに関連付けられた体内画像及び外観画像のうち一方の画像の表示を指示するための指示部が設けられる。指示部は操作部46を含む。
[Second display example]
This display example relates to a case where a display request for one of the in-vivo image and the appearance image is made. When this display example is applied, an instruction unit for instructing display of one of the in-vivo image and the appearance image associated with each other is provided. The instruction unit includes an operation unit 46.

制御部41は、画像を指定するための画面を表示部45に表示させる。この画面には、たとえば、患者識別情報(患者ID、患者氏名等)、撮影日時、撮影画像の縮小画像(サムネイル)のうちの少なくとも1つの情報が提示される。操作者は、提示された情報のうち所望のものを操作部46を用いて指定する。   The control unit 41 causes the display unit 45 to display a screen for designating an image. On this screen, for example, at least one information of patient identification information (patient ID, patient name, etc.), shooting date and time, and a reduced image (thumbnail) of the shot image is presented. The operator designates desired information among the presented information using the operation unit 46.

制御部41は、この指定結果を上記一方の画像の表示指示として認識し、この指示に対応して当該指定された画像及びこれに関連付けられた画像(上記他方の画像に相当する)を表示部46に表示させる。   The control unit 41 recognizes the designation result as an instruction to display the one image, and displays the designated image and an image associated therewith (corresponding to the other image) corresponding to the instruction. 46 is displayed.

第2の表示例によれば、関連付けられた双方の画像の閲覧作業の容易化を図ることができる。   According to the second display example, it is possible to facilitate the browsing operation of both associated images.

〔第3の表示例〕
この表示例は、体内画像を動画表示(スライドショー方式の表示も含む)する場合に関する。
[Third display example]
This display example relates to a case where an in-vivo image is displayed as a moving image (including a slide show display).

制御部41は、体内画像取得部100により取得された複数の体内画像を記憶部44に記憶させる。そして、制御部41は、これら体内画像を時系列の順に所定時間間隔で表示部45に切り替え表示させることにより動画表示を実行する。   The control unit 41 causes the storage unit 44 to store a plurality of in-vivo images acquired by the in-vivo image acquisition unit 100. And the control part 41 performs a moving image display by switching and displaying these in-vivo images on the display part 45 at predetermined time intervals in order of a time series.

制御部41は、このような動画表示を行なっているときに、画像特定部434により特定された体内画像(1以上のフレーム:特定フレームと呼ぶ)が表示されるタイミングで、生体反応の発生を示す情報を表示部45に表示させる。この情報を発生タイミング情報と呼ぶ。発生タイミング情報の例として、生体反応の発生を表す文字列情報又は画像情報、生体反応の発生タイミングや発生期間(継続期間)を示す数値情報がある。   When such a moving image display is performed, the control unit 41 generates a biological reaction at the timing when the in-vivo image (one or more frames: referred to as a specific frame) specified by the image specifying unit 434 is displayed. Information to be displayed is displayed on the display unit 45. This information is called occurrence timing information. Examples of the generation timing information include character string information or image information indicating the occurrence of a biological reaction, and numerical information indicating the generation timing and generation period (continuation period) of the biological reaction.

発生タイミング情報を表示させるタイミングとしては、特定フレーム(のうち最初のもの)の表示と同時のタイミング、複数の特定フレームのいずれかの表示と同時のタイミング、特定フレーム(のうち最初のもの)の表示より前のタイミングなどがある。特定フレームよりも前に表示させる場合、特定フレーム(のうち最初のもの)の表示タイミングの到来をカウントダウンする情報を表示させることができる。また、生体反応の発生開始をトリガーとしてカウントアップする情報、又は生体反応の終了までをカウントダウンする情報を表示させるようにしてもよい。   The timing to display the occurrence timing information is the same timing as the display of a specific frame (the first one), the same timing as the display of one of a plurality of specific frames, or the specific frame (the first one) There are timings before the display. When displaying before a specific frame, the information which counts down arrival of the display timing of a specific frame (the first of them) can be displayed. Moreover, you may make it display the information counted up by the generation | occurrence | production start of biological reaction as a trigger, or the information counted down until the completion | finish of biological reaction.

第3の表示例によれば、体内がどのような状態のときに生体情報が発生しているか容易に把握することができる。   According to the third display example, it is possible to easily grasp in what state the body is in the living body information.

[作用・効果]
この実施形態に係るX線CT装置1の作用及び効果を説明する。
[Action / Effect]
The operation and effect of the X-ray CT apparatus 1 according to this embodiment will be described.

X線CT装置1は、体内画像取得部100と、操作部46と、外観画像取得部50と、記憶部44と、画像特定部434と、制御部41とを有する。体内画像取得部100は、被検体Eの所定部位にX線を連続的に又は間欠的に照射して、時相の異なる複数の体内画像を取得する。操作部46(入力部)は、被検体Eの所定の生体反応の発生を表す発生情報を入力する。外観画像取得部50は、少なくとも発生情報の入力に対応する撮影タイミングで所定部位を撮影して外観画像を取得する。画像特定部434(特定部)は、複数の体内画像のうち発生情報の入力と実質的に同時に取得された体内画像を特定する。制御部41は、特定された体内画像と上記撮影タイミングで取得された外観画像とを関連付けて記憶部44に記憶させる。   The X-ray CT apparatus 1 includes an in-vivo image acquisition unit 100, an operation unit 46, an appearance image acquisition unit 50, a storage unit 44, an image specification unit 434, and a control unit 41. The in-vivo image acquisition unit 100 irradiates a predetermined part of the subject E with X-rays continuously or intermittently, and acquires a plurality of in-vivo images having different time phases. The operation unit 46 (input unit) inputs generation information indicating the occurrence of a predetermined biological reaction of the subject E. The appearance image acquisition unit 50 acquires an appearance image by imaging a predetermined part at least at an imaging timing corresponding to the input of occurrence information. The image specifying unit 434 (specifying unit) specifies an in-vivo image acquired substantially simultaneously with input of generation information among a plurality of in-vivo images. The control unit 41 stores the identified in-vivo image and the appearance image acquired at the above photographing timing in the storage unit 44 in association with each other.

このように、X線CT装置1は、生体反応の発生に対応するタイミングで得られた体内画像と外観画像の双方を関連付けて記憶させるように構成されている。よって、画像の閲覧者は、この体内画像(及び外観画像)が生体反応の発生タイミングで得られたものであると認識できる。また、閲覧者は、体内画像により生体反応の発生タイミングにおける体内の状態、つまり身体の動作状態を把握することができる。したがって、X線CT装置1によれば、身体の動作状態と生体反応の発生タイミングとの関係を把握することが可能である。たとえば関節部位の検査を行う場合、閲覧者は、この関節における骨がどのような状態であるときに、痛みが発生しているか把握することができる。   Thus, the X-ray CT apparatus 1 is configured to store both the in-vivo image and the appearance image obtained at the timing corresponding to the occurrence of the biological reaction in association with each other. Therefore, the image viewer can recognize that this in-vivo image (and appearance image) is obtained at the timing of occurrence of a biological reaction. Further, the viewer can grasp the internal state at the generation timing of the biological reaction, that is, the operation state of the body from the in-vivo image. Therefore, according to the X-ray CT apparatus 1, it is possible to grasp the relationship between the motion state of the body and the generation timing of the biological reaction. For example, when examining a joint part, the viewer can grasp the state of pain when the bone in the joint is in a state.

〈変形例〉
実施形態に係る医用画像診断装置の変形例について説明する。上記実施形態で説明した任意の内容を各変形例と組み合わせることが可能である。また、変形例同士を組み合わせることも可能である。以下、上記実施形態と同様の構成部位には同じ符号を付して説明する。
<Modification>
A modification of the medical image diagnostic apparatus according to the embodiment will be described. Any content described in the above embodiment can be combined with each modification. Moreover, it is also possible to combine modifications. Hereinafter, the same components as those in the above embodiment will be described with the same reference numerals.

[第1の変形例]
上記の実施形態では、操作者が操作部46を用いることで、生体反応が発生したことを入力している。一方、この変形例では、被検者Eの状態を監視して生体反応の発生を自動で検知する。この変形例に係る医用画像診断装置の構成例を図6に示す。この変形例に係る医用画像診断装置は、たとえば上記実施形態のX線CT装置1に検知部200を追加したものである。なお、図6では、表示部45と操作部46は省略されている。
[First Modification]
In the above embodiment, the operator inputs that a biological reaction has occurred by using the operation unit 46. On the other hand, in this modification, the state of the subject E is monitored and the occurrence of a biological reaction is automatically detected. A configuration example of a medical image diagnostic apparatus according to this modification is shown in FIG. A medical image diagnostic apparatus according to this modification is obtained by adding a detection unit 200 to, for example, the X-ray CT apparatus 1 of the above embodiment. In FIG. 6, the display unit 45 and the operation unit 46 are omitted.

検知部200は、被検体Eの状態を監視し、生体反応の発生を検知することで、生体情報の発生情報としての信号を入力する。対象となる生体情報には、発声、表情、呼吸、発汗、心電図、血圧、筋電図、脳波、瞳孔径などがある。検知対象の生体反応は、たとえば痛みに伴う生体情報の変化である。このような生体反応は既知である。   The detection unit 200 monitors the state of the subject E and detects the occurrence of a biological reaction, thereby inputting a signal as generation information of biological information. Biometric information to be targeted includes vocalization, facial expression, breathing, sweating, electrocardiogram, blood pressure, electromyogram, brain wave, pupil diameter, and the like. The biological reaction to be detected is, for example, a change in biological information accompanying pain. Such biological reactions are known.

発声はマイクロフォンを用いて検知することができる。このときの検知内容としては、発声の内容、声量などがある。   The utterance can be detected using a microphone. The detected content at this time includes the content of the utterance, the voice volume, and the like.

発声の内容の検知は、たとえば、検知部200に設けられたマイクロプロセッサ(図示せず)が公知の音声認識技術を実行することによって行うことができる。このマイクロプロセッサは、あらかじめ記憶された内容が発声されたか否かをマイクロフォンから出力される電気信号を解析することで判断する。その内容が発生されたと判断されると、マイクロプロセッサは発生信号を制御部41に入力する。   The content of the utterance can be detected by, for example, a microprocessor (not shown) provided in the detection unit 200 executing a known voice recognition technique. This microprocessor determines whether or not the contents stored in advance have been uttered by analyzing the electrical signal output from the microphone. When it is determined that the content has been generated, the microprocessor inputs a generation signal to the control unit 41.

声量の検知は、たとえば、検知部200に設けられたマイクロプロセッサ(図示せず)が、マイクロフォンから出力される電気信号を解析することによって行うことができる。このマイクロプロセッサは、この電気信号に基づいて、その音量が所定の閾値以上であるか判断する。音量が閾値以上であると判断されると、マイクロプロセッサは発生信号を制御部41に入力する。   The detection of the voice volume can be performed by, for example, a microprocessor (not shown) provided in the detection unit 200 analyzing an electrical signal output from the microphone. The microprocessor determines whether the volume is equal to or higher than a predetermined threshold based on the electrical signal. When it is determined that the volume is equal to or higher than the threshold, the microprocessor inputs a generated signal to the control unit 41.

表情及び瞳孔径は、患者の顔や眼を撮影し、その撮影画像を解析することにより検知できる。   The facial expression and pupil diameter can be detected by photographing the patient's face and eyes and analyzing the photographed image.

表情の検知は、検知部200に設けられたマイクロプロセッサ(図示せず)が、撮影画像を解析してあらかじめ記憶された表情の特徴点(たとえば痛みの発生に伴う表情筋の特徴的変化を表す点)を特定し、これら特徴点の位置関係が当該生体反応に対応する位置関係に合致するか判断することにより行うことができる。当該生体反応に対応する位置関係に合致すると判断されると、マイクロプロセッサは発生信号を制御部41に入力する。   In the detection of a facial expression, a microprocessor (not shown) provided in the detection unit 200 analyzes a photographed image and expresses a characteristic point of a facial expression stored in advance (for example, a characteristic change of facial muscles accompanying the occurrence of pain). Point) and determining whether the positional relationship between these feature points matches the positional relationship corresponding to the biological reaction. When it is determined that the positional relationship corresponding to the biological reaction is satisfied, the microprocessor inputs a generation signal to the control unit 41.

瞳孔径の検知は、検知部200に設けられたマイクロプロセッサ(図示せず)が、撮影画像を解析して眼に相当する画像領域(眼領域)を抽出し、この眼領域を解析して瞳孔に相当する画像領域(瞳孔領域)を特定し、この瞳孔領域の径を算出することにより行うことができる。マイクロプロセッサは、瞳孔径が所定の許容範囲内にあるか判断する。瞳孔径が許容範囲外であると判断されると、マイクロプロセッサは発生信号を制御部41に入力する。   In the detection of the pupil diameter, a microprocessor (not shown) provided in the detection unit 200 analyzes the captured image to extract an image region (eye region) corresponding to the eye, and analyzes the eye region to analyze the pupil. This can be done by specifying an image region (pupil region) corresponding to and calculating the diameter of the pupil region. The microprocessor determines whether the pupil diameter is within a predetermined tolerance. When it is determined that the pupil diameter is outside the allowable range, the microprocessor inputs a generation signal to the control unit 41.

呼吸、発汗、心電図、血圧、筋電図、脳波についてはそれぞれ、公知の呼吸モニタ装置、発汗モニタ装置、心電計、血圧測定器、筋電計、脳波計を用いることで検知できる。これら装置による検知結果を示す電気信号は、検知部200に設けられたマイクロプロセッサ(図示せず)に入力される。マイクロプロセッサは、この検知結果と所定の閾値とを比較することにより、生体反応が発生したか否か判断する。生体反応が発生したと判断されると、マイクロプロセッサは発生信号を制御部41に入力する。   Respiration, sweating, electrocardiogram, blood pressure, electromyogram, and electroencephalogram can be detected by using a known respiratory monitor device, sweat monitor device, electrocardiograph, blood pressure measuring device, electromyograph, and electroencephalograph, respectively. An electric signal indicating a detection result by these devices is input to a microprocessor (not shown) provided in the detection unit 200. The microprocessor determines whether a biological reaction has occurred by comparing the detection result with a predetermined threshold value. When it is determined that a biological reaction has occurred, the microprocessor inputs a generation signal to the control unit 41.

この変形例に係る医用画像診断装置の動作について説明する。その動作の一例を図7に示す。   The operation of the medical image diagnostic apparatus according to this modification will be described. An example of the operation is shown in FIG.

(S21:生体反応のモニタ開始)
検知部200による生体反応のモニタ(監視)を開始する。
(S21: Start of monitoring of biological reaction)
The monitoring (monitoring) of the biological reaction by the detection unit 200 is started.

(S22:体内画像の取得)
上記実施形態と同様にして、時相の異なる複数の体内画像の取得を開始する。
(S22: Acquisition of in-vivo image)
Similar to the above embodiment, acquisition of a plurality of in-vivo images having different time phases is started.

(S23、S24:生体反応の発生情報の入力)
検知部200は、所定の生体反応の発生を検知すると(S23:YES)、生体反応の発生情報としての信号を制御部41に入力する(S24)。
(S23, S24: Input of occurrence information of biological reaction)
When detecting the occurrence of a predetermined biological reaction (S23: YES), the detection unit 200 inputs a signal as biological reaction occurrence information to the control unit 41 (S24).

(S25:外観画像の取得)
生体反応の発生情報の入力を受けた制御部41は、外観画像取得部50を制御して被検体Eの所定部位を撮影させる。又は、生体反応の発生情報の入力を受けた制御部41は、所定の報知情報を出力させる。報知情報を認識した操作者は、操作部46を操作して外観画像の取得を指示する。この指示に対応して外観画像取得部50は撮影を行う。それにより外観画像が得られる。
(S25: Acquisition of appearance image)
Upon receiving the biological reaction occurrence information, the control unit 41 controls the appearance image acquisition unit 50 to image a predetermined part of the subject E. Or the control part 41 which received the generation | occurrence | production information of biological reaction outputs predetermined alerting | reporting information. The operator who has recognized the notification information operates the operation unit 46 to instruct acquisition of an appearance image. In response to this instruction, the appearance image acquisition unit 50 performs photographing. Thereby, an appearance image is obtained.

(S26:体内画像の特定)
画像特定部434は、前述した処理のいずれかを実行することにより、ステップ22で取得された複数の体内画像のうち、生体反応の発生情報の入力(S24)と実質的に同時に取得された体内画像を特定する。
(S26: Identification of in-vivo image)
The image specifying unit 434 executes any one of the processes described above, so that among the plurality of in-vivo images acquired in Step 22, the in-vivo body acquired substantially simultaneously with the input of the occurrence information of biological reaction (S24). Identify the image.

(S27:体内画像と外観画像の関連付け及び記憶)
制御部41は、ステップ26で特定された体内画像と、ステップ25で取得された外観画像とを関連付けて、記憶部44に記憶させる。以上で、この動作例に係る動作は終了である。
(S27: Association and storage of in-vivo image and appearance image)
The control unit 41 associates the in-vivo image specified in step 26 with the appearance image acquired in step 25 and stores it in the storage unit 44. This is the end of the operation according to this operation example.

図8を参照しつつ他の動作例を説明する。   Another operation example will be described with reference to FIG.

(S31:生体反応のモニタ開始)
検知部200による生体反応のモニタ(監視)を開始する。
(S31: Start of monitoring of biological reaction)
The monitoring (monitoring) of the biological reaction by the detection unit 200 is started.

(S32:体内画像の取得)
上記実施形態と同様にして、時相の異なる複数の体内画像の取得を開始する。
(S32: Acquisition of in-vivo image)
Similar to the above embodiment, acquisition of a plurality of in-vivo images having different time phases is started.

(S33:外観画像の取得)
外観画像取得部50は、被検体Eの所定部位の動画撮影を開始する。それにより、時系列に沿う複数の外観画像が得られる。外観画像の取得は、少なくとも生体反応の発生情報の入力(S14)まで継続される。
(S33: Acquisition of appearance image)
The appearance image acquisition unit 50 starts moving image shooting of a predetermined part of the subject E. Thereby, a plurality of appearance images along the time series are obtained. The acquisition of the appearance image is continued until at least the input of occurrence information of biological reaction (S14).

(S34、S35:生体反応の発生情報の入力)
検知部200は、所定の生体反応の発生を検知すると(S34:YES)、生体反応の発生情報としての信号を制御部41に入力する(S35)。
(S34, S35: Input of occurrence information of biological reaction)
When the detection unit 200 detects the occurrence of a predetermined biological reaction (S34: YES), the detection unit 200 inputs a signal as generation information of the biological reaction to the control unit 41 (S35).

(S36:体内画像の特定)
画像特定部434は、ステップ32で取得された複数の体内画像のうち、生体反応の発生情報の入力(S35)と実質的に同時に取得された体内画像を特定する。
(S36: Identification of in-vivo image)
The image specifying unit 434 specifies an in-vivo image acquired substantially simultaneously with the input of biological reaction occurrence information (S35) among the plurality of in-vivo images acquired in step 32.

(S37:外観画像の特定)
更に、画像特定部434は、ステップ33で取得された複数の外観画像のうち、生体反応の発生情報の入力(S35)と実質的に同時に取得された外観画像を特定する。なお、体内画像の特定処理と外観画像の特定処理は、いずれを先に行なってもよいし、双方を平行して行なってもよい。
(S37: Identification of appearance image)
Further, the image specifying unit 434 specifies the appearance image acquired substantially simultaneously with the input of the biological reaction occurrence information (S35) among the plurality of appearance images acquired in step 33. The in-vivo image specifying process and the appearance image specifying process may be performed first or both in parallel.

(S38:体内画像と外観画像の関連付け及び記憶)
制御部41は、ステップ36で特定された体内画像と、ステップ37で特定された外観画像とを関連付けて、記憶部44に記憶させる。以上で、この動作例に係る動作は終了である。
(S38: Association and storage of in-vivo image and appearance image)
The control unit 41 associates the in-vivo image specified in step 36 with the appearance image specified in step 37 and stores it in the storage unit 44. This is the end of the operation according to this operation example.

この変形例に係る医用画像診断装置によれば、上記実施形態と同様に、身体の動作状態と生体反応の発生タイミングとの関係を把握することが可能である。更に、生体反応の発生を自動で検知できるので、そのためにユーザの手を煩わせることがない。   According to the medical image diagnostic apparatus according to this modification, as in the above-described embodiment, it is possible to grasp the relationship between the action state of the body and the generation timing of the biological reaction. Furthermore, since the occurrence of a biological reaction can be automatically detected, the user's hand is not bothered for that purpose.

[第2の変形例]
この変形例では、痛みの原因となる部位を推定して提示する機能について説明する。この変形例に係る医用画像診断装置の構成例を図9に示す。この変形例に係る医用画像診断装置は、たとえば上記実施形態のX線CT装置1の処理部43に原因領域推定部436を追加したものである。
[Second Modification]
In this modification, a function for estimating and presenting a site causing pain will be described. A configuration example of a medical image diagnostic apparatus according to this modification is shown in FIG. In the medical image diagnostic apparatus according to this modification, for example, a cause area estimation unit 436 is added to the processing unit 43 of the X-ray CT apparatus 1 of the above-described embodiment.

原因領域推定部436は、画像特定部434により特定された体内画像を含む1以上の体内画像を解析して痛みの原因領域を推定する。加えて、原因領域推定部436は、この体内領域を解析して痛みの程度を推定するように構成されていてもよい。原因領域推定部436は「推定部」の一例である。   The cause region estimation unit 436 analyzes one or more in-vivo images including the in-vivo image specified by the image specifying unit 434 and estimates a pain cause region. In addition, the cause area estimation unit 436 may be configured to analyze the in-vivo area and estimate the degree of pain. The cause area estimation unit 436 is an example of an “estimation unit”.

関節部位の検査を例として説明する。原因領域推定部436は、図3に示すような体内画像を解析し、当該関節部位に位置する骨に相当する画像領域(骨領域)を特定する。更に、原因領域推定部436は、特定された骨領域を解析し、その形状や画素値(輝度値、CT値等)に基づいて痛みの原因領域を推定する。このとき、事前に行われた他の検査の結果を考慮してもよい。また、臨床データに基づいてあらかじめ作成された、形状及び/又は画素値と原因領域とを対応付けた情報を参照してもよい。痛みの原因領域としては、軟骨の摩耗、骨折、腫瘍などの疾患部に相当する画像領域がある。   An example of examination of a joint part will be described. The cause region estimation unit 436 analyzes the in-vivo image as shown in FIG. 3 and specifies an image region (bone region) corresponding to the bone located at the joint part. Further, the causal area estimation unit 436 analyzes the identified bone area and estimates the pain causal area based on the shape and pixel value (luminance value, CT value, etc.). At this time, you may consider the result of the other test | inspection performed beforehand. Moreover, you may refer the information which matched the shape and / or pixel value, and the cause area | region created beforehand based on clinical data. As an area causing pain, there is an image area corresponding to a diseased part such as cartilage wear, fracture, or tumor.

また、原因領域推定部436は、推定された原因領域を中心に体内画像を解析し、その形状や画素値(輝度値、CT値等)に基づいて痛みの程度を推定する。このとき、事前に行われた他の検査の結果を考慮してもよい。また、臨床データに基づいてあらかじめ作成された、原因領域の形状、サイズ及び/又は画素値と痛みの程度とを対応付けた情報を参照してもよい。   In addition, the cause area estimation unit 436 analyzes the in-vivo image centering on the estimated cause area, and estimates the degree of pain based on the shape and pixel value (luminance value, CT value, etc.). At this time, you may consider the result of the other test | inspection performed beforehand. In addition, information that is created in advance based on clinical data and that associates the shape, size, and / or pixel value of the causative region with the degree of pain may be referred to.

制御部41は、体内画像を表示部45に表示させるときに、その原因領域の表示態様と他の画像領域の表示態様とを異ならせる。その具体例として、原因領域に色を付して表示させたり、原因領域を枠で囲って表示させたりすることができる。また、制御部41は、推定された痛みの程度に応じた表示態様で原因領域を表示させることができる。その具体例として、痛みの程度に応じて表示色を変えたり、枠の表示色や線の形態(実線、破線等)を変えたりすることができる。   When the control unit 41 displays the in-vivo image on the display unit 45, the control unit 41 changes the display mode of the cause area and the display mode of the other image areas. As specific examples, the cause area may be displayed with a color, or the cause area may be surrounded by a frame. Moreover, the control part 41 can display a cause area | region with the display mode according to the estimated grade of the pain. As a specific example, the display color can be changed according to the degree of pain, and the display color of the frame and the line form (solid line, broken line, etc.) can be changed.

この変形例による体内画像の表示態様の一例を図10に示す。体内画像Hには、原因領域推定部436により推定された痛みの原因領域を示す枠Haが破線で表示されている。更に、この原因領域内において特に痛みの程度が大きいと推定された領域を示す枠Hbが実線で表示されている。   An example of the in-vivo image display mode according to this modification is shown in FIG. In the in-vivo image H, a frame Ha indicating a pain cause region estimated by the cause region estimation unit 436 is displayed by a broken line. Further, a frame Hb indicating a region in which the level of pain is estimated to be particularly large in the cause region is displayed with a solid line.

このような変形例によれば、上記実施形態や上記変形例の効果に加えて、痛みの原因となっている部位や、その痛みの程度を容易に把握することが可能となる。   According to such a modified example, in addition to the effects of the embodiment and the modified example, it is possible to easily grasp the site causing the pain and the degree of the pain.

[第3の変形例]
この変形例では、痛みの原因を推定して提示する機能について説明する。この変形例に係る医用画像診断装置の構成例を図11に示す。この変形例に係る医用画像診断装置は、たとえば上記実施形態のX線CT装置1の処理部43に原因推定部437を追加したものである。この変形例を第2の変形例と組み合わせて用いることができる。
[Third Modification]
In this modification, a function for estimating and presenting the cause of pain will be described. A configuration example of a medical image diagnostic apparatus according to this modification is shown in FIG. In the medical image diagnostic apparatus according to this modification, for example, a cause estimation unit 437 is added to the processing unit 43 of the X-ray CT apparatus 1 of the above embodiment. This modification can be used in combination with the second modification.

原因推定部437は、画像特定部434により特定された体内画像を含む1以上の体内画像を解析して痛みの原因を推定する。原因推定部437は「推定部」の一例である。   The cause estimating unit 437 analyzes one or more in-vivo images including the in-vivo image specified by the image specifying unit 434 to estimate the cause of pain. The cause estimation unit 437 is an example of an “estimation unit”.

関節部位の検査を例として説明する。この場合、痛みの原因としては、軟骨の摩耗、骨折、腫瘍などがある。原因推定部437は、図3に示すような体内画像を解析し、当該関節部位に位置する骨に相当する画像領域(骨領域)を特定する。更に、原因推定部437は、特定された骨領域を解析し、その形状や画素値(輝度値、CT値等)に基づいて痛みの原因を推定する。このとき、事前に行われた他の検査の結果を考慮してもよい。また、臨床データに基づいてあらかじめ作成された、形状及び/又は画素値と原因領域とを対応付けた情報を参照してもよい。   An example of examination of a joint part will be described. In this case, causes of pain include cartilage wear, fractures, tumors, and the like. The cause estimating unit 437 analyzes the in-vivo image as shown in FIG. 3 and specifies an image region (bone region) corresponding to the bone located at the joint site. Further, the cause estimating unit 437 analyzes the identified bone region and estimates the cause of pain based on the shape and pixel value (luminance value, CT value, etc.). At this time, you may consider the result of the other test | inspection performed beforehand. Moreover, you may refer the information which matched the shape and / or pixel value, and the cause area | region created beforehand based on clinical data.

制御部41は、原因推定部437により推定された痛みの原因を示す情報を表示部45に表示させる。この情報は、たとえば、痛みの原因を示すテキスト情報(「軟骨の摩耗」、「骨折」、「腫瘍」等)である。その具体例を図12に示す。表示部45には、痛み原因表示部45aが設けられている。制御部41は、原因推定部437により推定された痛みの原因を示すテキスト情報「軟骨の摩耗」を、痛み原因表示部45aに表示させる。   The control unit 41 causes the display unit 45 to display information indicating the cause of pain estimated by the cause estimation unit 437. This information is, for example, text information (“cartilage wear”, “fracture”, “tumor”, etc.) indicating the cause of pain. A specific example is shown in FIG. The display unit 45 is provided with a pain cause display unit 45a. The control unit 41 causes the pain cause display unit 45a to display text information “wear of cartilage” indicating the cause of pain estimated by the cause estimation unit 437.

この変形例によれば、上記実施形態や上記変形例の効果に加えて、痛みの原因を容易に把握することが可能となる。   According to this modification, in addition to the effects of the embodiment and the modification, it is possible to easily grasp the cause of pain.

[その他の変形例]
実施形態又は変形例に係る医用画像診断装置(第1の医用画像診断装置)は、生体反応の発生情報(発生タイミングを表す情報)、体内画像及び/又は外観画像を、他の医用画像診断装置(この第2の医用画像診断装置)に送信することができる。
[Other variations]
A medical image diagnostic apparatus (first medical image diagnostic apparatus) according to an embodiment or a modified example uses a biological reaction generation information (information indicating generation timing), an in-vivo image, and / or an appearance image as another medical image diagnostic apparatus. (This second medical image diagnostic apparatus) can be transmitted.

第2の医用画像診断装置は、X線CT装置、X線撮影装置、MRI(磁気共鳴画像化)装置、PET(ポジトロン断層撮影)装置、SPECT(単一光子放射断層撮影)装置、超音波診断装置など、任意のタイプのモダリティでよい。   The second medical image diagnostic apparatus includes an X-ray CT apparatus, an X-ray imaging apparatus, an MRI (magnetic resonance imaging) apparatus, a PET (positron tomography) apparatus, a SPECT (single photon emission tomography) apparatus, and an ultrasonic diagnosis. It can be any type of modality, such as a device.

第2の医用画像診断装置は、第1の医用画像診断装置から受けた情報に基づいて生体反応の発生タイミングを取得し、その発生タイミングに基づいて撮影を行う。それにより、他の医用画像診断装置においても、生体反応の発生に対応するタイミングで撮影を行うことができる。また、身体の動作状態と生体反応の発生タイミングとの関係を把握することが可能である。   The second medical image diagnostic apparatus acquires the generation timing of the biological reaction based on the information received from the first medical image diagnostic apparatus, and performs imaging based on the generation timing. Thereby, also in other medical image diagnostic apparatuses, imaging can be performed at a timing corresponding to the occurrence of a biological reaction. In addition, it is possible to grasp the relationship between the movement state of the body and the generation timing of the biological reaction.

第2の医用画像診断装置は、第1の医用画像診断装置により得られた体内画像及び/又は外観画像と、第2の医用画像診断装置により取得された画像とを重ねあわせることで、これらのフュージョン画像を表示させることができる。画像の位置合わせ処理などを含むフュージョン画像の表示処理には、公知の手法を用いることができる。   The second medical image diagnostic apparatus superimposes the in-vivo image and / or appearance image obtained by the first medical image diagnostic apparatus and the image acquired by the second medical image diagnostic apparatus, thereby A fusion image can be displayed. A well-known method can be used for the fusion image display process including the image alignment process.

実施形態又は変形例に係る医用画像診断装置により取得された生体反応の発生情報、体内画像及び/又は外観画像を、医用画像診断以外の医療行為に利用することも可能である。その適用対象の例として、人工関節の設計、リハビリテーション、インフォームドコンセントなどがある。   The occurrence information, in-vivo image and / or appearance image of the biological reaction acquired by the medical image diagnostic apparatus according to the embodiment or the modified example can be used for medical actions other than medical image diagnosis. Examples of application targets include artificial joint design, rehabilitation, and informed consent.

人工関節の設計においては、痛みが発生するタイミングを参照したり、複数の体内画像に基づいて把握可能な関節の可動範囲を参照したりできる。リハビリテーションにおいては、関節をどの程度曲げたら(どの程度の)痛みが発生しているかを把握しながらこれを遂行することができる。インフォームドコンセントにおいては、身体の動作状態と生体反応の発生タイミングとの関係を分かりやすく説明する事が可能である。   In designing an artificial joint, it is possible to refer to the timing at which pain occurs or to refer to the movable range of a joint that can be grasped based on a plurality of in-vivo images. In rehabilitation, this can be accomplished while knowing how much the joint is bent and how much pain has occurred. With informed consent, it is possible to easily explain the relationship between the state of movement of the body and the timing of occurrence of a biological reaction.

上記の各実施形態及び各変形例ではX線CT装置の例を詳しく説明したが、同様の構成をX線撮影装置に適用することが可能である。X線撮影装置は、X線管からX線を出力し、被検体を透過したX線をX線検出器(イメージングプレート)で検出して可視化することにより体内画像を取得する。X線撮影装置は、X線管とX線検出器とを結ぶ方向に直交する平面における画像を形成するほか、異なる方向から撮影された複数の画像から3次元画像を再構成することも可能である。X線撮影装置は「体内画像取得部」として用いられる。   In the above embodiments and modifications, the example of the X-ray CT apparatus has been described in detail, but the same configuration can be applied to the X-ray imaging apparatus. An X-ray imaging apparatus acquires an in-vivo image by outputting X-rays from an X-ray tube, and detecting and visualizing X-rays transmitted through a subject with an X-ray detector (imaging plate). In addition to forming an image on a plane orthogonal to the direction connecting the X-ray tube and the X-ray detector, the X-ray imaging apparatus can also reconstruct a three-dimensional image from a plurality of images taken from different directions. is there. The X-ray imaging apparatus is used as an “in-vivo image acquisition unit”.

他の実施形態に係る医用画像診断装置について説明する。この実施形態は、体内画像取得部と、外観画像取得部と、記憶部と、制御部とを有する。体内画像取得部は、被検体の所定部位にX線を連続的に又は間欠的に照射して時相の異なる複数の体内画像を取得する。外観画像取得部は、少なくとも被検体の所定の生体反応の発生に対応する撮影タイミングで当該所定部位を撮影して外観画像を取得する。制御部は、複数の体内画像と外観画像とを関連付けて記憶部に記憶させる。ここで、記憶部に記憶される体内画像と外観画像は、それぞれ、上記において取得されたものの全てである必要はない。   A medical image diagnostic apparatus according to another embodiment will be described. This embodiment includes an in-vivo image acquisition unit, an appearance image acquisition unit, a storage unit, and a control unit. The in-vivo image acquisition unit acquires a plurality of in-vivo images having different time phases by continuously or intermittently irradiating a predetermined part of the subject with X-rays. The appearance image acquisition unit acquires the appearance image by imaging the predetermined part at least at the imaging timing corresponding to the occurrence of the predetermined biological reaction of the subject. The control unit stores a plurality of in-vivo images and appearance images in association with each other in the storage unit. Here, the in-vivo image and the appearance image stored in the storage unit do not have to be all of those acquired above.

この医用画像診断装置の例を説明する。体内画像取得部による体内画像の取得動作と、外観画像取得部による外観画像の取得動作とを同期させる。この同期の例として、双方の画像取得動作を同時に開始させることができる。また、一方の画像取得動作を開始した後に他方の画像取得動作を開始させることもできる。これらの例においては、双方の画像取得動作のタイミングを同一の時間軸で把握することができる。たとえば、双方の画像取得動作(たとえば画像取得を開始するタイミング)を同一の時間軸の座標として記録するように構成できる。また、双方の画像取得動作の時間差(たとえば画像取得する開始するタイミングの時間差。時間差ゼロも含む)を記録するように構成することもできる。このような時間に関する処理は、たとえば制御部(マイクロプロセッサ)が有する計時機能を用いて行うことができる。   An example of this medical image diagnostic apparatus will be described. The in-vivo image acquisition operation by the in-vivo image acquisition unit and the appearance image acquisition operation by the appearance image acquisition unit are synchronized. As an example of this synchronization, both image acquisition operations can be started simultaneously. It is also possible to start the other image acquisition operation after starting one image acquisition operation. In these examples, the timing of both image acquisition operations can be grasped on the same time axis. For example, both image acquisition operations (for example, timing for starting image acquisition) can be recorded as coordinates on the same time axis. It is also possible to record the time difference between the image acquisition operations of both (for example, the time difference of the timing to start image acquisition, including zero time difference). Such time-related processing can be performed using, for example, a time measuring function of the control unit (microprocessor).

制御部は、このような同期制御を行うとともに、これにより取得された体内画像と外観画像とを関連付けて記憶部に記憶させる。このとき、制御部は、上記した時間軸における座標値や時間差等の時間に関する情報を、体内画像及び外観画像に関連付けて記憶部に記憶させることができる。また、常に同じ時間差で双方の画像取得動作を行う場合などには、当該時間に関する情報を記憶させる必要はない。   The control unit performs such synchronization control, and stores the in-vivo image and the appearance image acquired thereby in the storage unit in association with each other. At this time, the control unit can store information related to time such as the coordinate values and the time difference on the time axis in the storage unit in association with the in-vivo image and the appearance image. Further, when both image acquisition operations are always performed with the same time difference, it is not necessary to store information regarding the time.

双方の画像を閲覧するときには、記憶された時間に関する情報又は所定の時間差等を考慮して、双方の画像の表示タイミングを制御することができる。つまり、双方の画像の表示タイミングを、これら画像の取得タイミングと同様の同期制御を行なって行うことができる。それにより、双方の表示画像の時間軸を合わせることができる(つまり同一の時間軸に沿って双方の画像を表示させることができる)。   When browsing both images, it is possible to control the display timing of both images in consideration of stored time information or a predetermined time difference. That is, the display timing of both images can be performed by performing the same synchronous control as the acquisition timing of these images. Thereby, the time axes of both display images can be matched (that is, both images can be displayed along the same time axis).

このような実施形態によれば、たとえば一方の画像によって身体の動作状態を把握しつつ、他方の画像で生体反応の発生タイミングを把握することができる。したがって、身体の動作状態と生体反応の発生タイミングとの関係を得ることが可能である。   According to such an embodiment, for example, it is possible to grasp the body reaction state from one image and grasp the occurrence timing of the biological reaction from the other image. Therefore, it is possible to obtain the relationship between the body motion state and the occurrence timing of the biological reaction.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 X線CT装置
10 架台装置
11 X線発生部
12 X線検出部
13 回転体
14 高電圧発生部
15 架台駆動部
16 X線絞り部
17 絞り駆動部
18 データ収集部
30 寝台装置
40 コンソール装置
41 制御部
42 スキャン制御部
43 処理部
431 前処理部
432 再構成処理部
433 レンダリング処理部
434 画像特定部
435 解析部
436 原因領域推定部
437 原因推定部
44 記憶部
45 表示部
46 操作部
DESCRIPTION OF SYMBOLS 1 X-ray CT apparatus 10 Base apparatus 11 X-ray generation part 12 X-ray detection part 13 Rotating body 14 High voltage generation part 15 Base drive part 16 X-ray aperture part 17 Aperture drive part 18 Data collection part 30 Bed apparatus 40 Console apparatus 41 Control unit 42 Scan control unit 43 Processing unit 431 Preprocessing unit 432 Reconstruction processing unit 433 Rendering processing unit 434 Image specifying unit 435 Analysis unit 436 Cause region estimation unit 437 Cause estimation unit 44 Storage unit 45 Display unit 46 Operation unit

Claims (14)

被検体の所定部位にX線を連続的に又は間欠的に照射して時相の異なる複数の体内画像を取得する体内画像取得部と、
前記被検体の特定の状態における生体反応の発生を表す発生情報を入力する入力部と、
少なくとも前記発生情報の入力に対応する撮影タイミングで前記所定部位を撮影して外観画像を取得する外観画像取得部と、
前記撮影タイミングにおける外観画像を解析して前記所定部位の形状を表す第1の部位形状情報を取得し、かつ前記複数の体内画像を解析して前記所定部位の形状を表す第2の部位形状情報を取得し、取得された複数の前記第2の部位形状情報のうち前記第1の部位形状情報と実質的に一致する第2の部位形状情報に対応する体内画像を特定する特定部と、
記憶部と、
特定された体内画像と前記撮影タイミングで取得された外観画像とを関連付けて前記記憶部に記憶させるとともに、画像を表示する指示を受けて、特定された体内画像を表示部に表示させる制御部と、を有する医用画像診断装置。
An in-vivo image acquisition unit that continuously or intermittently irradiates a predetermined part of the subject to acquire a plurality of in-vivo images having different time phases;
An input unit for inputting occurrence information representing occurrence of a biological reaction in a specific state of the subject;
An appearance image acquisition unit that acquires an appearance image by imaging the predetermined portion at least at an imaging timing corresponding to the input of the occurrence information;
First part shape information representing the shape of the predetermined part is obtained by analyzing an appearance image at the imaging timing, and second part shape information representing the shape of the predetermined part by analyzing the plurality of in-vivo images A specifying unit for specifying an in-vivo image corresponding to the second part shape information substantially matching the first part shape information among the plurality of second part shape information acquired;
A storage unit;
A controller that associates the identified in-vivo image with the appearance image acquired at the photographing timing and stores the associated in-vivo image in the storage unit; And a medical image diagnostic apparatus.
前記制御部は、前記特定された体内画像に加えて前記撮影タイミングで取得された外観画像を前記表示部に表示させることを特徴とする請求項1に記載の医用画像診断装置。   The medical image diagnosis apparatus according to claim 1, wherein the control unit causes the display unit to display an appearance image acquired at the imaging timing in addition to the identified in-vivo image. 前記第1の部位形状情報及び前記第2の部位形状情報は、前記所定部位における体表の輪郭の形状を示す輪郭情報を含むことを特徴とする請求項1又は2に記載の医用画像診断装置。   The medical image diagnostic apparatus according to claim 1, wherein the first part shape information and the second part shape information include contour information indicating a contour shape of a body surface at the predetermined part. . 前記所定部位は関節部位であり、
前記第1の部位形状情報及び前記第2の部位形状情報は、前記関節部位において骨と骨とが成す角度を示す角度情報を含むことを特徴とする請求項1又は2に記載の医用画像診断装置。
The predetermined part is a joint part;
The medical image diagnosis according to claim 1 or 2, wherein the first part shape information and the second part shape information include angle information indicating an angle formed by a bone and a bone in the joint part. apparatus.
前記第1の部位形状情報及び前記第2の部位形状情報のそれぞれは、前記所定部位に相当する画像領域の位置または形状を表す特徴位置情報を含み、前記第1の部位形状情報は第1の特徴位置情報、前記第2の部位形状情報は第2の特徴位置情報を含むことを特徴とする請求項1又は2に記載の医用画像診断装置。   Each of the first part shape information and the second part shape information includes feature position information representing a position or shape of an image region corresponding to the predetermined part, and the first part shape information includes the first part shape information The medical image diagnosis apparatus according to claim 1, wherein the feature position information and the second part shape information include second feature position information. 前記第1の特徴位置情報及び前記第2の特徴位置情報は、前記被検体の体表に付されたマーカを表す画像領域の位置を示すマーカ位置情報を含むことを特徴とする請求項5に記載の医用画像診断装置。   6. The first feature position information and the second feature position information include marker position information indicating a position of an image region representing a marker attached to the body surface of the subject. The medical image diagnostic apparatus described. 前記外観画像取得部は、前記所定部位を反復的に撮影して外観画像を順次取得し、
前記特定部は、順次取得される外観画像のうち前記発生情報の入力と実質的に同時に取得された外観画像を特定し、
前記制御部は、前記特定部によりそれぞれ特定された前記体内画像と前記外観画像とを関連付けて前記記憶部に記憶させる
ことを特徴とする請求項1〜請求項6のいずれか一項に記載の医用画像診断装置。
The appearance image acquisition unit sequentially acquires appearance images by repeatedly photographing the predetermined part,
The specifying unit specifies an appearance image acquired substantially simultaneously with the input of the occurrence information among the sequentially acquired appearance images;
The said control part links | relates the said in-vivo image each identified by the said specific part, and the said external appearance image, It memorize | stores in the said memory | storage part. Medical diagnostic imaging device.
前記入力部は、操作者による操作に対応して前記発生情報としての信号を入力する操作部を含むことを特徴とする請求項1〜請求項7のいずれか一項に記載の医用画像診断装置。   The medical image diagnostic apparatus according to claim 1, wherein the input unit includes an operation unit that inputs a signal as the generation information in response to an operation by an operator. . 前記入力部は、前記被検体の状態を監視し、前記生体反応の発生を検知して前記発生情報としての信号を入力する検知部を含むことを特徴とする請求項1〜請求項7のいずれか一項に記載の医用画像診断装置。   The input unit includes a detection unit that monitors the state of the subject, detects the occurrence of the biological reaction, and inputs a signal as the generation information. The medical image diagnostic apparatus according to claim 1. 前記被検体の特定の状態は痛みが発生した状態であって前記発生情報はその痛みが顕になったことを示す情報であり、
前記検知部は、痛みに伴う生体情報の変化を前記生体反応として検知することを特徴とする請求項9に記載の医用画像診断装置。
The specific state of the subject is a state where pain has occurred, and the occurrence information is information indicating that the pain has become apparent,
The medical image diagnostic apparatus according to claim 9, wherein the detection unit detects a change in biological information associated with pain as the biological reaction.
前記被検体の特定の状態は痛みが発生した状態であって前記発生情報はその痛みが顕になったことを示す情報であり、
前記特定部により特定された体内画像を含む1以上の体内画像を解析して痛みの原因領域を推定する推定部と、
表示部と
を更に有し、
前記制御部は、推定された前記痛みの原因領域の表示態様と他の画像領域の表示態様とを異ならせて前記表示部に体内画像を表示させる
ことを特徴とする請求項1〜請求項9のいずれか一項に記載の医用画像診断装置。
The specific state of the subject is a state where pain has occurred, and the occurrence information is information indicating that the pain has become apparent,
An estimation unit that analyzes one or more in-vivo images including the in-vivo image specified by the specifying unit and estimates a pain-causing region;
A display unit, and
The said control part displays an in-vivo image on the said display part by making the display aspect of the said cause area of the said pain different from the display aspect of another image area | region. The medical image diagnostic apparatus according to any one of the above.
前記推定部は、前記1以上の体内領域を解析して痛みの程度を推定し、
前記制御部は、推定された前記痛みの程度に応じた表示態様で前記痛みの原因領域を表示させる
ことを特徴とする請求項11に記載の医用画像診断装置。
The estimation unit analyzes the one or more internal regions to estimate the degree of pain;
The medical image diagnostic apparatus according to claim 11, wherein the control unit displays the pain cause area in a display mode according to the estimated degree of pain.
前記被検体の特定の状態は痛みが発生した状態であって前記発生情報はその痛みが顕になったことを示す情報であり、
前記特定部により特定された体内画像を含む1以上の体内画像を解析して痛みの原因を推定する推定部と、
表示部と
を更に有し、
前記制御部は、推定された前記痛みの原因を示す情報を前記表示部に表示させる
ことを特徴とする請求項1〜請求項11のいずれか一項に記載の医用画像診断装置。
The specific state of the subject is a state where pain has occurred, and the occurrence information is information indicating that the pain has become apparent,
An estimation unit that analyzes one or more in-vivo images including the in-vivo image specified by the specifying unit and estimates the cause of pain;
A display unit, and
The medical image diagnostic apparatus according to any one of claims 1 to 11, wherein the control unit displays information indicating the estimated cause of the pain on the display unit.
前記体内画像取得部は、
前記被検体をX線で反復的にスキャンしてデータを収集し、収集された前記データを再構成して前記複数の体内画像を形成するX線CT装置、又は、
前記被検体にX線を連続的に又は間欠的に照射し、前記被検体を透過したX線を検出して前記X線の照射方向に略直交する平面に沿う前記複数の体内画像を形成するX線撮影装置である
ことを特徴とする請求項1〜請求項12のいずれか一項に記載の医用画像診断装置。
The in-vivo image acquisition unit
X-ray CT apparatus that repeatedly scans the subject with X-rays to collect data, and reconstructs the collected data to form the plurality of in-vivo images, or
The subject is irradiated with X-rays continuously or intermittently, X-rays transmitted through the subject are detected, and the plurality of in-vivo images are formed along a plane substantially orthogonal to the X-ray irradiation direction. It is an X-ray imaging apparatus. The medical image diagnostic apparatus as described in any one of Claims 1-12 characterized by the above-mentioned.
JP2012029298A 2012-02-14 2012-02-14 Medical diagnostic imaging equipment Active JP6073558B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012029298A JP6073558B2 (en) 2012-02-14 2012-02-14 Medical diagnostic imaging equipment
CN201310047413.0A CN103239253B (en) 2012-02-14 2013-02-06 Medical image diagnostic apparatus
CN201310047941.6A CN103239254B (en) 2012-02-14 2013-02-07 Medical diagnostic imaging apparatus
US13/766,184 US9655581B2 (en) 2012-02-14 2013-02-13 Medical image diagnostic apparatus
US13/766,983 US9050054B2 (en) 2012-02-14 2013-02-14 Medical image diagnostic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012029298A JP6073558B2 (en) 2012-02-14 2012-02-14 Medical diagnostic imaging equipment

Publications (2)

Publication Number Publication Date
JP2013165754A JP2013165754A (en) 2013-08-29
JP6073558B2 true JP6073558B2 (en) 2017-02-01

Family

ID=49176735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012029298A Active JP6073558B2 (en) 2012-02-14 2012-02-14 Medical diagnostic imaging equipment

Country Status (1)

Country Link
JP (1) JP6073558B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6415927B2 (en) * 2013-11-08 2018-10-31 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, X-ray computed tomography apparatus, and medical image processing program
KR101796361B1 (en) * 2015-11-27 2017-11-09 한국 한의학 연구원 Apparatus and method for measuring range of motion

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147930A (en) * 2002-10-31 2004-05-27 Fuji Photo Film Co Ltd Image diagnostic apparatus
JP2005304905A (en) * 2004-04-23 2005-11-04 Fuji Photo Film Co Ltd Radiographing apparatus

Also Published As

Publication number Publication date
JP2013165754A (en) 2013-08-29

Similar Documents

Publication Publication Date Title
US9050054B2 (en) Medical image diagnostic apparatus
JP5408399B1 (en) Image generation device
JP5643218B2 (en) X-ray CT apparatus and image display method using X-ray CT apparatus
JP5897273B2 (en) Medical image display apparatus and X-ray computed tomography apparatus
JP2013172792A (en) Medical image diagnostic apparatus
WO2015194545A1 (en) X-ray ct device and image reconfiguration method
US20120321161A1 (en) Image processing apparatus, image processing method, image pickup system, and program
JP2014087635A (en) Image processor and x-ray ct device
EP3827746A1 (en) Workflow for a dedicated magnetic resonance imaging system
WO2013111813A1 (en) Medical image processing device
KR20150095184A (en) Computer tomography apparatus and method for displaying a computer tomography image thereof
JP2003204961A (en) X-ray ct apparatus
JP2012000135A (en) Multi-modality dynamic image diagnostic apparatus
JP2008537892A (en) Cardiopulmonary screening using feedback from analysis to acquisition
JP2010154982A (en) X-ray computer tomographic imaging apparatus and image processor
JP2002028143A (en) Cardiac magnetic field diagnostic apparatus of atrial flutter and atrial fibrillation, and method for identifying electrical re-entry circuit of atrial flutter and atrial fibrillation
US10098604B2 (en) Medical image processing device, medical imaging device, medical image processing method and medical imaging method
JP6073558B2 (en) Medical diagnostic imaging equipment
JP2000051207A (en) Medical image processor
JP2006223333A (en) Image diagnostic apparatus
JP5963163B2 (en) Medical diagnostic imaging equipment
JP4303947B2 (en) X-ray CT apparatus and image processing apparatus
JP2017144238A (en) Medical image diagnostic apparatus, server and program
JP2013172793A (en) X-ray ct apparatus
JP6068177B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and medical image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160307

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160527

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160915

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170105

R150 Certificate of patent or registration of utility model

Ref document number: 6073558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350