WO2017213121A1 - 医用画像診断装置 - Google Patents

医用画像診断装置 Download PDF

Info

Publication number
WO2017213121A1
WO2017213121A1 PCT/JP2017/020938 JP2017020938W WO2017213121A1 WO 2017213121 A1 WO2017213121 A1 WO 2017213121A1 JP 2017020938 W JP2017020938 W JP 2017020938W WO 2017213121 A1 WO2017213121 A1 WO 2017213121A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
camera
imaging
image
data
Prior art date
Application number
PCT/JP2017/020938
Other languages
English (en)
French (fr)
Inventor
将央 山鼻
Original Assignee
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 東芝メディカルシステムズ株式会社 filed Critical 東芝メディカルシステムズ株式会社
Priority to US15/723,695 priority Critical patent/US11051781B2/en
Publication of WO2017213121A1 publication Critical patent/WO2017213121A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/541Control of apparatus or devices for radiation diagnosis involving acquisition triggered by a physiological signal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6828Leg
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • A61B6/527Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion using data from a motion artifact sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5288Devices using data or image processing specially adapted for radiation diagnosis involving retrospective matching to a physiological signal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Definitions

  • Embodiments of the present invention relate to a medical image diagnostic apparatus.
  • Medical image diagnostic apparatuses such as an X-ray CT (Computed Tomography) apparatus and an MRI (Magnetic Resonance Imaging) apparatus play an important role in many medical treatments such as diagnosis and treatment of diseases and surgical plans.
  • an X-ray CT apparatus rotates an X-ray source around a subject (patient) at high speed, and generates a large number of projection data based on the intensity of X-rays transmitted through the subject.
  • the X-ray CT apparatus reconstructs these projection data to obtain a medical image such as a two-dimensional image or a three-dimensional image of the subject.
  • Interpretation is performed based on the slice image acquired by the X-ray CT apparatus. For example, when confirming the position of the entire abnormal site such as a lesion, an image capable of grasping the whole is used. Therefore, in the prior art, in order to know the positional relationship and the whole image of the abnormal part discovered based on the slice image, a scano image obtained by capturing a wide area or a three-dimensional image is used. However, in the case of a scano image, it is executed prior to the main imaging, and therefore lacks real-time properties. When a three-dimensional image is used, it is necessary to image a region wider than the region to be inspected in order to ensure wide area. Yes, the exposure dose increases.
  • the problem to be solved by the present invention is to provide a medical image diagnostic apparatus capable of imaging with a reduced exposure dose while ensuring wide area and real-time characteristics.
  • the medical image diagnostic apparatus includes an imaging unit that images a first part of a subject and generates medical image data, and the imaging unit includes a second part of the subject that is different from the first part.
  • the biological information is acquired from a detection unit that detects biological information in the part, and the first part is imaged based on the biological information that changes due to the movement of the subject in the second part.
  • FIG. 1 is a conceptual configuration diagram illustrating an example of an X-ray CT apparatus according to an embodiment.
  • the schematic block diagram which shows an example of arrangement
  • the functional block diagram which shows the function structural example of the X-ray CT apparatus which concerns on embodiment.
  • 3 is a flowchart showing an example of the operation of the X-ray CT apparatus according to the first embodiment.
  • the functional block diagram which shows the function structural example of the X-ray CT apparatus which concerns on 4th Embodiment.
  • the flowchart which shows an example of operation
  • FIG. 1 is a diagram illustrating a configuration example of an X-ray CT apparatus according to an embodiment.
  • the X-ray CT apparatus 10 in FIG. 1 includes a scanner device 11 and a console device 12.
  • the scanner device 11 is usually installed in an examination room, and generates X-ray transmission data related to the subject Q, for example.
  • the console device 12 is normally installed in a control room adjacent to the examination room, and generates and displays a reconstructed image by generating projection data based on transmission data.
  • the scanner device 11 includes a gantry device 21, a couch device 22, a scan controller 23, and an operation panel 24.
  • the gantry device 21 is also called a gantry, and includes a fixed gantry 31 fixed to a base portion (not shown) and a rotary gantry 32.
  • the fixed mount 31 includes a rotation controller 41.
  • the rotation controller 41 rotates the rotating gantry 32 relative to the fixed gantry 31 in accordance with an instruction from the scan controller 23.
  • the fixed mount 31 and the rotary mount 32 include a slip ring 51 and a data transmission device 52.
  • the slip ring 51 presses a brush such as a carbon brush or a wire brush on the fixed frame 31 side from the side against an annular electric circuit (a metal ring) arranged concentrically in the rotary frame 32. It is a connector for rolling connection that ensures electrical conduction while slipping.
  • the data transmission device 52 includes a transmission circuit on the rotating gantry 32 side and a receiving circuit on the fixed gantry 31 side.
  • the transmission circuit transmits the raw data generated by the data collection circuit 66 described later to the reception circuit without contact.
  • the reception circuit supplies the raw data transmitted from the transmission circuit to the scan controller 23 described later.
  • the rotary mount 32 includes a high voltage generator 61, an X-ray tube 62, a collimator controller 63, an X-ray optical system 64, an X-ray detector 65, and a data collection circuit 66.
  • the rotating mount 32 is also called a rotating frame.
  • the rotating gantry 32 integrally holds a high voltage generator 61, which will be described later, a data collection circuit 66, and the like. That is, the rotary gantry 32 can rotate around the subject Q as a unit with the X-ray tube 62 and the X-ray detector 65 facing each other.
  • a direction parallel to the rotation center axis of the rotary mount 32 is defined as the z direction
  • a vertical direction is defined as the y axis.
  • the high voltage generator 61 supplies the X-ray tube 62 with electric power necessary for executing a scan by a control signal from the scan controller 23 via the slip ring 51.
  • the X-ray tube 62 generates X-rays by causing an electron beam to collide with a metal target according to the tube voltage supplied from the high voltage generator 61, and irradiates the X-rays toward the X-ray detector 65. To do. Fan beam X-rays and cone beam X-rays are formed by the X-rays emitted from the X-ray tube 62.
  • the X-ray tube 62 is supplied with electric power necessary for X-ray irradiation under the control of the scan controller 23.
  • the collimator controller 63 adjusts the irradiation range of the X-ray optical system 64 in the X-ray slice direction in accordance with the control by the scan controller 23.
  • the X-ray optical system 64 includes various instruments that control the irradiation conditions such as the X-ray beam dose, irradiation range, shape, and radiation quality.
  • the X-ray optical system 64 includes a wedge filter, a collimator, and the like.
  • the wedge filter adjusts the X-ray dose of X-rays generated by the X-ray tube 62.
  • the collimator is a slit for narrowing the X-ray irradiation range with respect to the X-ray whose dose has been adjusted under the control of the collimator controller 63.
  • the X-ray detector 65 is, for example, a one-dimensional array type detector having a plurality of detection elements in the channel direction and a single detection element in the column (slice) direction.
  • the X-ray detector 65 may be a matrix, that is, a two-dimensional array type detector having a plurality of detection elements in the channel direction and a plurality of detection elements in the slice direction.
  • the X-ray detector 65 detects X-rays emitted from the X-ray tube 62.
  • the two-dimensional array type detector is also called a multi-slice type detector.
  • a scan of a three-dimensional region having a width in the column direction can be executed by one rotation (or half rotation + ⁇ ) of the rotary mount 32. This scan is called a volume scan.
  • the data collection circuit 66 has a plurality of DAS (Data Acquisition System). Each DAS collects data in synchronization with switching of the tube voltage in the scan. Each DAS amplifies the transmission data signal detected by each detection element of the X-ray detector 65, and converts the amplified transmission data signal into raw data (Raw Data) that is a digital signal. Each DAS transmits projection data to the scan controller 23 via the data transmission device 52.
  • DAS Data Acquisition System
  • optical cameras 67 1 to 67 n are fixed to the frame of the opening A, and are installed so that the inside of the opening A is the imaging direction.
  • n in the optical camera 67 n is a natural number, and hereinafter, when simply referred to as the optical camera 67, it means the entire optical camera 67 1 to 67 n .
  • the optical camera 67 is installed so that the subject Q placed on the top 71 can be imaged.
  • the optical camera 67 may not be installed in the gantry, and may be installed on the ceiling or floor of the examination room, for example, as long as the subject Q can be imaged.
  • Data acquired by the optical camera 67 is processed by the console device 12 via the scan controller 23.
  • the X-ray CT apparatus 10 may be configured such that data acquired by the optical camera 67 is transmitted to the scan controller 23 in a non-contact manner like the data transmission apparatus 52.
  • the optical camera 67 may include a camera that detects infrared light in addition to a camera that detects visible light.
  • a camera that detects infrared rays can measure body temperature, blood pressure, blood glucose level, and the like.
  • the couch device 22 of the scanner device 11 includes a top board 71 and a top board controller 72.
  • the top plate 71 can place the subject Q thereon.
  • the top controller 72 moves the top 71 up and down along the y direction according to the control by the scan controller 23, and horizontally moves the top 71 on which the subject Q is placed along the z direction as follows. Let That is, the top controller 72 inserts the top 71 subject Q toward the opening A including the center of rotation of the rotary mount 32, and retracts the top 71 from the opening A after the imaging is completed.
  • the scan controller 23 includes a CPU (Central Processing Unit) and a memory (not shown).
  • the scan controller 23 controls each part of the gantry device 21 such as the rotation controller 41, the high voltage generator 61, the collimator controller 63, and the top controller 72 of the bed device 22 in accordance with commands input from the operation panel 24 and the console device 12. Control. Further, the scan controller 23 collects projection data and camera data in parallel while controlling the data collection circuit 66 and the optical camera 67 based on communication with the processing circuit 81 of the console device 12, and stores the data in each data. Time information at the time of collection is given.
  • CPU Central Processing Unit
  • the time information is synchronization information related to the imaging time or time phase when the data collection circuit 66 and the optical camera 67 image the subject Q in parallel. Time information indicating that images are captured at the same time is assigned to the projection data acquired from the data acquisition circuit 66 and the camera data acquired from the optical camera 67, respectively.
  • time information for example, various information relating to the imaging time or time phase such as clock information, time stamp, counter information, and the like can be used.
  • the operation panel 24 is provided on both sides of the opening A of the gantry device 21 and on the front and rear sides.
  • the operator inputs various commands and conditions from the operation panel 24 while confirming the state of the subject Q. Specifically, instructions for turning off and turning on a projector (not shown) that emits light for visually recognizing the X-ray irradiation range, and commands for moving, stopping, and automatically feeding the top plate 71 are input from the operation panel 24. .
  • the console apparatus 12 of the X-ray CT apparatus 10 is configured based on a computer, and can communicate with an external apparatus via a network such as a LAN (Local Area Network).
  • the console device 12 includes basic hardware such as a processing circuit 81, a storage circuit 82, an input circuit 83, and a display 84.
  • the processing circuit 81 is interconnected to each hardware component constituting the console device 12 via a bus as a common signal transmission path.
  • the console device 12 may include a storage medium drive.
  • the processing circuit 81 may be configured by dedicated hardware, or may be configured to realize various functions by software processing using a built-in processor.
  • a case where the processing circuit 81 realizes various functions by software processing by a processor will be described.
  • the processor is a dedicated or general-purpose CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC: Application Specific Integrated Circuit), a programmable logic device, and a field programmable gate array (FPGA: Field Programmable).
  • a circuit such as Gate Array.
  • Examples of the programmable logic device include a simple programmable logic device (SPLD: Simple Programmable Logic Device) and a complex programmable logic device (CPLD: Complex Programmable Logic Device).
  • SPLD Simple Programmable Logic Device
  • CPLD Complex Programmable Logic Device
  • the processing circuit 81 may be constituted by a single processor or a combination of a plurality of independent processors. In the latter case, a plurality of storage circuits 82 respectively corresponding to a plurality of processors may be provided, and a program executed by each processor may be stored in a storage circuit corresponding to the processor. As another example, one storage circuit 82 may collectively store programs corresponding to the functions of a plurality of processors.
  • the storage circuit 82 includes, for example, a semiconductor memory element such as a RAM (Random Access Memory) and a flash memory (Flash Memory), a hard disk, an optical disk, and the like.
  • the storage circuit 82 may be configured by a portable medium such as a USB (Universal Serial Bus) memory and a DVD (Digital Video Disk).
  • the storage circuit 82 stores various programs executed by the processing circuit 81 (including application programs, OS (Operating System), and the like), data necessary for executing the programs, and image data. Further, a GUI (Graphical User Interface) for realizing a basic operation for controlling the OS by the input circuit 83 can be included.
  • GUI Graphic User Interface
  • the input circuit 83 is a circuit for inputting a signal from an input device such as a pointing device.
  • the input device itself is also included in the input circuit 83.
  • the input circuit 83 When the input device is operated by the operator, the input circuit 83 generates an input signal corresponding to the operation and outputs this input signal to the processing circuit 81.
  • the console device 12 may include a touch panel in which an input device is configured integrally with the display 84.
  • the display 84 is a display device such as a liquid crystal display panel, a plasma display panel, and an organic EL (Electro Luminescence) panel.
  • the display 84 displays an image according to the control of the processing circuit 81.
  • Projection data and camera data are input from the scanner device 11 to the console device 12.
  • the console device 12 stores these projection data and camera data in the storage circuit 82.
  • the projection data is reconstructed or the camera data is processed, and a display based on the synchronization information is generated and displayed on the display 84.
  • a method for generating a display based on the synchronization information will be described later.
  • FIG. 2 is a schematic configuration diagram showing an example of the arrangement of the optical camera 67 of the X-ray CT apparatus 10 in FIG.
  • FIG. 2A is a schematic plan view of the gantry device 21 observed from the z-axis direction of FIG.
  • eight optical cameras 67 are attached around the opening A with the inside of the opening A as the imaging direction.
  • the optical camera 67 is annularly attached at a predetermined interval so as to make one round of the xy plane, for example, on the inner wall of the gantry device 21, that is, on the inner surface of the opening A of the gantry device 21. That is, the optical camera 67 is attached so that the subject Q can be imaged from all directions. In the case of the X-ray CT apparatus 10 including the bed apparatus 22 illustrated in FIG. 1, the optical camera 67 may be attached to a portion above the bed. *
  • FIG. 2 (b) is a schematic cross-sectional view taken along the line BB indicated by a one-dot chain line in FIG. 2 (a).
  • the optical camera 67 is attached to the frame of the rotary mount 32 with the inside of the opening A as the imaging direction.
  • the X-ray tube 62 and the X-ray detector 65 are installed inside the frame of the rotating gantry 32 and are rotatably provided, whereas the optical camera 67 is fixed to the frame of the rotating gantry 32 and rotates. It is installed so as not to.
  • FIG. 2B shows an example in which eight optical cameras 67 are attached to the opening A in a ring shape and attached back and forth in the Z-axis direction, and a total of 16 optical cameras 67 are installed.
  • the number of optical cameras 67 and the installation method are not limited to the mode of FIG.
  • FIG. 3 is a functional block diagram showing a functional configuration example of the X-ray CT apparatus 10 according to the embodiment.
  • the console device 12 of the X-ray CT apparatus 10 of FIG. 3 includes a projection data storage circuit 821, a reconstructed image storage circuit 823, a camera data storage circuit 825, and a processing data storage circuit 827.
  • the projection data storage circuit 821, the reconstructed image storage circuit 823, the camera data storage circuit 825, and the processing data storage circuit 827 may each be configured as a storage area in the storage circuit 82, or a storage circuit different from the storage circuit 82 It may be constituted by.
  • the processing circuit of the console device 12 has an image reconstruction function 811, a data processing function 813, and an index management function 815.
  • the image reconstruction function 811, the data processing function 813, and the index management function 815 are functions realized when the processor of the processing circuit 81 executes a program stored in the storage circuit 82.
  • Projection data storage circuit 821 stores projection data collected by data collection circuit 66. Projection data is collected in parallel with the camera data, and is given the same time information. Therefore, the projection data storage circuit 821 stores projection data having the same time information as the camera data.
  • the projection data is data conforming to the DICOM (Digital Imaging and Communication Communication in Medicine) format, and the synchronization information may be held as incidental information in the DICOM standard.
  • the reconstructed image storage circuit 823 stores a reconstructed image obtained by reconstructing projection data.
  • the time information included in the projection data is also left in the image data of the reconstructed image.
  • the camera data storage circuit 825 stores the camera data collected by the optical camera 67.
  • the camera data is collected in parallel with the projection data and given the same time information as the projection data.
  • the camera data storage circuit 825 stores camera data having the same time information as the projection data.
  • the processing data storage circuit 827 stores processing data in which angle information is added to camera data.
  • the processing data storage circuit 827 stores processing data generated by executing combining processing or division processing on a plurality of camera data.
  • the time information and the angle information included in the camera data are also included in the processing data that has been subjected to the combining process or the dividing process. The angle information will be described later.
  • the image reconstruction function 811 reconstructs the projection data and generates reconstruction data (medical image data).
  • reconstruction data medical image data
  • the three-dimensional reconstruction data may include angle information corresponding to the angle information given to the camera data.
  • the data processing function 813 gives angle information to the camera data.
  • a combination process or a division process is performed on a plurality of camera data.
  • the index management function 815 generates a display image of the other data that matches the synchronization information based on the synchronization information given to the selected one of the reconstructed data and the camera data. For example, when camera data is selected, the index management function 815 generates an image in a temporary phase as an index image and generates an index image as a display image among camera data acquired in a plurality of directions. An index image generation method will be described later.
  • a method for displaying a reconstructed image and camera data with matching synchronization information is a first embodiment.
  • a case in which the same configuration as that of the first embodiment and an imaging range in which the optical camera 67 and the X-ray are different is imaged is a second embodiment.
  • the case where the same configuration as the configuration of the first embodiment is provided and the imaging range of the optical camera 67 is moved while the imaging range of the X-ray is moved is referred to as a third embodiment.
  • a case where the movement of the subject is detected by a sensor attached to the subject and a part in motion is imaged is a fourth embodiment.
  • FIG. 4 is a flowchart showing an example of the operation of the X-ray CT apparatus 10 according to the first embodiment.
  • the operation of the X-ray CT apparatus 10 according to the first embodiment will be described according to the step numbers in the flowchart of FIG. 4 with reference to FIGS. 5 and 6 as appropriate.
  • step ST101 the scanner device 11 collects projection data and camera data in parallel.
  • time information corresponding to the time phase or timing of the captured image is given as synchronization information to the collected projection data and camera data, respectively.
  • time information may be given to the projection data by the data collection circuit 66, or time information may be given by the scan controller 23.
  • time information may be given to the camera data by each optical camera 67 under the control of the scan controller 23, or time information may be given by the scan controller 23.
  • the projection data to which the time information is added is stored in the projection data storage circuit 821.
  • camera data provided with time information is stored in the camera data storage circuit 825.
  • the image reconstruction function 811 reconstructs the projection data to which the time information is added, and generates reconstruction data. Note that when the projection data is volume data, reconstruction data of a three-dimensional image is generated. In this case, the image reconstruction function 811 may further add angle information as synchronization information to the reconstruction data of the three-dimensional image.
  • step ST107 the data processing function 813 gives angle information indicating the imaging direction of the optical camera 67 to the camera data.
  • FIG. 5 is a conceptual diagram illustrating angle information of the optical camera of the X-ray CT apparatus according to the first embodiment.
  • FIG. 5A is a schematic plan view showing an example in which the optical camera 67 is installed around the subject Q at an interval of 45 ° in the xy plane.
  • the optical camera 67 is attached to the frame of the rotating gantry 32 so as to make one round along the XY plane with the y-axis direction that is the front of the subject Q, that is, the vertical direction being 0 °.
  • a plurality of optical cameras 67 are installed at equal intervals, but only two are shown in FIG.
  • the installed angle of the optical camera 67 1 camera number 1 0 ° the installed angle of the camera No. 2 of the optical camera 67 2 is 45 °.
  • the front side in the z direction that is, the gantry insertion port side and the eight gantry rear side, according to the angle information shown in FIG.
  • the position of each optical camera 67 can be specified.
  • FIG. 5B shows the camera number, camera angle, and position in order from the left.
  • the camera angle of the camera number “1” is “0 °”, and the position is “front”.
  • the camera angle with the camera number “2” is “45 °”, the position is “front”, the camera angle with the camera number “16” is “315 °”, and the position is “rear”.
  • the camera data includes the angle information indicating the camera angle of the corresponding camera number and the front and rear positions as synchronization information.
  • the angle information is synchronization information indicating the direction of the optical camera 67. Synchronization information corresponding to this angle information may be included in the three-dimensional reconstruction data. A three-dimensional reconstructed image can be displayed at an angle of 360 °. On the other hand, the camera angle is 45 ° in the example of FIG. In order to synchronize the camera angle and the rotation angle of the three-dimensional reconstructed image, for example, the rotation angle of 45 ° to 90 ° of the reconstruction data may correspond to the camera data of the camera angle of 45 °. Good. In addition to the camera angle, the angle information may include information such as the viewing angle of the optical camera 67, for example, and the viewing angle may be included in the reconstruction data as synchronization information.
  • the index management function 815 generates an index image of camera data corresponding to the designated synchronization information. Specifically, either synchronization information of time information and angle information of camera data is selected, and an index image of camera data based on either the imaging time or the imaging direction is generated.
  • the index image is a representative image in either time or direction of camera data and reconstruction data.
  • FIG. 6 is a diagram for explaining an index image of the X-ray CT apparatus 10 according to the first embodiment.
  • the camera data includes angle information and time information as synchronization information for each camera number.
  • FIG. 6 shows an example in which a total of 16 optical cameras are installed as in the description of FIG. In the upper part of FIG. 6, camera numbers are shown below the direction arrows, and camera data of camera number 1, camera number 2,..., Camera number 16 are shown from the left.
  • Each camera data includes the camera angle and the camera position as angle information. From the left, “camera angle 0 °, position before”, “camera angle 45 °, position before”, and so on. “Camera angle 315 °, after position”.
  • the arrow shown in the left part of FIG. 6 indicates, for example, the elapsed time or time phase from the start of imaging, and the elapsed time of each camera data is indicated as t0, t1,.
  • t1 is selected as the synchronization information
  • an image of the time phase t1 of each camera data is generated as an index image by the index management function 815.
  • the index image in the time axis direction may be, for example, a moving image or an image sampled at a predetermined time interval.
  • step ST111 the display 84 displays an index image.
  • step ST113 the user selects an index image displayed on the display 84.
  • step ST115 the index management function 815 displays a CT image corresponding to the index image based on the index image selected in step S113.
  • FIG. 7 is a diagram illustrating a first display example of the X-ray CT apparatus 1 according to the first embodiment.
  • FIG. 7 shows an example in which a camera number, that is, angle information is selected as synchronization information, and a CT image of a certain time is selected by an index image based on the angle information.
  • “camera number 1 camera angle 0 °” is shown as a selection direction.
  • an index image for each time phase is generated.
  • index images ID1 to IDm of time phases t0, t1, t2, t3,... Tm are displayed. For example, when the index image ID2 of the time phase t1 is selected from the displayed index images, the CT image V1 corresponding to the time phase t1 is displayed.
  • the CT image corresponding to the selected time phase is searched by the index management function 815 based on the synchronization information of the reconstructed data. That is, the index management function 815 acquires angle information and time information from the selected index image ID2, and selects a CT image corresponding to the time phase indicated by the acquired time information from the reconstruction data.
  • the index image of FIG. 7 is generated based on the angle information “camera angle 0 °”, and when the index image ID2 is selected from among them, the selected index image ID2 includes “ Synchronization information “time phase t1” is included. Therefore, the index management function 815 extracts the synchronization information “camera angle 0 °” and “t1” from the selected index image ID2, and “camera angle 0 °” and “t1” from the reconstructed data. A CT image corresponding to the synchronization information is retrieved.
  • each index image is shown as a still image, but may be a moving image.
  • still images may be extracted from camera data acquired as a moving image at predetermined time intervals and displayed as a frame advance moving image.
  • the imaging range of the camera data and the reconstruction data is almost the same is shown, but the imaging range of the X-ray may be a range narrower than the imaging range of the optical camera 67.
  • FIG. 7 illustrates an example in which a CT image is searched from an index image of camera data based on angle information.
  • a CT image captured from a certain direction is searched based on an index image generated from camera data by selecting time information.
  • FIG. 8 is a diagram for explaining a second display example of the X-ray CT apparatus according to the first embodiment.
  • index images for each camera data in a certain time phase for example, time phase t2 are displayed in the order of camera numbers.
  • a CT image V3 corresponding to the index image ID3 may be displayed as shown in the lower right of FIG. Similar to FIG. 7, based on the time information “t2” included in the index image ID3 selected in the upper part of FIG. 8 and the synchronization information of the angle information “camera angle 90 °”, the synchronization information is obtained from the reconstructed data.
  • a matching CT image V3 is retrieved and displayed. That is, the index management function 815 searches the reconstruction data for reconstruction data corresponding to the synchronization information “camera angle 90 °” and “t2”, and generates a CT image from the retrieved reconstruction data. .
  • the index image may be generated based on “time phase t0”, that is, an image of the time phase at the beginning of the moving image.
  • time phase t0 an image of the time phase at the beginning of the moving image.
  • X-rays are displayed so that camera data with a camera angle of 90 ° is displayed as a moving image in the camera image V2.
  • the CT apparatus 10 may be configured.
  • the X-ray CT apparatus displays the CT image V3 based on the selected time when the user selects the time phase again based on the moving image displayed on the camera image V2. 10 may be configured.
  • FIG 7 and 8 show an example in which camera data is used as an index image, but reconstruction data may be used as an index image.
  • FIG. 9 is a diagram for explaining a third display example of the X-ray CT apparatus 10 according to the first embodiment.
  • FIG. 9 shows an example in which a CT image is used as an index image.
  • the CT image V4 in the lower left of FIG. 9 is an index image of “selection time t2”.
  • a CT image V4 in the lower left of FIG. 9 is a three-dimensional image and can be rotated at an arbitrary angle by an operation.
  • a case where the CT image V4 is rotated 45 ° counterclockwise is shown. That is, when the CT image V4 is an index image, time information t2 as time information and 45 ° synchronization information as angle information are transmitted to the index management function 815.
  • the index management function 815 searches the camera image V5 corresponding to the received synchronization information from a plurality of camera data.
  • the CT image V4 displayed as the index image may be an image of time phase t0, and after the camera image corresponding to the angle information is selected, the CT image V4 and the camera image V5 may be simultaneously reproduced as a moving image. . That is, since the CT image V4 and the camera image V5 are data captured in the same time phase, the X-ray CT apparatus 10 shows the state inside the body and the state outside the body collected in parallel on the screen. Can be displayed in parallel.
  • the angle information of the CT image is set to 45 ° for the sake of simplicity, but other angles may be used.
  • the angle information of the reconstruction data may be set so that a CT image from 45 ° to 90 ° corresponds to camera data having a camera angle of 45 °. Accordingly, when the CT image is rotated by 60 °, camera data having a camera angle of 45 ° may be displayed in the same manner.
  • the angle information of the reconstructed image may be set according to the viewing angle of the camera. For example, when the viewing angle of camera number 1 is from ⁇ 45 ° to + 45 °, 315 ° ( ⁇ 45 °) to 45 ° of the CT image may be set as angle information corresponding to camera number 1. That is, each part of the X-ray CT apparatus 10 may be configured such that camera data of camera number 1 is displayed when a CT image is selected between 315 ° ( ⁇ 45 °) and 45 °.
  • the camera position is not used as the synchronization information.
  • the camera data before and after the search may be displayed at the same time, or only one of them may be displayed.
  • An index image may be generated based on a combined image obtained by combining camera data.
  • FIG. 10 is a conceptual diagram illustrating the combination of camera images of the X-ray CT apparatus according to the first embodiment.
  • the left figure of Fig.10 (a) has each shown the imaging range of the camera A which is the front side in the z-axis direction, and the camera B which is the rear side in the z-axis direction.
  • the right figure of Fig.10 (a) has shown the image acquired with each camera.
  • the data processing function 813 can combine the images of the camera A and the camera B shown in the right diagram of FIG. 10A to generate one combined image as shown in FIG.
  • image processing such as distortion correction and coordinate conversion is performed on the synthesized image, thereby generating one image in which two images are continuously combined.
  • “continuously combined” means, for example, that the same region of the subject indicated by the two images does not overlap and that image information of the subject region included in the two images is not lost at all. This means that two images are combined.
  • the X-ray CT apparatus 10 is configured so that camera data acquired by two adjacent optical cameras 67 are combined to generate one image. May be. Further, the X-ray CT apparatus 10 may be configured such that one camera data is divided and two or more camera data are generated. Further, image processing such as generating two camera data from three camera data is possible. Note that the angle information of the camera data that has been subjected to the combining process or the division process may include the angle information of the camera data before the process as it is, or may be newly updated.
  • the generated image data is not limited to two-dimensional image data.
  • the image data generated by combining two or more camera data may be three-dimensional image data.
  • three-dimensional image data can be generated by using camera data acquired by cameras whose installation angle between two cameras is 90 ° with respect to the subject P. By using the three-dimensional image data generated from the camera data, it is possible to acquire three-dimensional motion information such as rotational motion and twist of the imaging target portion of the optical camera.
  • the camera data is generated by optical imaging in parallel with the generation of projection data by X-ray imaging, so that the same time phases are obtained. It is possible to generate reconstruction data and camera data corresponding to the above-mentioned multiple time phases. That is, the X-ray CT apparatus 10 can display a reconstructed image and a camera image having the same time phase in parallel.
  • the optical camera 67 can easily capture a wider range than the imaging range with X-rays, it is possible to obtain wide-area information while reducing the exposure dose.
  • the X-ray CT apparatus 10 includes the plurality of optical cameras 67, in addition to the time direction image search, the rotation direction image search can be performed. For example, it is easier to perform image retrieval in the time direction using a moving image of camera data. On the other hand, regarding the rotation direction, it is easier to use a three-dimensional reconstructed image. In the first embodiment, it is possible to perform a display having both of these, and it is possible to search for a camera image and a reconstructed image in a time and direction that the user wants to display by a method that is easy for a user to search.
  • the second embodiment relates to a case where the same configuration as that of the first embodiment is provided and an imaging range in which the optical camera 67 and X-rays are different is imaged.
  • the second embodiment will be described by taking imaging of an arm as an example.
  • the subject Q may be caused to bend the finger or wrist, hold the fist, or open.
  • Various muscles are connected to the bones constituting the joint via tendons, and an abnormal site may be diagnosed by operating a site away from the joint.
  • diagnosing a joint it is necessary to observe a part different from the diagnosis part in parallel.
  • FIG. 11 is a first diagram illustrating imaging in the X-ray CT apparatus according to the second embodiment.
  • FIG. 11 illustrates a case where the elbow joint is imaged with X-rays while the subject Q performs an operation of holding or opening a hand.
  • the elbow joint is an X-ray imaging target as a “diagnosis range” for effective diagnosis, while an “observation range” for observing the state of the subject Q related to the diagnosis is an imaging target of the optical camera 67.
  • An example is shown.
  • the X-ray projection data collection and the optical camera 67 collection of the camera data may be performed in parallel. Good.
  • FIG. 12 is a second diagram illustrating imaging in the X-ray CT apparatus according to the second embodiment.
  • the X-ray imaging range is different from the optical camera 67 imaging range, but the optical camera 67 imaging range is set to include the X-ray imaging range. Show.
  • the elbow joint is imaged while the arm is bent and extended, the entire arm is the imaging range of the optical camera 67, and the elbow joint is an imaging range by X-rays for effective diagnosis.
  • the X-ray CT apparatus 10 As described above, according to the X-ray CT apparatus 10 according to the second embodiment, information necessary for diagnosis can be easily obtained while reducing the exposure dose. For example, at the time of imaging, it can be avoided that the subject Q maintains an unreasonable posture or endures pain for a long time. Since the state of the subject Q is observed with the optical camera 67, for example, as in the past, a posture that can be effectively diagnosed during imaging is identified, and the operation for that posture is repeated many times. There is no need to have the subject Q go. Doctors etc. identify the posture of subject Q by stopping the reconstructed image and the camera image at the same time during slow interpretation or slow-playing and observing the movement before and after it with a moving image. You can focus and interpret areas where there are abnormalities.
  • the third embodiment relates to a case where the same configuration as that of the first embodiment is provided, and the imaging range of the optical camera 67 is moved and the imaging range of the X-ray moves.
  • the imaging range of the optical camera 67 is moved and the imaging range of the X-ray moves.
  • the second embodiment an example in which imaging is performed with the X-ray imaging range fixed is shown.
  • the X-ray CT apparatus moves the X-ray imaging range within the imaging range of the optical camera 67. 10 may be configured.
  • FIG. 13 is a diagram for explaining imaging in the X-ray CT apparatus according to the third embodiment.
  • the imaging range of the optical camera 67 is the entire upper body including the mouth, and imaging is performed so that the diagnostic range that is the imaging range of X-rays moves within the observation range. Also good.
  • Objects to be observed by X-ray imaging include feeding of food from the oral cavity to the pharynx, the presence or absence of backflow to the nasal cavity, and the size of the esophagus when food reaches the entrance of the esophagus. That is, it suffices if an area where food is present can be imaged by X-ray imaging at the timing when contrasted food is present. Therefore, as shown in FIG. 13, by moving the imaging range of the X-ray imaging range in the observation range that is the imaging range of the optical camera 67 according to the movement of the contrasted food, While reducing the exposure dose, the entire state of swallowing can be observed in parallel.
  • swallowing has been described as an example, but the present invention can also be applied to X-ray contrast imaging of the small intestine.
  • X-ray contrast imaging of the small intestine it is an imaging for observing how the contrast medium moves to the duodenum, jejunum, and ileum by peristaltic motion. Accordingly, as in the case of FIG. 13, the imaging range of the X-ray can be limited while imaging with the optical camera 67, and imaging can be performed by moving the imaging range according to the movement of the contrast agent.
  • X-ray imaging of the part to be diagnosed can be performed while observing the entire moving range, thereby reducing the exposure dose. Can be inspected.
  • the fourth embodiment relates to a case where imaging of a diagnostic part is executed based on biological information collected by a sensor attached to a subject P, having the same configuration as that of the first embodiment.
  • FIG. 14 is a functional block diagram showing a functional configuration example of the X-ray CT apparatus 10 according to the fourth embodiment.
  • FIG. 14 only the structure different from FIG. 3 which shows the function structural example of the X-ray CT apparatus 10 which concerns on 1st Embodiment is demonstrated, and the description about the overlapping structure is abbreviate
  • the X-ray CT apparatus 10 of FIG. 14 has a sensor 68 in addition to the configuration of FIG.
  • the sensor 68 is attached to the subject P and collects biological information related to the voluntary movement of the subject P.
  • the voluntary exercise is an exercise based on the intention or intention of the subject P.
  • the exercise based on the intention or intention of the subject P is an exercise by controlling the skeletal muscle of the subject P via the cerebral cortex.
  • voluntary movements include bending and stretching of limbs, waist and neck, chewing and swallowing, jumping, and vocalization.
  • breathing exercise is not included in voluntary exercise. Therefore, in the following description, exercise is voluntary exercise that does not include respiratory exercise.
  • the sensor 68 attached to the subject P includes sensor types such as an electromyograph, an acceleration sensor, a gyro sensor, a motion sensor, a sensor for detecting pressure, vibration, and sound.
  • the optical camera 67 may be used as a sensor for detecting voluntary movement of the subject P.
  • the motion of the subject P may be detected based on 3D image data generated based on camera data.
  • the processing circuit 81 of the console device 12 has a setting function 817 and an imaging timing determination function 819 in addition to the configuration of FIG.
  • Each of the setting function 817 and the imaging timing determination function 819 is a function realized by the processing circuit 81 executing a program stored in the storage unit 82.
  • the setting function 817 receives an input of the imaging target part by the user and specifies a detection target part associated with the input imaging target part.
  • the imaging target part is a part that is a target for X-ray imaging
  • the detection target part is a part that is different from the imaging target part that is a target for collecting biological information by the sensor 68.
  • the part to be imaged is referred to as “first part”
  • the part to be detected is referred to as “second part”.
  • the second part is not limited to a part different from the first part.
  • the first part and the second part may be in a state where the regions partially overlap or in an inclusive relationship.
  • the setting function 817 specifies the type of sensor attached to the subject P based on the second part.
  • the specification of the sensor type in the setting function 817 may be executed based on the input of the detection target part (second part) by the user, or based on the second part specified based on the imaging target part input by the user. May be specified.
  • the first part, the second part, and the sensor type in the setting function 817 are specified based on part combination information and sensor type information stored in a setting information storage circuit 829 described later. Further, the setting function 817 may display the sensor type attached to the second part and the attachment position of the sensor on the display 84 and present them to a user such as a laboratory technician.
  • the imaging timing determination function 819 analyzes the biological information from the sensor 68, detects the movement of the subject P based on the change in the biological information, and determines the imaging timing of the first part according to the detected timing of the movement. To do.
  • the imaging timing determination function 819 transmits an imaging instruction to the scan controller 23 at the determined imaging timing.
  • the biological information detected by the sensor 68 is given time information as in the first embodiment, and is stored in the storage circuit 82 in association with CT image data and optical image data captured at the same time. May be.
  • the storage circuit 82 of the console device 12 includes a setting information storage circuit 829 in addition to the configuration of FIG.
  • the setting information storage circuit 829 may be configured as a storage area in the storage circuit 82, or may be configured by a storage circuit different from the storage circuit 82.
  • the setting information storage circuit 829 has part combination information and sensor type information.
  • the part combination information is a table in which a set of the first part and the second part is used as a data unit.
  • the part combination information defines a combination of a first part that is an imaging target part and a second part that is a detection target part. The part combination information will be described in detail later with reference to FIG.
  • Sensor type information is information in which the second part and the sensor type for detecting the biological information in the second part are associated with each other.
  • the sensor type information may include the attachment position of the sensor, the type of motion detected by the sensor, and threshold information (timing information) when the sensor detects motion.
  • the sensor type information will be described in detail later with reference to FIG.
  • FIG. 15 is a flowchart showing an example of the operation of the X-ray CT apparatus 10 according to the fourth embodiment.
  • the operation of the X-ray CT apparatus 10 of the fourth embodiment will be described according to the step numbers of the flowchart shown in FIG. 15 with reference to FIGS. 16 and 17.
  • step ST401 the user inputs an imaging target part (first part) via the input circuit 83.
  • the setting function 817 receives an input of the imaging target part (first part), refers to the part combination information stored in the setting information storage circuit 829, and detects the detection target part (second part) corresponding to the first part. (Site) is specified.
  • the setting function 817 may display the second part candidates on the display 84 and allow the user to select the second part.
  • FIG. 16 is a table for explaining the part combination information.
  • the part combination information defines a combination of the first part and the second part.
  • the left column of the table in FIG. 16 indicates a portion corresponding to the first portion
  • the right column of the table indicates a portion corresponding to the second portion.
  • the first part on the left is “elbow joint”, and the second part on the right is “upper arm”.
  • the first part on the left is the “hip joint”, and the second part on the right is the “thigh”.
  • the first part on the left is “esophagus”, and the second part on the right is “pharynx”.
  • the setting function 817 specifies that the “upper arm” is the second part.
  • the setting function 817 refers to the sensor type information stored in the setting information storage circuit 829 and identifies the sensor type in the detection target part (second part). Note that the setting function 817 may specify the sensor type based on the second part input by the user.
  • step ST407 the setting function 817 displays the sensor type and the sensor mounting position in the detection target part (second part).
  • FIG. 17 is a table explaining sensor type information.
  • the sensor type information defines the correspondence between the second part and the sensor type in the second part.
  • the first column of the sensor type table shown in FIG. 17 shows, in order from the left, the second part (detection target part), the sensor type, the attachment position, the motion to be detected, and the timing information.
  • the sensor type is the type of sensor 68 including the optical camera 67.
  • the attachment position is a part of the subject P to which the sensor 68 is attached.
  • the sensor mounting position may be the same as the second part or may be a part of the second part.
  • the detected motion is a type of motion that can be determined by the imaging timing determination function 819 based on the biological information detected by the sensor 68.
  • the timing information is a change in biological information indicating the start of exercise or during exercise, for example, threshold information in an output signal of the sensor 68.
  • timing information indicate that the movement of bending the elbow joint is started at the timing when the numerical value of the electromyograph, which is biological information, becomes X ⁇ V / sec or more.
  • the timing information indicate that an exercise of extension of the elbow joint is started at a timing when the numerical value of the electromyograph, which is biological information, becomes Y ⁇ V / sec or more.
  • the sensor mounting position may differ depending on the motion to be detected. For example, if the motion to be detected is “flexion of the elbow joint”, the mounting position of the sensor is “biceps”, but if the motion to be detected is “extension of the elbow”, it is “triceps” is there. Accordingly, the sensor type associated with the second part, the attachment position, and the motion to be detected are displayed in a list on the display 84, and each part of the X-ray CT apparatus 10 is selected so that the user can select a combination suitable for the examination of the subject P. May be configured.
  • the setting function 817 may specify the sensor type, the mounting position, and the motion to be detected based on other object information such as examination information and medical chart information related to imaging of the object P.
  • the sensor 68 is not a device installed in the X-ray CT apparatus 10 in advance, but must be prepared by a user such as an inspection engineer for each inspection. Even when the same sensor 68 is used, the mounting position of the sensor 68 varies depending on the motion to be detected. Therefore, the sensor type and the mounting position are presented to a user such as an inspection engineer, so that the user The sensor 68 can be easily prepared and attached to the subject P.
  • step ST409 collection of biological information is started in the sensor 68 attached to the subject P.
  • the imaging timing determination function 819 analyzes the biological information collected by the sensor 68, determines a change in the biological information based on the timing information corresponding to the detected motion, and identifies the motion of the subject P. .
  • the imaging timing determination function 819 transmits an imaging instruction to the scan controller 23 when the movement start timing of the subject P is specified based on the change in the biological information.
  • step ST413 the scan controller 23 performs imaging of the first part of the subject P, and acquires a CT image of the first part.
  • FIG. 18 is a schematic diagram for explaining an example of a method for determining an exercise start timing based on biological information.
  • the left side of FIG. 18 shows the attachment positions of various sensors 68 on the subject P.
  • the right side of FIG. 18 shows a case where a method for specifying the operation timing of the knee joint based on the acceleration sensor 68g attached to the knee joint of the subject P is described.
  • the sensor 68a is a sensor attached to the neck of the subject P.
  • the sensor 68a is a sensor for detecting sound or vibration or a sound collecting microphone.
  • the imaging timing determination function 819 specifies vibration or sound when the subject P swallows an object based on a specific frequency or sound volume. As described in the third embodiment, the imaging region may be moved in accordance with the movement of food using the timing specified by the imaging timing determination function 819 as a trigger.
  • the sensors 68b, 68d, 68e, 68f, 68g, and 68h are motion sensors such as an electromyograph, a gyro sensor, and an acceleration sensor that are attached to the arms and legs and detect the movement of the arms and legs.
  • the sensor 68c is an electromyograph that is attached to the waist and detects bending of the waist.
  • the mounting position of the sensor 68 is not limited to the mode shown in FIG.
  • a motion sensor such as a gyro sensor or an acceleration sensor may be attached to the head.
  • a plurality of types of sensors 68 may be attached to one second part, or the same type of sensors 68 may be attached at a plurality of different positions.
  • the left side of FIG. 18 illustrates the case where the start timing of the movement of the knee of the subject P is specified based on the change of the biological information obtained by the acceleration sensor attached to the knee of the subject P.
  • the graph on the left side of FIG. 18 shows the sensor output of the sensor 68g.
  • the position of the arrow shown in the biometric information graph is the timing at which the weight is most applied to the knee joint.
  • the imaging timing determination function 819 analyzes the biological information detected by the sensor 68g, detects this timing as the operation timing of the knee joint, and transmits an imaging instruction to the scan controller 23.
  • the mounting position of the sensor 68 when imaging the state of the knee joint when the foot is landed is not limited to the knee joint.
  • a sensor 68 such as an acceleration sensor may be attached to a position different from the knee joint as the first part, for example, an ankle.
  • the imaging period may be a predetermined period centering on the operation timing of the knee joint.
  • the imaging timing determination function 819 may control the scan controller 23 to execute imaging during a period in which the output of the sensor 68 is equal to or greater than a predetermined threshold.
  • the predetermined threshold is, for example, threshold information defined in the timing information of the sensor type table.
  • the imaging timing determination function 819 analyzes the biological information and detects motion.
  • the imaging timing determination function 819 is not limited to a mode in which biological information is analyzed and motion is detected.
  • a sensor 68 having a processor or a memory may analyze biological information to detect a motion, and input a signal notifying the detected motion to the X-ray CT apparatus 10.
  • the biological information of the subject P can be collected together, and the motion of the subject P can be analyzed from various perspectives.
  • the start timing of imaging can be determined based on changes in biological information, imaging can be automated, and the time lag from the detection of motion to the execution of imaging can be reduced.
  • determining the imaging timing based on the biological information also leads to shortening of the imaging time and can reduce the exposure dose.
  • each part of the X-ray CT apparatus 10 is configured so that a biological image is acquired by the sensor 68 while the appearance image of the subject P is collected by the optical camera 67 and a CT image obtained by capturing a desired motion is acquired. May be.
  • the CT image data, the camera data, and the biological information are associated with each other based on the same time information and stored in the storage circuit 82.
  • an X-ray CT apparatus is used as a medical image diagnostic apparatus
  • the present invention is not limited to this.
  • an MRI apparatus can be applied as the medical image diagnostic apparatus.
  • an imaging range based on magnetic resonance signals is used instead of the imaging range based on X-rays.
  • the present invention can be applied to an X-ray angio apparatus having a C arm or an ⁇ arm, a dental X-ray CT apparatus, and the like.
  • the medical image diagnostic apparatus of at least one embodiment described above it is possible to perform imaging with a reduced exposure dose while ensuring wide area and real-time characteristics.
  • the index management function 815 of the processing circuit 81 is an example of a selection unit described in the claims.
  • the setting function 817 of the processing circuit 81 is an example of a setting unit described in the claims.
  • the sensor 68 and the optical camera 67 are examples of the detection unit described in the claims.
  • the storage circuit 82 is an example of a storage unit described in the claims.
  • the scanner device 11 is an example of an imaging unit described in the claims.
  • the display 84 is an example of a display unit described in the claims.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Physiology (AREA)
  • Acoustics & Sound (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本実施形態に係る医用画像診断装置は、被検体の第1部位を撮像し、医用画像データを生成する撮像部を備え、前記撮像部は、前記第1部位とは異なる前記被検体の第2部位における生体情報を検知する検知部から前記生体情報を取得し、前記被検体の第2部位における運動により変化する前記生体情報に基づいて前記第1部位を撮像する。

Description

医用画像診断装置
 本発明の実施形態は、医用画像診断装置に関する。
 X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置などの医用画像診断装置は、疾病の診断および治療や手術計画等をはじめとする多くの医療において重要な役割を果たしている。たとえば、X線CT装置は、X線源を被検体(患者)周りで高速回転させ、被検体を透過したX線の強度に基づいて多数の投影データを生成する。X線CT装置は、これら投影データを再構成することにより、被検体の2次元画像や、3次元画像等の医用画像を得ている。
 読影は、X線CT装置で取得されたスライス画像に基づいて行われるが、たとえば、病変等の異常部位の全体における位置を確認する場合、全体を把握可能な画像が用いられる。そのため、従来技術では、スライス画像に基づいて発見された異常部位の位置関係や全体像を知るために、広い領域を撮像したスキャノ画像や、3次元画像を用いている。しかしながら、スキャノ画像の場合は本撮像に先駆けて実行されるためリアルタイム性に欠け、3次元画像を用いる場合は、広域性を確保するために検査対象となる領域よりも広い領域を撮像する必要があり、被ばく量が増加してしまう。
特開2013-172792号公報
 本発明が解決しようとする課題は、広域性およびリアルタイム性を担保しつつ、被ばく量を低減した撮像が可能な医用画像診断装置を提供することである。
 本実施形態に係る医用画像診断装置は、被検体の第1部位を撮像し、医用画像データを生成する撮像部を備え、前記撮像部は、前記第1部位とは異なる前記被検体の第2部位における生体情報を検知する検知部から前記生体情報を取得し、前記被検体の第2部位における運動により変化する前記生体情報に基づいて前記第1部位を撮像する。
実施形態に係るX線CT装置の一例を示す概念的な構成図。 実施形態に係るX線CT装置の光学カメラの配置の一例を示す概略構成図。 実施形態に係るX線CT装置の機能構成例を示す機能ブロック図。 第1の実施形態に係るX線CT装置の動作の一例を示すフローチャート。 第1の実施形態に係るX線CT装置の光学カメラの角度情報を説明する概念図。 第1の実施形態に係るX線CT装置のインデックス画像を説明する概念図。 第1の実施形態に係るX線CT装置の第1の表示例を説明する図。 第1の実施形態に係るX線CT装置の第2の表示例を説明する図。 第1の実施形態に係るX線CT装置の第3の表示例を説明する図。 第1の実施形態に係るX線CT装置のカメラ画像の結合を説明する概念図。 第2の実施形態に係るX線CT装置における撮像を説明する第1の図。 第2の実施形態に係るX線CT装置における撮像を説明する第2の図。 第3の実施形態に係るX線CT装置における撮像を説明する図。 第4の実施形態に係るX線CT装置の機能構成例を示す機能ブロック図。 第4の実施形態に係るX線CT装置の動作の一例を示すフローチャート。 部位組合せ情報を説明する表。 センサ種別情報を説明する表。 生体情報に基づく運動の開始タイミングの判定方法の一例を説明する模式図。
 以下、X線CT装置を例として、医用画像診断装置の実施形態について説明する。
 図1は、実施形態に係るX線CT装置を示す構成例を示す図である。図1のX線CT装置10は、スキャナ装置11と、コンソール装置12とを備える。
 スキャナ装置11は、通常は検査室に設置され、たとえば被検体Qに関するX線の透過データを生成する。一方、コンソール装置12は、通常は検査室に隣接する制御室に設置され、透過データに基づいて投影データを生成することで、再構成画像の生成および表示を行う。
 スキャナ装置11は、架台装置21と、寝台装置22と、スキャンコントローラ23と、操作パネル24とを備える。
 架台装置21は、ガントリとも呼ばれ、図示しない土台部に固定された固定架台31と、回転架台32とを備える。
 固定架台31は、回転コントローラ41を備える。回転コントローラ41は、スキャンコントローラ23からの指示に従って、回転架台32を固定架台31に対して回転させる。
 固定架台31および回転架台32は、スリップリング51およびデータ伝送装置52を備える。
 スリップリング51は、回転架台32内に同心円状に配置された環状の電路(金属製のリング)に対して、固定架台31側のカーボンブラシやワイヤーブラシなどのブラシを側面から押し当てることで、スリップさせながら電気伝導を確保する転接続用のコネクタである。
 データ伝送装置52は、回転架台32側の送信回路と、固定架台31側の受信回路とを備える。送信回路は、後述するデータ収集回路66によって生成された生データを非接触で受信回路に送信する。受信回路は、送信回路から送信された生データを、後述するスキャンコントローラ23に供給する。
 回転架台32は、高電圧発生装置61と、X線管62と、コリメータコントローラ63と、X線光学系64と、X線検出器65と、データ収集回路66とを備える。回転架台32は、回転フレームとも呼ばれる。回転架台32は、後述の高電圧発生装置61や、データ収集回路66などを一体として保持する。すなわち、回転架台32は、X線管62とX線検出器65とを対向させた状態で、一体として被検体Qの周りに回転できる。ここでは一例として、回転架台32の回転中心軸と平行な方向をz方向、鉛直方向をy軸と定義する。
 高電圧発生装置61は、スリップリング51を介したスキャンコントローラ23による制御信号によって、スキャンを実行するために必要な電力をX線管62に供給する。
 X線管62は、高電圧発生装置61から供給された管電圧に応じて金属製のターゲットに電子線を衝突させることでX線を発生させ、X線をX線検出器65に向かって照射する。X線管62から照射されるX線によって、ファンビームX線やコーンビームX線が形成される。X線管62には、スキャンコントローラ23による制御によって、X線の照射に必要な電力が供給される。
 コリメータコントローラ63は、スキャンコントローラ23による制御に従って、X線光学系64におけるX線のスライス方向の照射範囲を調整する。
 X線光学系64は、X線ビームの線量、照射範囲、形状、および、線質などの照射条件を制御する各種の器具を含む。具体的には、X線光学系64は、ウェッジフィルタおよびコリメータなどを含む。ウェッジフィルタは、X線管62で発生されたX線のX線量を調整する。コリメータは、コリメータコントローラ63による制御によって、線量が調整されたX線に対してX線の照射範囲を絞り込むためのスリットである。
 X線検出器65は、たとえば、チャンネル方向に複数、および、列(スライス)方向に単数の検出素子を有する1次元アレイ型の検出器である。別の例としては、X線検出器65は、マトリクス状、すなわち、チャンネル方向に複数、および、スライス方向に複数の検出素子を有する2次元アレイ型の検出器でもよい。X線検出器65は、X線管62から照射されたX線を検出する。
 2次元アレイ型の検出器は、マルチスライス型検出器とも呼ばれる。X線検出器65がマルチスライス型検出器である場合、回転架台32の1回転(又は半回転+α)で列方向に幅を有する3次元領域のスキャンを実行することができる。このスキャンは、ボリュームスキャンと呼ばれる。
 データ収集回路66は、複数のDAS(Data Acquisition System:データ収集システム)を有する。各DASは、スキャンにおける管電圧の切り替えに同期してデータ収集を行う。各DASは、X線検出器65の各検出素子が検出する透過データの信号を増幅し、増幅された透過データの信号をデジタル信号である生データ(Raw Data)に変換する。各DASは、投影データを、データ伝送装置52を介してスキャンコントローラ23に送信する。
 n個の光学カメラ67~67は、開口部Aのフレームに固定され、開口部Aの内側が撮像方向となるように設置される。なお、光学カメラ67のnは自然数とし、以下、単に光学カメラ67と記載した場合には、光学カメラ67~67全体を意味するものとする。光学カメラ67は、天板71に載置された被検体Qを撮像できるように設置される。なお、光学カメラ67は架台内に設置されていなくてもよく、被検体Qを撮像可能であれば、たとえば、検査室の天井や床などに設置されていてもよい。
 光学カメラ67で取得されたデータは、スキャンコントローラ23を介してコンソール装置12で処理される。図示していないが、光学カメラ67で取得されたデータが、データ伝送装置52のように非接触でスキャンコントローラ23に伝送されるようにX線CT装置10を構成してもよい。
 なお、光学カメラ67には、可視光を検出するカメラに加えて、赤外線を検出するカメラを含めてもよい。赤外線を検出するカメラは、たとえば、体温や血圧、血糖値などを測定することができる。
 スキャナ装置11の寝台装置22は、天板71と、天板コントローラ72とを備える。天板71は、被検体Qを載置可能である。
 天板コントローラ72は、スキャンコントローラ23による制御に従って、天板71をy方向に沿って昇降動させると共に、被検体Qが載置された天板71を以下のようにz方向に沿って水平移動させる。すなわち、天板コントローラ72は、回転架台32の回転中心が含まれる開口部Aに向けて天板71被検体Qを挿入し、撮像終了後には開口部Aから天板71を退避させる。
 スキャンコントローラ23は、図示しないCPU(Central Processing Unit)およびメモリなどを備える。スキャンコントローラ23は、操作パネル24やコンソール装置12から入力される指令に従って、回転コントローラ41、高電圧発生装置61、コリメータコントローラ63や、寝台装置22の天板コントローラ72などの架台装置21の各部を制御する。また、スキャンコントローラ23は、コンソール装置12の処理回路81との通信に基づいて、データ収集回路66や光学カメラ67を制御しつつ、並行して投影データおよびカメラデータを収集し、それぞれのデータに対して収集時の時間情報を付与する。
 上記時間情報とは、データ収集回路66と光学カメラ67とが並行して被検体Qを撮像したときの撮像時刻または時相に関する同期情報である。データ収集回路66から取得される投影データと、光学カメラ67から取得されるカメラデータとに対して、同じ時間に撮像したことを示す時間情報がそれぞれ付与される。時間情報としては、たとえば、クロック情報、タイムスタンプ、カウンター情報など撮像時刻または時相に関する様々な情報が使用可能である。
 操作パネル24は、架台装置21の開口部Aの両脇や前後などに設けられる。操作者は操作パネル24から、被検体Qの様子を確認しながら各種指令や条件を入力する。具体的には、X線照射範囲を視認するための光を照射する図示しない投光器の消灯および点灯の指示や、天板71の移動、停止、および自動送りの指令が操作パネル24から入力される。
 X線CT装置10のコンソール装置12は、コンピュータをベースとして構成されており、LAN(Local Area Network)などのネットワークを介して外部装置と相互通信可能である。コンソール装置12は、処理回路81、記憶回路82、入力回路83、および、ディスプレイ84などの基本的なハードウェアから構成される。処理回路81は、共通信号伝送路としてのバスを介して、コンソール装置12を構成する各ハードウェア構成要素に相互接続されている。なお、コンソール装置12は、記憶媒体ドライブを具備する場合もある。
 処理回路81は、専用のハードウェアで構成してもよいし、内蔵のプロセッサによるソフトウェア処理で各種機能を実現するように構成してもよい。ここでは一例として、プロセッサによるソフトウェア処理によって処理回路81が各種機能を実現する場合について説明する。
 上記プロセッサとは、専用または汎用のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、プログラマブル論理デバイスおよびフィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)などの回路を意味する。上記プログラマブル論理デバイスとしては、たとえば、単純プログラマブル論理デバイス(SPLD:Simple Programmable Logic Device)、複合プログラマブル論理デバイス(CPLD:Complex Programmable Logic Device)などが挙げられる。処理回路81は、記憶回路82に記憶されたプログラム、または、処理回路81のプロセッサ内に直接組み込まれたプログラムを読み出し実行することで、後述する機能を実現する。
 また、処理回路81は、単一のプロセッサによって構成されてもよいし、複数の独立したプロセッサの組合せによって構成されてもよい。後者の場合、複数のプロセッサにそれぞれ対応する複数の記憶回路82が設けられると共に、各プロセッサにより実行されるプログラムが当該プロセッサに対応する記憶回路に記憶される構成でもよい。別の例としては、1個の記憶回路82が複数のプロセッサの各機能に対応するプログラムを一括的に記憶する構成でもよい。
 記憶回路82は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、ハードディスク、光ディスクなどによって構成される。記憶回路82は、USB(Universal Serial Bus)メモリおよびDVD(Digital Video Disk)などの可搬型メディアによって構成されてもよい。記憶回路82は、処理回路81において実行される各種プログラム(アプリケーションプログラムの他、OS(Operating System)等も含まれる)、プログラムの実行に必要なデータ、および、画像データを記憶する。また、OSを制御するための基礎的な操作を、入力回路83によって実現させるためのGUI(Graphical User Interface)を含めることもできる。
 入力回路83は、ポインティングデバイスなどの入力デバイスからの信号を入力する回路である。ここでは、入力デバイス自体も入力回路83に含まれるものとする。操作者により入力デバイスが操作されると、入力回路83はその操作に応じた入力信号を生成し、この入力信号を処理回路81に出力する。なお、コンソール装置12は、入力デバイスがディスプレイ84と一体的に構成されたタッチパネルを備えてもよい。
 ディスプレイ84は、液晶ディスプレイパネル、プラズマディスプレイパネルおよび有機EL(Electro Luminescence)パネル等の表示デバイスである。ディスプレイ84は、処理回路81の制御に従って画像を表示する。
 コンソール装置12には、スキャナ装置11から投影データおよびカメラデータが入力される。コンソール装置12は、これら投影データおよびカメラデータを記憶回路82に保存する。また、投影データを再構成したり、カメラデータを処理したりして、同期情報に基づいた表示を生成し、ディスプレイ84に表示させたりする。同期情報に基づいた表示の生成方法については、後述する。
 図2は、図1におけるX線CT装置10の光学カメラ67の配置の一例を示す概略構成図である。図2(a)は、架台装置21を図1のz軸方向から観察した平面模式図である。図2(a)の例では、開口部Aの内側を撮像方向として、開口部Aの周りに8個の光学カメラ67が取り付けられている。
 光学カメラ67は、たとえば架台装置21の内壁上において、すなわち、架台装置21の開口部Aの内面上において、x-y平面を1周するように所定間隔で環状に取り付けられている。すなわち、光学カメラ67は、被検体Qを全方向から撮像することが可能となるように取り付けられている。図1で示した寝台装置22を含むX線CT装置10の場合、寝台より上の部分に光学カメラ67を取り付けてもよい。 
 図2(b)は、図2(a)内に一点鎖線で示すB-B間の断面模式図である。上述したように、光学カメラ67は、開口部Aの内側を撮像方向として、回転架台32のフレームに取り付けられている。なお、X線管62やX線検出器65は、回転架台32のフレーム内部に設置され、回転可能に設けられているのに対して、光学カメラ67は回転架台32のフレームに固定され、回転しないように設置されている。
 図2(b)に示すように、光学カメラ67は、回転架台32のZ軸方向に、前後にそれぞれ取り付けられている。すなわち、図2では、8個の光学カメラ67が開口部Aに環状に、Z軸方向に前後に取り付けられ、合計で16個の光学カメラ67が設置された例を示している。なお、X線CT装置10が被検体Qを広域に撮像可能である限り、光学カメラ67の個数および設置方法については、図2の態様に限定されるものではない。
 図3は、実施形態に係るX線CT装置10の機能構成例を示す機能ブロック図である。図3のX線CT装置10のコンソール装置12は、投影データ記憶回路821と、再構成画像記憶回路823と、カメラデータ記憶回路825と、処理データ記憶回路827とを備える。投影データ記憶回路821、再構成画像記憶回路823、カメラデータ記憶回路825および処理データ記憶回路827は、記憶回路82における記憶領域としてそれぞれ構成されてもよいし、記憶回路82とは別の記憶回路により構成されてもよい。
 一方、コンソール装置12の処理回路は、画像再構成機能811と、データ処理機能813と、インデックス管理機能815とを有する。画像再構成機能811、データ処理機能813およびインデックス管理機能815は、記憶回路82に格納されているプログラムを処理回路81のプロセッサが実行することによって実現される機能である。
 投影データ記憶回路821は、データ収集回路66により収集された投影データを記憶する。投影データはカメラデータと並行して収集され、それぞれ同じ時間情報が付与される。したがって、投影データ記憶回路821は、カメラデータと同じ時間情報を備えた投影データを記憶する。なお、投影データはDICOM(Digital Imaging and Communication in Medicine)形式に準拠したデータであり、同期情報はDICOM規格における付帯情報として保持されていてもよい。
 再構成画像記憶回路823は、投影データを再構成した再構成画像を記憶する。投影データが再構成される場合、投影データに含まれる時間情報は、再構成画像の画像データにも残される。
 カメラデータ記憶回路825は、光学カメラ67により収集されたカメラデータを記憶する。カメラデータは投影データと並行して収集され、投影データと同じ時間情報が付与される。カメラデータ記憶回路825は、投影データと同じ時間情報を備えたカメラデータを記憶する。
 処理データ記憶回路827は、カメラデータに角度情報が付与された処理データを記憶する。また、処理データ記憶回路827は、複数のカメラデータに対して結合処理または分割処理を実行することで生成された処理データを記憶する。なお、カメラデータに含まれる時間情報や角度情報は、結合処理または分割処理が実行された処理データにも含まれる。角度情報については後述する。
 画像再構成機能811は、投影データを再構成して再構成データ(医用画像データ)を生成する。投影データがボリュームデータの場合、3次元データが再構成される。3次元の再構成データには、カメラデータに付与される角度情報に対応する角度情報が含まれてもよい。
 データ処理機能813は、カメラデータに角度情報を付与する。また、複数のカメラデータに対して結合処理または分割処理を行う。
 インデックス管理機能815は、再構成データおよびカメラデータのうち、選択された一方のデータに付与された同期情報に基づいて、同期情報が一致する他方のデータの表示画像を生成する。たとえば、カメラデータが選択された場合、インデックス管理機能815は、複数の方向で取得されたカメラデータのうち、一時相における画像をインデックス画像とし、インデックス画像を表示画像として生成する。インデックス画像の生成方法については後述する。
 以下の説明では、同期情報として時間情報または角度情報を使用する例を説明する。同期情報が一致する再構成画像とカメラデータとを表示する方法を第1の実施形態とする。また、第1の実施形態と同じ構成を備え、光学カメラ67とX線とが異なる撮像範囲を撮像する場合を第2の実施形態とする。第1の実施形態の構成と同じ構成を備え、光学カメラ67の撮像範囲をX線の撮像範囲が移動して撮像する場合を第3の実施形態とする。さらに、被検体が装着したセンサにより被検体の運動を検知し、運動中の部位を撮像する場合を第4の実施形態とする。
(第1の実施形態)
 図4は、第1の実施形態に係るX線CT装置10の動作の一例を示すフローチャートである。以下、適宜図5および図6を参照しつつ、図4のフローチャートのステップ番号に従って、第1の実施形態に係るX線CT装置10の動作を説明する。
 ステップST101では、スキャナ装置11は、投影データとカメラデータとを並行して収集する。
 ステップST103では、収集された投影データとカメラデータとに対してそれぞれ、撮像された時相またはタイミングに対応する時間情報が同期情報として付与される。投影データに対しては、たとえば、データ収集回路66により時間情報が付与されてもよいし、スキャンコントローラ23により時間情報が付与されてもよい。また、カメラデータには、たとえば、スキャンコントローラ23の制御の下、それぞれの光学カメラ67により時間情報が付与されてもよいし、スキャンコントローラ23により時間情報が付与されてもよい。時間情報が付与された投影データは、投影データ記憶回路821に格納される。同様に、時間情報が付与されたカメラデータは、カメラデータ記憶回路825に保存される。
 ステップST105では、画像再構成機能811は、時間情報が付与された投影データを再構成し、再構成データを生成する。なお、投影データがボリュームデータの場合、3次元画像の再構成データが生成される。この場合、画像再構成機能811は、3次元画像の再構成データに対して、さらに角度情報を同期情報として付与してもよい。
 ステップST107において、データ処理機能813は、カメラデータに光学カメラ67の撮像方向を示す角度情報を付与する。
 図5は、第1の実施形態に係るX線CT装置の光学カメラの角度情報を説明する概念図である。図5(a)は、被検体Qの周りに光学カメラ67がx-y平面において45°の間隔で設置された例を示す平面模式図である。光学カメラ67は、たとえば、被検体Qの正面であるy軸方向、すなわち、鉛直方向を0°として、回転架台32のフレームにX-Y平面に沿って1周するように取り付けられている。なお、図2で示すように、光学カメラ67は等間隔に複数設置されているが、煩雑となるので図5(a)では2つのみ示す。
 図5(a)の例では、カメラ番号1の光学カメラ67の設置された角度は0°、カメラ番号2の光学カメラ67の設置された角度は45°である。このように45°間隔で、z方向に手前側、すなわちガントリの挿入口側に8個、ガントリ奥側に8個の光学カメラ67が設置された場合、図5(b)が示す角度情報により、それぞれの光学カメラ67の位置を特定できる。
 図5(b)は、左から順に、カメラ番号、カメラ角度、位置が示されている。カメラ番号が「1」のカメラ角度は「0°」、位置は「前」である。同様に、カメラ番号が「2」のカメラ角度は「45°」、位置は「前」であり、カメラ番号が「16」のカメラ角度は「315°」、位置は「後」である。このように、カメラデータには、対応するカメラ番号のカメラ角度と、前後の位置とを示す角度情報が同期情報として含まれる。
 このように角度情報は、光学カメラ67の方向を示す同期情報である。この角度情報に対応する同期情報を3次元の再構成データに含めてもよい。3次元の再構成画像は360°の角度で画像を表示できる。一方、カメラ角度は、図5の例では45°間隔である。カメラ角度と3次元の再構成画像の回転角度とを同期させるために、たとえば、カメラ角度が45°のカメラデータに対して、再構成データの45°から90°の回転角度を対応させてもよい。なお、角度情報には、カメラ角度以外にも、たとえば光学カメラ67の視野角などの情報が含まれていてもよく、視野角を同期情報として再構成データに包含させてもよい。
 以上が角度情報の説明であり、図4のフローチャートに戻って説明を続ける。
 ステップST109において、インデックス管理機能815は、指定された同期情報に対応するカメラデータのインデックス画像を生成する。具体的には、カメラデータの時間情報と角度情報のいずれかの同期情報が選択され、撮像時刻または撮像方向のいずれか一方に基づくカメラデータのインデックス画像が生成される。インデックス画像は、カメラデータおよび再構成データの時間または方向のいずれかにおける代表画像である。図4のフローチャートでは、カメラデータのインデックス画像に基づいて、再構成画像、すなわち、CT画像が表示される例について説明する。
 図6は、第1の実施形態に係るX線CT装置10のインデックス画像を説明する図である。カメラデータには、カメラ番号ごとに同期情報として、角度情報と時間情報とが含まれる。図6は、図5の説明と同様に、全部で16個の光学カメラが設置されている場合の例を示している。図6の上部には、方向を示す矢印の下にカメラ番号が示されており、左からカメラ番号1、カメラ番号2、・・・カメラ番号16のカメラデータが示されている。それぞれのカメラデータには、角度情報としてカメラ角度とカメラ位置とが含まれており、左から、「カメラ角度0°、位置 前」、「カメラ角度45°、位置 前」、・・・および「カメラ角度315°、位置 後」を示している。
 同様に、図6の左部に示した矢印は、たとえば撮像開始からの経過時間あるいは時相を示しており、それぞれのカメラデータの経過時間がt0、t1・・・と示されている。たとえば、同期情報としてt1が選択された場合、それぞれのカメラデータの時相t1の画像がインデックス画像として、インデックス管理機能815により生成される。一方、同期情報として、カメラ番号2が選択された場合、カメラ番号2のカメラデータt0、t1・・・がそれぞれインデックス画像として生成される。時間軸方向のインデックス画像は、たとえば、動画であってもよいし、所定の時間間隔でサンプリングされた画像であってもよい。
 以上がインデックス画像の説明である。図4のフローチャートに戻って説明を続ける。
 ステップST111において、ディスプレイ84は、インデックス画像を表示する。
 ステップST113において、ユーザは、ディスプレイ84に表示されたインデックス画像を選択する。
 ステップST115において、インデックス管理機能815は、ステップS113で選択されたインデックス画像に基づいて、このインデックス画像に対応するCT画像を表示する。
 図7は、第1の実施形態に係るX線CT装置1の第1の表示例を説明する図である。図7は、同期情報として、カメラ番号、すなわち、角度情報が選択され、角度情報に基づくインデックス画像により、ある時間のCT画像が選択される場合を例としている。図7の上部には、選択方向として「カメラ番号1 カメラ角度0°」が示されている。このように、カメラ番号1、カメラ角度0°の角度情報が選択されたことを示している。この選択された角度情報に基づいて、各時相のインデックス画像が生成される。図7のインデックス画像表示領域に示すように、時相t0、t1、t2、t3、…tmのインデックス画像ID1~IDmが表示されている。たとえば、表示されたインデックス画像から、時相t1のインデックス画像ID2を選択すると、時相t1に対応するCT画像V1が表示される。
 選択された時相に対応するCT画像は、再構成データの同期情報に基づいてインデックス管理機能815により検索される。すなわち、インデックス管理機能815は、選択されたインデックス画像ID2から角度情報と時間情報とを取得し、取得した時間情報により示される時相に対応するCT画像を再構成データの中から選択する。
 具体的には、図7のインデックス画像は角度情報「カメラ角度0°」に基づき生成されており、その中からインデックス画像ID2が選択されると、選択されたインデックス画像ID2には時間情報として「時相t1」という同期情報が含まれる。したがって、インデックス管理機能815は、選択されたインデックス画像ID2から、「カメラ角度0°」および「t1」という同期情報を抽出し、再構成データの中から、「カメラ角度0°」および「t1」という同期情報に対応するCT画像を検索する。
 なお、図7の例では、それぞれのインデックス画像は静止画として示されているが、動画であってもよい。また、動画で取得されたカメラデータから、所定の時間間隔で静止画を抽出し、コマ送り動画として表示してもよい。
 また、図7の例では、カメラデータおよび再構成データの撮像範囲がほぼ同じ例を示したが、X線の撮像範囲は光学カメラ67の撮像範囲より狭い範囲であってもよい。
 図7では、角度情報に基づいたカメラデータのインデックス画像から、CT画像を検索する例を説明した。以下で、時間情報の選択によりカメラデータから生成されたインデックス画像に基づいて、ある方向から撮像されたCT画像を検索する例を説明する。
 図8は、第1の実施形態に係るX線CT装置の第2の表示例を説明する図である。図8の上部のインデックス画像表示領域には、ある時相、たとえば、時相t2における、カメラデータごとのインデックス画像が、カメラ番号順に表示されている。このインデックス画像から、たとえば、図8の右下に示すようにインデックス画像ID3に対応するCT画像V3が表示されてもよい。図7と同様に、図8上部で選択されたインデックス画像ID3に含まれる時間情報「t2」と、角度情報「カメラ角度90°」という同期情報に基づいて、再構成データの中から同期情報が一致するCT画像V3が検索されて表示される。すなわち、インデックス管理機能815は、再構成データの中から、「カメラ角度90°」および「t2」という同期情報に該当する再構成データを検索し、検索された再構成データからCT画像を生成する。
 また、インデックス画像は、「時相t0」、すなわち、動画の始めの時相の画像に基づいて生成されてもよい。別の例として、表示されたインデックス画像から、カメラ角度が90°のインデックス画像が選択された場合に、カメラ角度が90°のカメラデータがカメラ画像V2に動画として表示されるように、X線CT装置10を構成してもよい。さらに別の例として、カメラ画像V2に表示された動画に基づいて、ユーザが時相を再度選択した場合に、選択された時間に基づいてCT画像V3が表示されるように、X線CT装置10を構成してもよい。
 図7および図8では、カメラデータをインデックス画像とする例を示したが、再構成データをインデックス画像とすることもできる。
 図9は、第1の実施形態に係るX線CT装置10の第3の表示例を説明する図である。図9は、インデックス画像としてCT画像を用いる例を示している。図9の左下のCT画像V4は、「選択時間t2」のインデックス画像である。図9の左下のCT画像V4は、3次元画像であり、操作により任意の角度で回転可能である。図9の例では、CT画像V4を反時計回りに45°回転した場合を示している。すなわち、CT画像V4をインデックス画像とした場合、時間情報として時相t2、角度情報として45°の同期情報がインデックス管理機能815に送信される。インデックス管理機能815は、受信した同期情報に対応するカメラ画像V5を複数のカメラデータの中から検索する。
 なお、インデックス画像として表示されるCT画像V4を時相t0の画像とし、角度情報に対応するカメラ画像が選択されたのちに、CT画像V4とカメラ画像V5とを動画として同時に再生してもよい。すなわち、CT画像V4とカメラ画像V5とは、それぞれ同じ時相で撮像されたデータであるから、X線CT装置10は、並行して収集された体内の様子と体外の様子とを、画面上で並列表示することができる。
 また、図9の例では、説明を簡単にするために、CT画像の角度情報を45°としたが、それ以外の角度であってもよい。たとえば、45°から90°のCT画像をカメラ角度が45°のカメラデータに対応するように、再構成データの角度情報を設定してもよい。したがって、CT画像を60°に回転させた場合も同様にカメラ角度が45°のカメラデータが表示されるようにしてもよい。また、再構成画像の角度情報をカメラの視野角に応じて設定してもよい。たとえば、カメラ番号1の視野角が-45°から+45°のような場合、CT画像の315°(-45°)から45°をカメラ番号1に対応する角度情報として設定してもよい。すなわち、CT画像で315°(-45°)から45°の間が選択されると、カメラ番号1のカメラデータが表示されるようにX線CT装置10の各部を構成してもよい。
 上述の例では、同期情報としてカメラ位置を使用せず説明したが、検索された前後のカメラデータを同時に表示してもよいし、一方のみを表示してもよい。また、カメラデータを合成した結合画像に基づいて、インデックス画像を生成してもよい。
 図10は、第1の実施形態に係るX線CT装置のカメラ画像の結合を説明する概念図である。図10(a)左図は、z軸方向で前側にあるカメラAおよびz軸方向で後側にあるカメラBの撮像範囲をそれぞれ示している。図10(a)右図は、それぞれのカメラで取得される画像を示している。データ処理機能813は、図10(a)右図に示すカメラAとカメラBの画像を結合して図10(b)に示すような1つの結合画像を生成することができる。なお、合成される画像に対して、たとえば、歪み補正や座標変換などの画像処理が実行されることで、2つの画像が連続的に結合された1画像が生成される。ここでの「連続的に結合」とは、たとえば、2つの画像により示される被検体の同一領域が重複しないように、且つ、2つの画像に含まれる被検体領域の画像情報が全く欠落しないように2画像を合成する意味である。
 図10の例では、前後のカメラ画像を結合する例を示したが、本発明の実施形態は、かかる態様に限定されるものではない。たとえば、図5におけるカメラ番号1とカメラ番号2のように、隣接する2つの光学カメラ67で取得されたカメラデータを結合して、1つの画像が生成されるようにX線CT装置10を構成してもよい。また、1つのカメラデータを分割して2つ以上のカメラデータが生成されるように、X線CT装置10を構成してもよい。さらに、3つのカメラデータから2つのカメラデータを生成するといった画像処理も可能である。なお、結合処理または分割処理されたカメラデータの角度情報は、処理前のカメラデータの角度情報をそのまま備えていてもよいし、新たに更新されてもよい。
 図10の例では、2つ以上のカメラデータを結合して1つの2次元画像データを生成する場合を説明したが、生成される画像データは、2次元画像データには限定されない。たとえば、2つ以上のカメラデータを結合して生成される画像データは、3次元画像データであってもよい。具体的には、2つのカメラ間の設置角度が被検体Pを中心として互いに90°であるカメラで取得されたカメラデータを用いれば、3次元画像データが生成できる。カメラデータから生成した3次元画像データを用いることで、光学カメラの撮像対象部位の回転運動やねじれといった3次元的な運動情報を取得することができる。
 上述の通り、第1の実施形態に係るX線CT装置10によれば、X線撮像による投影データの生成と並行して、光学的な撮像によりカメラデータを生成することで、互いに同じ時相に該当する再構成データとカメラデータとを、多時相に亘って生成できる。すなわち、X線CT装置10は、時相が同じ再構成画像とカメラ画像とを並列して表示することができる。
 また、光学カメラ67はX線での撮像範囲より広い範囲を容易に撮像できるため、被ばく量を低減しつつ広域の情報を得ることができる。加えて、X線CT装置10は、複数の光学カメラ67を備えたことで、時間方向の画像検索に加えて、回転方向の画像検索が可能となる。たとえば、時間方向の画像検索は、カメラデータの動画を用いて行ったほうが簡便である。それに対して、回転方向に関しては、3次元の再構成画像を用いたほうが扱いやすい。第1の実施形態では、これらを兼ね備えた表示を可能とし、ユーザが検索しやすい方法で表示したい時間および方向のカメラ画像および再構成画像を検索することができる。
(第2の実施形態)
 第2の実施形態は、第1の実施形態と同じ構成を備え、光学カメラ67とX線とが異なる撮像範囲を撮像する場合に関する。
 以下、第2の実施形態について、腕の撮像を例として説明する。肘関節をX線撮像する場合、指や手首を屈曲させたり、拳を握ったり開いたりする動作を被検体Qにさせることがある。関節を構成する骨には様々な筋肉が腱を介して接続しており、関節と離れた部位を動作させることで、異常部位を診断できる場合がある。このように、関節を診断する場合は、診断部位とは異なる部位を並行して観察する必要が生じる。
 図11は、第2の実施形態に係るX線CT装置における撮像を説明する第1の図である。図11は、被検体Qに手を握ったり開いたりする動作を行わせながら、肘関節をX線で撮像する場合を例示している。図11に示すように、肘関節を有効な診断を行う「診断範囲」としてX線撮像の対象とする一方、診断に関する被検体Qの状態を観察する「観察範囲」を光学カメラ67の撮像対象とする例を示している。このように、X線での撮像範囲と光学カメラ67とで撮像範囲とが異なる状態で、X線での投影データの収集と光学カメラ67でのカメラデータの収集とを並行して行ってもよい。
 図12は、第2の実施形態に係るX線CT装置における撮像を説明する第2の図である。図11と同様に、X線での撮像範囲と光学カメラ67での撮像範囲とが異なるが、光学カメラ67での撮像範囲が、X線での撮像範囲を包含するように設定される例を示している。たとえば、腕の屈伸動作をさせながら肘関節の撮像を行う場合、腕全体を光学カメラ67の撮像範囲とし、肘関節部分が有効な診断を行うためのX線による撮像範囲となる。
 上述の説明は、肘関節を例として説明したが、その他の関節の撮像においても同様である。また、関節以外にも、動作に伴って症状が生じる診断、たとえば、頭部を動かしたときに生じるめまいの原因を特定する場合など、特定の動作を行ったときに症状が起こるような場合に、第2の実施形態の撮像方法が有効である。
 このように、第2の実施形態に係るX線CT装置10によれば、被ばく量を低減しつつ、診断に必要な情報を容易に得ることができる。たとえば、撮像時において、被検体Qが無理な姿勢を維持したり、長時間痛みを我慢したりして撮像することを回避できる。光学カメラ67で被検体Qの様子を観察しているので、たとえば、従来のように、撮像中に有効な診断が行える可能性のある姿勢を特定し、その姿勢のための動作を何度も被検体Qに行ってもらう必要がない。医師等は、読影時に再構成画像とカメラ画像とを同じ時間で停止させたり、スロー再生したりして、その前後の動きを動画で観察することで、被検体Qの体位を特定し、動作に異常がある箇所を集中して読影できる。
(第3の実施形態)
 第3の実施形態は、第1の実施形態と同じ構成を備え、光学カメラ67の撮像範囲をX線の撮像範囲が移動して撮像する場合に関する。第2の実施形態では、X線での撮像範囲を固定した状態で撮像する例を示したが、光学カメラ67の撮像範囲内を、X線の撮像範囲を移動させるように、X線CT装置10を構成してもよい。
 たとえば、嚥下障害などの病態を評価する場合、造影剤が含まれる食べ物等が、口腔内から咽頭を通り、食道を経て胃に移動するすべての様子を観察する必要がある。従来、このような観察を行う場合は、口から胃までの広範囲を連続してX線撮像を行う必要があり、被ばく量が問題となっていた。
 図13は、第3の実施形態に係るX線CT装置における撮像を説明する図である。図13の観察範囲が示すように、光学カメラ67での撮像範囲を、口を含む上半身全体とし、その観察範囲内をX線での撮像範囲である診断範囲が移動するように撮像を行ってもよい。
 上述の通り、嚥下を観察するためには、口腔、咽頭、食道、そして胃に至る範囲をすべて観察する必要がある。一方、造影された食べ物は口腔から咽頭、食道を伝い胃へと移動してく。X線撮像により観察すべき対象は、口腔から咽頭への食べ物の送り込みや、鼻腔への逆流の有無、食道の入口に食べ物が到達した際の食道の大きさなどである。すなわち、造影された食べ物が存在するタイミングで、食べ物が存在する部位をX線撮像で撮像できればよい。したがって、図13に示すように、造影された食べ物の移動に応じてX線の撮像範囲である診断範囲を、光学カメラ67での撮像範囲である観察範囲内を移動させて撮像することで、被ばく量を低減しつつ、嚥下における全体の様子を並行して観察することができる。
 図13の例では、嚥下を例として説明したが、小腸のX線造影撮像などにおいても適用可能である。小腸のX線造影撮像においても、蠕動運動により造影剤が十二指腸、空腸、回腸へ移動する様子を観察する撮像である。したがって、図13の場合と同様に、光学カメラ67で撮像しつつ、X線の撮像の範囲を限定し、造影剤の移動に応じて撮像範囲を移動させて撮像できる。
 第3の実施形態に係るX線CT装置によれば、診断する部位が移動するような場合に、移動する範囲全体を観察しつつ、診断する部位をX線撮像できるため、被ばく量を低減した検査ができる。
(第4の実施形態)
 第4の実施形態は、第1の実施形態と同じ構成を備え、被検体Pに装着されたセンサにより収集される生体情報に基づいて、診断部位の撮像を実行する場合に関する。
 図14は、第4の実施形態に係るX線CT装置10の機能構成例を示す機能ブロック図である。図14では、第1の実施形態に係るX線CT装置10の機能構成例を示す図3とは異なる構成のみを説明し、重複する構成についての説明は省略する。図14のX線CT装置10は、図3の構成に加えてセンサ68を有する。
 センサ68は、被検体Pに装着され、被検体Pの随意運動に関係する生体情報を収集する。ここで、随意運動とは、被検体Pの意思または意図に基づく運動のことである。また、ここでの被検体Pの意思又は意図に基づく運動とは、被検体Pの大脳皮質を介した骨格筋の制御による運動のことである。具体的には、四肢、腰や首の曲げ伸ばし、咀嚼や嚥下、跳躍、発声が随意運動に含まれる。なおここで、呼吸運動は、随意運動には含めないものとする。したがって、以下の説明において運動とは、呼吸運動を含めない随意運動のことである。
 被検体Pに装着されるセンサ68には、筋電計、加速度センサ、ジャイロセンサ、モーションセンサ、圧力、振動、音を検知するセンサなどのセンサ種別が含まれる。また、被検体Pには装着されないが、光学カメラ67を被検体Pの随意運動を検出するセンサとして利用してもよい。たとえば、カメラデータに基づいて生成された3D画像データに基づいて、被検体Pの運動を検出してもよい。
 コンソール装置12の処理回路81は、図3の構成に加えて、設定機能817および撮像タイミング決定機能819を有する。設定機能817および撮像タイミング決定機能819の各機能は記憶部82に格納されたプログラムを処理回路81が実行することによって実現される機能である。
 設定機能817は、ユーザによる撮像対象部位の入力を受け付け、入力された撮像対象部位に対応付けされた検知対象部位を特定する。ここで、撮像対象部位とは、X線撮像の対象となる部位のことであり、検知対象部位とは、センサ68による生体情報の収集対象となる撮像対象部位とは異なる部位のことである。以下の説明では、撮像対象部位のことを「第1部位」、検知対象部位のことを「第2部位」と称する。なお、第2部位は、第1部位とは異なる部位には限定されない。たとえば、第1部位と第2部位とは領域が一部重なっている状態、あるいは、包含関係にあってもよい。
 また、設定機能817は、第2の部位に基づいて被検体Pに取り付けるセンサ種別を特定する。設定機能817におけるセンサ種別の特定は、ユーザによる検知対象部位(第2部位)の入力に基づいて実行されてもよいし、ユーザが入力した撮像対象部位に基づいて特定された第2部位に基づいて特定されてもよい。
 なお、設定機能817における第1部位、第2部位およびセンサ種別は、後述の設定情報記憶回路829に記憶された部位組合せ情報およびセンサ種別情報に基づいて特定される。また、設定機能817は、第2部位に取り付けるセンサ種別やセンサの取付け位置をディスプレイ84に表示し、検査技師等のユーザに提示してもよい。
 撮像タイミング決定機能819は、センサ68からの生体情報を解析し、当該生体情報の変化に基づいて被検体Pの運動を検知し、検知した運動のタイミングに応じて第1部位の撮像タイミングを決定する。撮像タイミング決定機能819は、決定された撮像タイミングでスキャンコントローラ23に撮像指示を送信する。
 なお、センサ68で検出される生体情報には、第1の実施形態と同様に、時間情報が付与され、同じ時間に撮像されたCT画像データと光学画像データと関連付けされて記憶回路82に記憶されてもよい。
 コンソール装置12の記憶回路82は、図3の構成に加えて、設定情報記憶回路829を有する。設定情報記憶回路829は、記憶回路82における記憶領域としてそれぞれ構成されてもよいし、記憶回路82とは別の記憶回路により構成されてもよい。
 設定情報記憶回路829は、部位組合せ情報およびセンサ種別情報を有する。部位組合せ情報は、第1部位と第2部位との組をデータ単位とするテーブルである。即ち、部位組合せ情報は、撮像対象部位である第1部位と検知対象部位である第2部位との組合せを規定している。部位組合せ情報については後述の図16で詳細に説明する。
 センサ種別情報は、第2部位と第2部位における生体情報を検知するセンサ種別とを関連付けた情報である。また、センサ種別情報は、センサの取付け位置やセンサにより検知される運動の種類、センサが運動を検知する際の閾値情報(タイミング情報)を含んでもよい。センサ種別情報については後述の図17で詳細に説明する。
 図15は、第4の実施形態に係るX線CT装置10の動作の一例を示すフローチャートである。以下、図16および図17を参照しつつ、図15に示すフローチャートのステップ番号に従って第4の実施形態のX線CT装置10の動作を説明する。
 ステップST401において、ユーザは、入力回路83を介して、撮像対象部位(第1部位)を入力する。
 ステップST403において、設定機能817は、撮像対象部位(第1部位)の入力を受け付け、設定情報記憶回路829に記憶された部位組合せ情報を参照し、第1部位に対応する検知対象部位(第2部位)を特定する。なお、第1部位に対応する第2部位が複数ある場合、設定機能817は、第2部位の候補をディスプレイ84に表示し、第2部位をユーザに選択させてもよい。
 図16は、部位組合せ情報を説明する表である。部位組合せ情報は、第1部位と第2部位との組合せを規定している。図16の表の左側の列は、第1部位に該当する部位を示し、表の右側の列は、第2部位に該当する部位を示している。たとえば、表の第2行目において、左側の第1部位は、「肘関節」、右側の第2部位は、「上腕部」である。第3行目において、左側の第1部位は、「股関節」、右側の第2部位は、「大腿部」である。第4行目において、左側の第1部位は、「食道」、右側の第2部位は、「咽頭部」である。
 たとえば、ユーザが第1部位として「肘関節」を入力した場合、設定機能817は、「上腕部」が第2部位であることを特定する。
 以上が、部位組合せ情報の説明である。図15に戻って、フローチャートの説明を続ける。
 ステップST405において、設定機能817は、設定情報記憶回路829に記憶されたセンサ種別情報を参照し検知対象部位(第2部位)におけるセンサ種別を特定する。なお、設定機能817は、ユーザが入力した第2部位に基づいてセンサ種別を特定してもよい。
 ステップST407において、設定機能817は、センサ種別および検知対象部位(第2部位)におけるセンサ取付け位置を表示する。
 図17は、センサ種別情報を説明する表である。センサ種別情報は、第2部位と第2部位におけるセンサ種別との対応関係を規定している。図17に示すセンサ種別テーブルの第1列目は、左から順に、第2部位(検知対象部位)、センサ種別、取付け位置、検知する運動、タイミング情報を示す。
 センサ種別は、光学カメラ67を含むセンサ68の種類のことである。取付け位置は、センサ68を取り付ける被検体Pの部位のことである。なお、センサ取付け位置は、第2部位と同じであってもよいし、第2部位の一部であってもよい。検知する運動は、センサ68が検出した生体情報に基づいて撮像タイミング決定機能819が判定可能な運動の種類のことである。タイミング情報は、運動の開始や運動中を示す生体情報の変化のことであり、たとえば、センサ68の出力信号における閾値情報である。
 たとえば、センサ種別テーブルの第2列目において、第2部位が「上腕部」である場合、センサ種別は、「筋電計」、取付け位置は「上腕二頭筋」、検知する運動は、「肘関節の屈曲」、タイミング情報は、筋電計の数値が「XμV(マイクロボルト)/sec(秒)以上」である。タイミング情報は、生体情報である筋電計の数値がXμV/sec以上となるタイミングで、肘関節の屈曲という運動が開始されることを示している。
 また、センサ種別テーブルの第3列目において、第2部位が「上腕部」である場合、センサ種別は、「筋電計」、取付け位置は「上腕三頭筋」、検知する運動は、「肘関節の伸展」、タイミング情報は、筋電計の数値が「YμV/sec以上」である。タイミング情報は、生体情報である筋電計の数値がYμV/sec以上となるタイミングで、肘関節の伸展という運動が開始されることを示している。
 このように、第2部位やセンサ種別が同じであっても、検知する運動に応じてセンサの取付け位置が異なる場合がある。たとえば、検知する運動が「肘関節の屈曲」の場合は、センサの取付け位置は「上腕二頭筋」だが、検知する運動が「肘関節の伸展」の場合は、「上腕三頭筋」である。したがって、第2部位に関連付けされたセンサ種別、取付け位置および検知する運動を一覧でディスプレイ84に表示し、ユーザが被検体Pの検査に適合する組合せを選択できるようにX線CT装置10の各部を構成してもよい。
 なお、ユーザは、複数のセンサ種別またはセンサの取付け位置を選択してもよい。また、設定機能817は、被検体Pの撮像に関連する検査情報やカルテ情報などの他の被検体情報に基づいて、センサ種別、取付け位置および検知する運動を特定してもよい。
 このように、設定機能817において特定されたセンサ種別および取付け位置は、ディスプレイ84に表示される。センサ68は、X線CT装置10に予め設置されている装置ではなく、検査ごとに検査技師等のユーザが準備しなければならない。また、同じセンサ68を利用する場合であっても、検出する運動に応じてセンサ68の取付け位置は様々であるため、センサ種別および取付け位置が検査技師等のユーザに提示されることで、ユーザは、センサ68の準備や被検体Pへのセンサ68の取付けを容易に行うことができる。
 以上が、センサ種別情報の説明である。図15に戻って、フローチャートの説明を続ける。
 ステップST409において、被検体Pに装着されたセンサ68において生体情報の収集が開始される。
 ステップST411において、撮像タイミング決定機能819は、センサ68で収集された生体情報を解析し、検知する運動に応じたタイミング情報に基づいて生体情報の変化を判定し、被検体Pの運動を特定する。撮像タイミング決定機能819は、生体情報の変化に基づいて被検体Pの運動の開始タイミングを特定すると、スキャンコントローラ23に撮像指示を送信する。
 ステップST413において、スキャンコントローラ23は、被検体Pの第1部位の撮像を実行し、第1部位のCT画像を取得する。
 以上が第4の実施形態におけるフローチャートの説明である。以下、図18を用いて、被検体Pの運動の開始タイミングの判定方法を説明する。
 図18は、生体情報に基づく運動の開始タイミングの判定方法の一例を説明する模式図である。図18の左側は、被検体Pにおける様々なセンサ68の取付け位置を示している。図18の右側は、被検体Pの膝関節に取り付けられた加速度センサ68gに基づいて、膝関節の稼働タイミングを特定する方法を説明する場合を示している。
 図18の左側に示す被検体Pには、68a~68hの8個の取付け位置が示されている。センサ68aは、被検体Pの頸部に取り付けられたセンサである。たとえば、被検体Pの嚥下を検知する場合、センサ68aは、音や振動を検知するセンサや集音マイクである。撮像タイミング決定機能819は、被検体Pが物を飲み込んだ時の振動や音を特定の周波数又は音の大きさに基づいて特定する。第3の実施形態で説明したように、撮像タイミング決定機能819が特定したタイミングをトリガとして、食べ物の移動に合わせて撮像部位を移動させてもよい。
 また、センサ68b、68d、68e、68f、68g、68hは、腕部や脚部に取り付けられ、腕や足の運動を検知する筋電計やジャイロセンサまたは加速度センサなどのモーションセンサである。また、センサ68cは、腰部に取り付けられ、腰部の屈曲を検知する筋電計である。
 なお、センサ68の取付け位置は、図18の態様には限定されない。たとえば、頸部の動きを観察する場合は、頭部にジャイロセンサや加速度センサなどのモーションセンサを取り付けてもよい。また、1つの第2部位に対して複数種類のセンサ68を取り付けてもよいし、同一種別のセンサ68を複数の異なる位置に取り付けてもよい。
 図18の左側は、被検体Pの膝に取り付けられた加速度センサによって得られる生体情報の変化に基づいて被検体Pの膝の運動の開始タイミングを特定する場合を例示している。図18の左側のグラフは、センサ68gのセンサ出力を示している。たとえば、被検体Pが足を着地した時の膝関節の状態を撮像する場合、生体情報のグラフに示す矢印の位置が膝関節に一番加重がかかるタイミングとなる。撮像タイミング決定機能819は、センサ68gで検知される生体情報を解析し、このタイミングを膝関節の稼働タイミングとして検出し、スキャンコントローラ23に撮像指示を送信する。
 なお、足を着地した時の膝関節の状態を撮像する場合のセンサ68の取付け位置は、膝関節には限定されない。第1の部位である膝関節とは異なる位置、例えば、足首に加速度センサなどのセンサ68を取付けてもよい。
 また、撮像期間は、膝関節の稼働タイミングを中心とした所定の期間であってもよい。また、撮像タイミング決定機能819は、センサ68の出力が所定の閾値以上である期間中、撮像を実行するようにスキャンコントローラ23を制御してもよい。ここで、所定の閾値とは、たとえば、センサ種別テーブルのタイミング情報に規定されている閾値情報である。
 第4の実施形態では、センサ68で検知された生体情報がX線CT装置10に入力され、撮像タイミング決定機能819が生体情報を解析し、運動を検出する場合を説明した。しかしながら、撮像タイミング決定機能819が生体情報を解析し、運動を検出する態様には限定されない。たとえば、プロセッサやメモリを備えたセンサ68が生体情報を解析して運動を検出し、検出された運動を通知する信号をX線CT装置10に入力してもよい。
 このように、第4の実施形態では、被検体Pの医用画像に加えて被検体Pの生体情報を併せて収集でき、被検体Pの運動を多角的に解析することができる。また、生体情報の変化に基づいて撮像の開始タイミングを決定することができるため、撮像を自動化することができ、運動を検知してから撮像の実行までのタイムラグを減らすことができる。さらに、生体情報に基づいて撮像タイミングを決定することは、撮像時間の短縮にもつながり、被ばく量を低減することができる。
 また、第4の実施形態は、第1乃至第3の実施形態と組合せることもできる。即ち、光学カメラ67で被検体Pの外観画像を収集しつつ、センサ68で生体情報を取得し、所望の運動を撮像したCT画像が取得されるよう、X線CT装置10の各部を構成してもよい。また、この場合、CT画像データ、カメラデータおよび生体情報は、夫々同一の時間情報に基づいて関連付けされて記憶回路82に保存される。
 上述の実施形態は、医用画像診断装置としてX線CT装置を用いる例を示したが、これに限定されるものではない。医用画像診断装置として、たとえば、MRI装置も適用できる。X線CT装置に替えて、MRI装置を適用する場合は、X線による撮像範囲に替えて、磁気共鳴信号による撮像範囲となる。また、医用画像診断装置として、CアームやΩアームを備えたX線アンギオ装置や歯科用X線CT装置などにも適用可能である。
 以上述べた少なくともひとつの実施形態の医用画像診断装置によれば、広域性およびリアルタイム性を担保しつつ、被ばく量が低減された撮像をすることが可能となる。
 請求項の用語と実施形態との対応関係は、たとえば以下の通りである。なお、以下に示す対応関係は、参考のために示した一解釈であり、本発明を限定するものではない。
 処理回路81のインデックス管理機能815は、請求項記載の選択部の一例である。処理回路81の設定機能817は、請求項記載の設定部の一例である。また、センサ68及び光学カメラ67は、請求項記載の検知部の一例である。記憶回路82は、請求項記載の記憶部の一例である。スキャナ装置11は、請求項記載の撮像部の一例である。ディスプレイ84は、請求項記載の表示部の一例である。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10…X線CT装置
11…スキャナ装置
12…コンソール装置
65…X線検出器
67…光学カメラ
81…処理回路
82…記憶回路
83…入力回路
84…ディスプレイ
821…投影データ記憶回路
823…再構成画像記憶回路
825…カメラデータ記憶回路
827…処理データ記憶回路
811…画像再構成機能
813…データ処理機能
815…インデックス管理機能

Claims (12)

  1.  被検体の第1部位を撮像し、医用画像データを生成する撮像部を備え、
     前記撮像部は、前記第1部位とは異なる前記被検体の第2部位における生体情報を検知する検知部から前記生体情報を取得し、前記被検体の第2部位における運動により変化する前記生体情報に基づいて前記第1部位を撮像する、
    医用画像診断装置。
  2.  被検体の第1部位を複数の時相において撮像し、複数時相の医用画像データを生成する撮像部と、
     前記第1部位とは異なる前記被検体の第2部位における生体情報を複数時相に亘って検知する検知部から前記第2部位における複数時相の生体情報を取得し、互いに同じ時相に該当する前記複数時相の生体情報と前記複数時相の医用画像データとをそれぞれ関連付し、前記生体情報の変化が発生した時相に対応する時相の医用画像データを前記複数の医用画像データの中から選択する選択部と、
     を備える医用画像診断装置。
  3.  前記撮像部の撮像対象である第1部位と、前記検知部の検知対象である前記第2部位とを対応付けて記憶する記憶部をさらに備える、
     請求項1又は請求項2に記載の医用画像診断装置。
  4.  前記撮像部による撮像対象部位を入力する設定部をさらに備え、
     前記設定部は、前記記憶部で記憶されている第1部位および第2部位の複数の組の情報の中から、入力された前記撮像対象部位に対応する前記検知部の検知対象部位を特定する、
     請求項3に記載の医用画像診断装置。
  5.  前記記憶部は、検知対象部位である前記第2部位と、当該第2部位に対する生体情報を検知する前記検知部の種別情報とを対応付けて記憶し、
     前記設定部は、入力された検知対象部位に基づいて、前記検知部の種別を特定する、
     請求項4に記載の医用画像診断装置。
  6.  前記設定部は、前記検知部の種別として、光学カメラを特定した場合、前記検知部が前記光学カメラにより前記第2部位の光学画像を取得するように前記検知部に指示する、
     請求項4に記載の医用画像診断装置。
  7.  前記検知部は、前記光学カメラにより取得した光学画像に基づいて、前記生体情報の変化を検知する、
     請求項6に記載の医用画像診断装置。
  8.  前記検知部は、加速度センサにより取得した加速度情報に基づいて、前記生体情報の変化を検知する、
     請求項5に記載の医用画像診断装置。
  9.  前記検知部は、筋電計により取得した筋電情報に基づいて、前記生体情報の変化を検知する、
     請求項5に記載の医用画像診断装置。
  10.  前記検知部は、集音マイクにより取得した音声情報に基づいて、前記生体情報の変化を検知する、
     請求項5に記載の医用画像診断装置。
  11.  前記検知部の検知対象部位を示す画像情報を表示する表示部をさらに備える、
     請求項5に記載の医用画像診断装置。
  12.  前記撮像部は、診断に関する被検体の状態を観察する範囲を観察範囲とし、前記観察範囲のうち有効な診断を行う範囲を診断範囲とし、前記検知部で検知された前記生体情報の変化に基づいて、前記診断範囲を前記観察範囲内において移動させる、
     請求項1乃至請求項11のいずれか1項に記載の医用画像診断装置。
PCT/JP2017/020938 2016-06-06 2017-06-06 医用画像診断装置 WO2017213121A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/723,695 US11051781B2 (en) 2016-06-06 2017-10-03 Medical diagnostic imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-112561 2016-06-06
JP2016112561 2016-06-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/723,695 Continuation US11051781B2 (en) 2016-06-06 2017-10-03 Medical diagnostic imaging apparatus

Publications (1)

Publication Number Publication Date
WO2017213121A1 true WO2017213121A1 (ja) 2017-12-14

Family

ID=60577919

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/020938 WO2017213121A1 (ja) 2016-06-06 2017-06-06 医用画像診断装置

Country Status (3)

Country Link
US (1) US11051781B2 (ja)
JP (1) JP6956522B2 (ja)
WO (1) WO2017213121A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6738363B2 (ja) * 2018-03-09 2020-08-12 浜松ホトニクス株式会社 画像取得システムおよび画像取得方法
US11017585B1 (en) * 2018-06-11 2021-05-25 Facebook, Inc. Systems and methods for capturing image data for recreation in a virtual environment
EP4066740A4 (en) * 2019-11-27 2023-01-04 FUJIFILM Corporation PHOTOGRAPHY SUPPORT DEVICE, METHOD OF OPERATION THEREOF AND OPERATING PROGRAM
JP7463923B2 (ja) 2020-09-15 2024-04-09 コニカミノルタ株式会社 X線動態画像表示装置、プログラム、x線動態画像表示方法及びx線動態画像表示システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01189772A (ja) * 1988-01-25 1989-07-28 Toshiba Corp 画像フアイル装置
JP2005312007A (ja) * 2004-03-23 2005-11-04 Fuji Photo Film Co Ltd 差分画像取得方法、差分画像取得装置、及び、そのプログラム
JP2006136500A (ja) * 2004-11-12 2006-06-01 Toshiba Corp X線診断装置及び画像データ生成方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2664153B1 (fr) * 1990-07-06 1992-09-11 Gen Electric Cgr Systeme de radiodiagnostic pour examen angiographique avec dispositif automatique de suivi d'embole.
US8788020B2 (en) * 1998-10-23 2014-07-22 Varian Medical Systems, Inc. Method and system for radiation application
US6928142B2 (en) 2002-10-18 2005-08-09 Koninklijke Philips Electronics N.V. Non-invasive plaque detection using combined nuclear medicine and x-ray system
JP2004357789A (ja) 2003-06-02 2004-12-24 Olympus Corp 被検体観察システム及び被検体観察システムの制御方法
US20050033117A1 (en) 2003-06-02 2005-02-10 Olympus Corporation Object observation system and method of controlling object observation system
JP2005304905A (ja) * 2004-04-23 2005-11-04 Fuji Photo Film Co Ltd 放射線撮影装置
JP2013172792A (ja) * 2012-02-24 2013-09-05 Toshiba Corp 医用画像診断装置
CN103239253B (zh) 2012-02-14 2015-07-15 株式会社东芝 医用图像诊断装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01189772A (ja) * 1988-01-25 1989-07-28 Toshiba Corp 画像フアイル装置
JP2005312007A (ja) * 2004-03-23 2005-11-04 Fuji Photo Film Co Ltd 差分画像取得方法、差分画像取得装置、及び、そのプログラム
JP2006136500A (ja) * 2004-11-12 2006-06-01 Toshiba Corp X線診断装置及び画像データ生成方法

Also Published As

Publication number Publication date
JP6956522B2 (ja) 2021-11-02
US20180035968A1 (en) 2018-02-08
US11051781B2 (en) 2021-07-06
JP2017217479A (ja) 2017-12-14

Similar Documents

Publication Publication Date Title
JP7051307B2 (ja) 医用画像診断装置
JP6956522B2 (ja) 医用画像診断装置および医用画像診断システム
JP5196751B2 (ja) コンピュータ支援診断装置
US10863959B2 (en) X-ray CT apparatus
JP2005121530A (ja) 医用画像診断装置
JP2004275440A (ja) X線コンピュータ断層撮影装置
JP5544148B2 (ja) コンピュータ断層撮影方法およびシステム
CN105934200A (zh) 针对乳房x射线摄影检查的改进
JP2013172792A (ja) 医用画像診断装置
JP6878028B2 (ja) 医用画像診断システム及び複合現実画像生成装置
JP2002191593A (ja) コンピュータ断層撮影装置
JP6510198B2 (ja) 医用画像処理装置及び医用画像処理方法
JP2009160221A (ja) X線コンピュータ断層撮影装置及び3次元画像処理装置
JP6073558B2 (ja) 医用画像診断装置
JP5405284B2 (ja) 医用画像診断装置
JP6824726B2 (ja) X線ct装置
JP4586473B2 (ja) 医用画像診断装置
JP2006081887A (ja) 医用画像診断システム
JP2005168948A (ja) X線ct装置
US20240127450A1 (en) Medical image processing apparatus and non-transitory computer readable medium
JP2009254893A (ja) X線コンピュータ断層撮影装置
JP2010075558A (ja) X線コンピュータ断層撮影装置
JP6762774B2 (ja) X線ct装置
JP2023179194A (ja) X線診断装置、x線診断装置の制御方法、およびプログラム
JP2005204859A (ja) 放射線画像処理装置、放射線画像処理システム、放射線撮影システム、放射線撮影装置、放射線画像処理方法、コンピュータ可読記憶媒体、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17810296

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17810296

Country of ref document: EP

Kind code of ref document: A1