WO2014081021A1 - 画像処理装置、磁気共鳴イメージング装置及び画像処理方法 - Google Patents

画像処理装置、磁気共鳴イメージング装置及び画像処理方法 Download PDF

Info

Publication number
WO2014081021A1
WO2014081021A1 PCT/JP2013/081565 JP2013081565W WO2014081021A1 WO 2014081021 A1 WO2014081021 A1 WO 2014081021A1 JP 2013081565 W JP2013081565 W JP 2013081565W WO 2014081021 A1 WO2014081021 A1 WO 2014081021A1
Authority
WO
WIPO (PCT)
Prior art keywords
cross
sectional image
image
sectional
display
Prior art date
Application number
PCT/JP2013/081565
Other languages
English (en)
French (fr)
Inventor
修平 新田
智行 武口
松本 信幸
関根 真弘
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN201380060907.0A priority Critical patent/CN104812298B/zh
Publication of WO2014081021A1 publication Critical patent/WO2014081021A1/ja
Priority to US14/720,257 priority patent/US9797972B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • A61B5/704Tables
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4818MR characterised by data acquisition along a specific k-space trajectory or by the temporal order of k-space coverage, e.g. centric or segmented coverage of k-space
    • G01R33/482MR characterised by data acquisition along a specific k-space trajectory or by the temporal order of k-space coverage, e.g. centric or segmented coverage of k-space using a Cartesian trajectory
    • G01R33/4822MR characterised by data acquisition along a specific k-space trajectory or by the temporal order of k-space coverage, e.g. centric or segmented coverage of k-space using a Cartesian trajectory in three dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/543Control of the operation of the MR system, e.g. setting of acquisition parameters prior to or during MR data acquisition, dynamic shimming, use of one or more scout images for scan plane prescription
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/561Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution by reduction of the scanning time, i.e. fast acquiring systems, e.g. using echo-planar pulse sequences
    • G01R33/5615Echo train techniques involving acquiring plural, differently encoded, echo signals after one RF excitation, e.g. using gradient refocusing in echo planar imaging [EPI], RF refocusing in rapid acquisition with relaxation enhancement [RARE] or using both RF and gradient refocusing in gradient and spin echo imaging [GRASE]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0037Performing a preliminary scan, e.g. a prescan for identifying a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/503Clinical applications involving diagnosis of heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Definitions

  • Embodiments described herein relate generally to an image processing apparatus, a magnetic resonance imaging apparatus, and an image processing method.
  • a target region is imaged to collect three-dimensional data, and a cross section is obtained from the collected data.
  • An image may be generated.
  • “basic cross-sectional images” such as vertical long-axis images, horizontal long-axis images, two-chamber cross-sectional images, three-chamber cross-sectional images, and four-chamber cross-sectional images are useful for diagnosis.
  • a medical image diagnostic apparatus collects three-dimensional data before an imaging scan for collecting diagnostic images, and uses the collected three-dimensional data.
  • “Basic cross-sectional image” and “auxiliary cross-sectional image” used for setting the basic cross-sectional image are generated. Then, the medical image diagnostic apparatus displays these cross-sectional images on the display unit, and accepts operations such as correction and confirmation from the operator, thereby setting the imaging position of the “basic cross-sectional image”.
  • the problem to be solved by the present invention is to provide an image processing apparatus, a magnetic resonance imaging apparatus, and an image processing method capable of appropriately setting a cross-sectional image.
  • the image processing apparatus includes a generation unit and a display control unit.
  • the generation unit generates a first cross-sectional image and a second cross-sectional image that intersects the first cross-sectional image from three-dimensional medical image data.
  • the display control unit changes the display position of the first cross-sectional image and the second cross-sectional image on the display unit and the intersection position of both cross-sectional images in conjunction with each other.
  • FIG. 1 is a functional block diagram showing the configuration of the MRI apparatus according to the first embodiment.
  • FIG. 2 is a diagram for explaining a basic cross-sectional image in the first embodiment.
  • FIG. 3 is a diagram for explaining an auxiliary cross-sectional image in the first embodiment.
  • FIG. 4 is a flowchart showing an overall processing procedure in the first embodiment.
  • FIG. 5 is a functional block diagram illustrating a configuration of a cross-sectional position deriving unit according to the first embodiment.
  • FIG. 6 is a flowchart showing a processing procedure of basic section position derivation processing in the first embodiment.
  • FIG. 7 is a diagram for explaining a display example of a cross-sectional image in the first embodiment.
  • FIG. 1 is a functional block diagram showing the configuration of the MRI apparatus according to the first embodiment.
  • FIG. 2 is a diagram for explaining a basic cross-sectional image in the first embodiment.
  • FIG. 3 is a diagram for explaining an auxiliary cross-sectional image in the first
  • FIG. 8 is a diagram for explaining correction of a basic cross-sectional position and an auxiliary cross-sectional position in the first embodiment.
  • FIG. 9 is a view for explaining another display example 1 of the first embodiment.
  • FIG. 10 is a diagram for explaining another display example 2 of the first embodiment.
  • FIG. 11 is a view for explaining another display example 3 of the first embodiment.
  • FIG. 12 is a view for explaining another display example 4 of the first embodiment.
  • FIG. 13A is a diagram for explaining a display example in another embodiment.
  • FIG. 13B is a diagram for explaining a display example in another embodiment.
  • FIG. 14 is a diagram for explaining a display example in another embodiment.
  • FIG. 15 is a diagram illustrating a hardware configuration of the image processing apparatus according to the embodiment.
  • MRI Magnetic Resonance Imaging
  • image processing apparatus a magnetic resonance imaging apparatus (hereinafter referred to as “MRI (Magnetic Resonance Imaging) apparatus”) and an image processing method according to the embodiments will be described with reference to the drawings.
  • MRI Magnetic Resonance Imaging
  • the embodiments are not limited to the following embodiments.
  • the contents described in each embodiment can be applied in the same manner to other embodiments in principle.
  • FIG. 1 is a functional block diagram showing the configuration of the MRI apparatus 100 according to the first embodiment.
  • the MRI apparatus 100 includes a static magnetic field magnet 101, a static magnetic field power supply 102, a gradient magnetic field coil 103, a gradient magnetic field power supply 104, a bed 105, a bed control unit 106, and a transmission coil 107.
  • a transmission unit 108, a reception coil 109, a reception unit 110, a sequence control unit 120, and a computer 130 also referred to as “image processing apparatus”.
  • the MRI apparatus 100 does not include a subject P (for example, a human body).
  • the structure shown in FIG. 1 is only an example.
  • the sequence control unit 120 and each unit in the computer 130 may be configured to be appropriately integrated or separated.
  • the static magnetic field magnet 101 is a magnet formed in a hollow cylindrical shape and generates a static magnetic field in an internal space.
  • the static magnetic field magnet 101 is, for example, a superconducting magnet or the like, and is excited by receiving a current supplied from the static magnetic field power source 102.
  • the static magnetic field power supply 102 supplies a current to the static magnetic field magnet 101.
  • the static magnetic field magnet 101 may be a permanent magnet.
  • the MRI apparatus 100 may not include the static magnetic field power source 102.
  • the static magnetic field power source 102 may be provided separately from the MRI apparatus 100.
  • the gradient magnetic field coil 103 is a coil formed in a hollow cylindrical shape, and is disposed inside the static magnetic field magnet 101.
  • the gradient coil 103 is formed by combining three coils corresponding to the X, Y, and Z axes orthogonal to each other, and these three coils individually supply current from the gradient magnetic field power supply 104.
  • a gradient magnetic field is generated in which the magnetic field strength varies along the X, Y, and Z axes.
  • the gradient magnetic fields of the X, Y, and Z axes generated by the gradient coil 103 are, for example, a slice gradient magnetic field Gs, a phase encoding gradient magnetic field Ge, and a readout gradient magnetic field Gr.
  • the gradient magnetic field power supply 104 supplies a current to the gradient magnetic field coil 103.
  • the couch 105 includes a top plate 105a on which the subject P is placed. Under the control of the couch control unit 106, the couch 105a is placed in a state where the subject P is placed on the cavity ( Insert it into the imaging port. Usually, the bed 105 is installed so that the longitudinal direction is parallel to the central axis of the static magnetic field magnet 101.
  • the couch controller 106 drives the couch 105 under the control of the computer 130 to move the couchtop 105a in the longitudinal direction and the vertical direction.
  • the transmission coil 107 is disposed inside the gradient magnetic field coil 103 and receives a supply of RF pulses from the transmission unit 108 to generate a high-frequency magnetic field.
  • the transmitter 108 supplies an RF (Radio Frequency) pulse corresponding to a Larmor frequency determined by the type of the target atom and the magnetic field strength to the transmitter coil 107.
  • the receiving coil 109 is arranged inside the gradient magnetic field coil 103 and receives a magnetic resonance signal (hereinafter referred to as “MR signal” as appropriate) emitted from the subject P due to the influence of the high-frequency magnetic field.
  • MR signal a magnetic resonance signal
  • receiving coil 109 outputs the received MR signal to receiving section 110.
  • transmission coil 107 and reception coil 109 are merely examples. What is necessary is just to comprise by combining one or more among the coil provided only with the transmission function, the coil provided only with the reception function, or the coil provided with the transmission / reception function.
  • the receiving unit 110 detects the MR signal output from the receiving coil 109, and generates MR data based on the detected MR signal. Specifically, the receiving unit 110 generates MR data by digitally converting the MR signal output from the receiving coil 109. In addition, the reception unit 110 transmits the generated MR data to the sequence control unit 120.
  • the receiving unit 110 may be provided on the gantry device side including the static magnetic field magnet 101, the gradient magnetic field coil 103, and the like.
  • the sequence control unit 120 performs imaging of the subject P by driving the gradient magnetic field power source 104, the transmission unit 108, and the reception unit 110 based on the sequence information transmitted from the computer 130.
  • the sequence information is information defining a procedure for performing imaging.
  • the sequence information includes the strength of the current supplied from the gradient magnetic field power source 104 to the gradient magnetic field coil 103 and the timing of supplying the current, the strength of the RF pulse supplied from the transmission unit 108 to the transmission coil 107, the timing of applying the RF pulse, and reception.
  • the timing at which the unit 110 detects the MR signal is defined.
  • the sequence controller 120 is an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array), or an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit).
  • the sequence control unit 120 drives the gradient magnetic field power source 104, the transmission unit 108, and the reception unit 110 to image the subject P. As a result, when receiving MR data from the reception unit 110, the sequence control unit 120 sends the received MR data to the computer 130. Forward.
  • the computer 130 performs overall control of the MRI apparatus 100, generation of images, and the like.
  • the computer 130 includes an interface unit 131, a storage unit 132, a control unit 133, an input unit 134, a display unit 135, and an image generation unit 136.
  • the control unit 133 includes a cross-sectional position deriving unit 133a.
  • the interface unit 131 transmits sequence information to the sequence control unit 120 and receives MR data from the sequence control unit 120. Further, when receiving the MR data, the interface unit 131 stores the received MR data in the storage unit 132.
  • the MR data stored in the storage unit 132 is arranged in the k space by the control unit 133. As a result, the storage unit 132 stores k-space data.
  • the storage unit 132 stores MR data received by the interface unit 131, k-space data arranged in the k-space by the control unit 133, image data generated by the image generation unit 136, and the like.
  • the storage unit 132 is a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like.
  • the input unit 134 receives various instructions and information input from the operator.
  • the input unit 134 is, for example, a pointing device such as a mouse or a trackball, a selection device such as a mode change switch, or an input device such as a keyboard.
  • the display unit 135 displays a GUI (Graphical User Interface) for receiving an input of imaging conditions, an image generated by the image generation unit 136, and the like under the control of the control unit 133.
  • the display unit 135 is a display device such as a liquid crystal display.
  • the control unit 133 performs overall control of the MRI apparatus 100, and controls imaging, image generation, image display, and the like. For example, the control unit 133 accepts input of imaging conditions (imaging parameters, etc.) on the GUI, and generates sequence information according to the accepted imaging conditions. In addition, the control unit 133 transmits the generated sequence information to the sequence control unit 120.
  • the control unit 133 is an integrated circuit such as an ASIC or FPGA, or an electronic circuit such as a CPU or MPU. Details of the processing by the cross-section position deriving unit 133a will be described later.
  • the image generation unit 136 reads the k-space data from the storage unit 132, and generates an image by performing reconstruction processing such as Fourier transform on the read k-space data.
  • FIG. 2 is a diagram for explaining a basic cross-sectional image in the first embodiment
  • FIG. 3 is a diagram for explaining an auxiliary cross-sectional image in the first embodiment.
  • a “heart” as a target site a “four-chamber cross-sectional image” as a basic cross-sectional image
  • a “left ventricular short-axis image” as an auxiliary cross-sectional image” will be described as examples.
  • the basic cross-sectional image is not limited to the “four-chamber cross-sectional image”, and may be a cross-sectional image set so as to include a desired portion used for diagnosis.
  • the basic cross-sectional image may be a long-axis image such as a vertical long-axis image, a horizontal long-axis image, a two-chamber cross-sectional image, or a three-chamber cross-sectional image, or a left ventricular short-axis image.
  • the auxiliary cross-sectional image is not limited to the “left ventricular short-axis image”, and may be a cross-sectional image that intersects the basic cross-sectional image.
  • FIG. 2A shows the anatomical positioning of the four-chamber cross-sectional image I10
  • FIG. 2B shows an example of the four-chamber cross-sectional image I10.
  • the four-chamber cross-sectional image I10 includes four chambers (left ventricle LV (left ventricle), left atrium LA (left atrium), right ventricle RV (right ventricle), and right atrium RA ( Right (atrium)) is a cross-sectional image that can be observed.
  • the four-chamber cross-sectional image I10 is a cross-sectional image passing through the mitral valve MV (mitral valve) and the apex CA (cardiac apex), which are characteristic parts of the heart.
  • 2B is a portion called “the center of the left ventricle”, and is located at the midpoint between the mitral valve MV and the apex CA.
  • a vector from the left ventricular center C to the apex CA is referred to as “long axis Y”, and a vector orthogonal to the long axis Y on the four-chamber cross-sectional image I10 is referred to as “short axis X”.
  • FIG. 3A shows the anatomical positioning of the left ventricular short-axis image I20
  • FIG. 3B shows an example of the left ventricular short-axis image I20.
  • the left ventricular short-axis image I20 is a cross-sectional image orthogonal to the long-axis Y.
  • FIG. 4 is a flowchart showing an overall processing procedure in the first embodiment.
  • the control unit 133 accepts input of imaging conditions by the operator on the GUI via the input unit 134, and generates sequence information according to the accepted imaging conditions (step S101). For example, the control unit 133 displays, as a GUI, a region that accepts selection for each imaging region on the human body model diagram, a region that displays a generic name of a group of protocols (pulse sequences), and a list of protocols included in each generic name. Display a screen that includes an area.
  • the operator selects “heart” on the human body model diagram according to the hierarchical structure of each region, and then selects “Heart (4chamber)” as a generic name.
  • the operator selects various preparation scan protocols (for example, a preparation scan protocol for collecting positioning image data) and an imaging scan protocol from the list of protocols.
  • the receiving coil 109 is mounted on the subject P, the subject P is placed on the top plate 105a of the bed 105, and the receiving coil 109 is electrically connected to the MRI apparatus 100 (step S102).
  • the receiving coil 109 is a body coil having a plurality of coil elements.
  • the bed control unit 106 moves the bed 105 (step S103). Specifically, when the bed control unit 106 moves the top 105a to a predetermined position, light from a projector (not shown) is applied to the subject P. The operator inputs the designation of the position of the imaging region via the input unit 134 at the timing when the light from the projector is applied to the heart that is the imaging region. Then, the bed control unit 106 moves the top board 105a so that the designated imaging region is positioned at the magnetic field center.
  • the sequence control unit 120 collects three-dimensional MR data in a range including the heart by controlling the execution of the pulse sequence based on the sequence information (step S104).
  • MR data of a relatively wide imaging range is collected with the subject P holding his or her breath.
  • the sequence control unit 120 collects three-dimensional MR data at high speed according to imaging parameters (flip angle, slice thickness, phase encoding number, etc.) that realize high-speed and low-resolution acquisition.
  • the sequence control unit 120 collects MR data using a GE (Gradient Echo) pulse sequence.
  • TR Repetition Time
  • SE Spin Echo
  • the sequence control unit 120 collects MR data using 3D FFE (Fast Field Echo).
  • the pulse sequence for collecting 3D MR data is not limited to 3D FFE.
  • the sequence control unit 120 may use, for example, 3D SSFP (Steady-State Free Precession) or 3D FASE (Fast Asymmetric Spin Echo) as a pulse sequence when collecting three-dimensional MR data.
  • the sequence control unit 120 may collect three-dimensional MR data by multi-slice imaging using 2D FFE, 2D SSFP, and 2D FASE.
  • the sequence control unit 120 may add a pulse sequence that applies a T2 preparation pulse prior to the execution of these pulse sequences. By applying the T2 preparation pulse, the contrast of the image can be enhanced.
  • the sequence control unit 120 collects three-dimensional MR data in an imaging range of 25 cm or more in the cranio-foot direction, the left-right direction, and the dorsoventral direction of the subject P around the magnetic field center.
  • the three-dimensional MR data is collected prior to another scan, it is unclear which position and size the subject P heart enters in the three-dimensional MR data. Yes, it is necessary to set the imaging range large to some extent.
  • the size of the heart is considered to be about 13 cm in the cranio-foot direction, in the first embodiment, the size is set to about 25 cm or more.
  • the size of the heart is considered to be small, so that it may be, for example, 20 cm or more.
  • the size of the imaging range can be arbitrarily changed.
  • the sequence control unit 120 may collect three-dimensional MR data with a maximum FOV (Field Of View) that can be set as the MRI apparatus 100 (for example, a range in which the uniformity of the static magnetic field strength can be ensured).
  • FOV Field Of View
  • the three-dimensional MR data collected in this way is used for deriving the imaging range in the subsequent preparation scan in the first embodiment. Specifically, it is used to derive an imaging range in a preparation scan for collecting multi-slice images.
  • the multi-slice image is used as “positioning data” for deriving an imaging position of a basic cross-sectional image collected by an imaging scan (hereinafter referred to as “basic cross-sectional position” as appropriate).
  • the multi-slice image is usually more than the former three-dimensional MR data. Collected with high spatial resolution.
  • the sequence control unit 120 executes various preparation scans (step S105).
  • the preparation scan for collecting multi-slice images will be described.
  • the control unit 133 performs template matching, pattern recognition using a classifier, and the like on the three-dimensional MR data collected in step S104.
  • the controller 133 determines a predetermined range including the upper end position and the lower end position of the heart, that is, a position obtained by taking a predetermined offset in the head direction from the upper end position of the heart, and a predetermined offset in the foot direction from the lower end position of the heart.
  • the obtained position is derived as an imaging range in the slice direction.
  • the control unit 133 uses, for example, fixed values that are set in advance so that the imaging ranges in the left-right direction and the dorsoventral direction are at least a range including the heart.
  • the control unit 133 may display the confirmation screen on the display unit 135 and determine the imaging range after accepting confirmation or correction by the operator. Further, a fixed value, a variable value, a value received from the operator, or the like can be arbitrarily set as the offset length.
  • the sequence control unit 120 collects MR data of the multi-slice image according to the imaging range derived by the control unit 133, for example, using 2D FFE, 2D SSFP, or 2D FASE. In this collection, MR data is collected at a high resolution that can identify a cross-sectional image of the heart. Therefore, the sequence control unit 120 collects MR data of multi-slice images according to imaging parameters (flip angle, slice thickness, slice pitch, number of phase encodes, etc.) that realize high-resolution acquisition. Thereafter, the image generation unit 136 reconstructs a plurality of axial cross-sectional images along the body axis direction of the subject P from the collected MR data, thereby generating volume data.
  • imaging parameters flip angle, slice thickness, slice pitch, number of phase encodes, etc.
  • the volume data is a group of 20 axial sectional images reconstructed by the image generation unit 136.
  • the image generation unit 136 performs isotropic processing (interpolation processing performed so that the three directions x, y, and z are equal distance intervals) on the volume data after reconstruction, It may be provided as volume data for subsequent processing. Alternatively, the image generation unit 136 may provide volume data that is not subjected to isotropic processing for subsequent processing.
  • sequence control unit 120 performs other preparation scans.
  • the sequence control unit 120 collects a preparation scan for collecting profile data indicating the sensitivity in the arrangement direction of each coil element (or channel), and a sensitivity map indicating the sensitivity distribution of each coil element (or channel).
  • Preparation scan preparation scan for collecting spectrum data for obtaining the center frequency of the RF pulse, preparation scan for obtaining a current value to be passed through a correction coil (not shown) for adjusting the uniformity of the static magnetic field Etc.
  • the cross-sectional position deriving unit 133a executes a series of processes for deriving the imaging position of the basic cross-sectional image collected by the imaging scan, that is, the basic cross-sectional position, using the volume data generated in step S105. (Step S106). The details of the process for deriving the basic cross-sectional position will be described later.
  • the sequence control unit 120 sets the basic cross-sectional position derived in step S106 and executes an imaging scan (step S107). Thereafter, the image generation unit 136 generates a desired basic section image from the MR data collected by the sequence control unit 120 (step S108), and displays the generated basic cross-sectional image on the display unit 135 (step S109).
  • the processing procedure described above is merely an example.
  • the execution order of various preparation scans can be arbitrarily changed.
  • the sequence control unit 120 executes only the acquisition of the multi-slice image used for deriving the basic cross-sectional position in the previous stage before deriving the basic cross-sectional position, and other preparation scans than deriving the basic cross-sectional position. It may be executed later.
  • the sensitivity map usually only needs to be collected before the image generation process, it does not necessarily have to be collected prior to the imaging scan. Further, at least a part of the preparation scan may be executed prior to the collection of the three-dimensional MR data in step S104.
  • the imaging range for collecting multi-slice images is derived using the three-dimensional MR data collected in step S104.
  • the embodiment is not limited to this.
  • an axial image or a coronal image may be collected and displayed on the display unit 135, and an imaging range for collecting multi-slice images may be received from the operator.
  • processing for generating a basic cross-sectional image processing for displaying the generated basic cross-sectional image on the display unit 135, and the like can be omitted as appropriate according to the form of operation.
  • a scan that collects three-dimensional MR data (step S104) and a scan that collects a multi-slice image (step S105) in order to derive the imaging range of the multi-slice image are performed.
  • An example of execution has been described. However, the embodiment is not limited to this, and only one of the scans may be executed. In this case, both the “imaging range of the multi-slice image” and the “basic cross-sectional position” are derived from the volume data collected and generated in this one scan. It is desirable to perform this scan at high speed and with high resolution. Furthermore, it is desirable that the sequence control unit 120 execute this one scan so as to realize high contrast.
  • the high contrast here means that, for example, a difference in luminance distribution between blood and myocardium is large.
  • the sequence control unit 120 when collecting three-dimensional MR data in order to derive the imaging range of a multi-slice image, the sequence control unit 120 prioritizes high speed over contrast and has a relatively small flip angle. Imaging is performed according to the setting (for example, about 15 °).
  • the sequence control unit 120 when collecting multi-slice images, performs imaging so as to realize high contrast according to a relatively large flip angle (for example, about 60 °) setting.
  • the sequence control unit 120 is set so as to realize high contrast even in an aspect in which only one scan is executed. According to the flip angle, high-contrast imaging can be performed.
  • FIG. 5 is a functional block diagram showing the configuration of the cross-section position deriving unit 133a according to the first embodiment
  • FIG. 6 is a flowchart showing the processing procedure of the basic cross-section position deriving process in the first embodiment. It is. Note that the processing procedure shown in FIG. 6 corresponds to the processing in step S106 shown in FIG.
  • the cross-sectional position deriving unit 133a includes a basic cross-sectional position calculating unit 133b, an auxiliary cross-sectional position calculating unit 133c, an intersection line calculating unit 133d, and a cross-sectional image generating unit 133e.
  • the basic cross-section position calculation unit 133b reads the volume data from the storage unit 132, and calculates the basic cross-section position indicating the spatial position of the basic cross-sectional image using the read volume data. Further, the basic cross-sectional position is an imaging position of a basic cross-sectional image collected by an imaging scan.
  • the basic cross-sectional position calculated by the basic cross-section position calculating unit 133b is used for processing by the auxiliary cross-sectional position calculating unit 133c, the crossing line calculating unit 133d, and the cross-sectional image generating unit 133e.
  • the auxiliary cross-section position calculation unit 133c When the auxiliary cross-section position calculation unit 133c receives the basic cross-section position from the basic cross-section position calculation unit 133b, the auxiliary cross-section position calculation unit 133c calculates an auxiliary cross-section position indicating a spatial position of the auxiliary cross-sectional image that intersects the basic cross-sectional image indicated by the basic cross-section position. To do.
  • the auxiliary cross-section position calculated by the auxiliary cross-section position calculation unit 133c is used for processing by the intersection line calculation unit 133d and the cross-sectional image generation unit 133e.
  • the intersection line calculation unit 133d generates intersection line information indicating the intersection position of both cross-sectional images based on the basic cross-section position received from the basic cross-section position calculation unit 133b and the auxiliary cross-section position received from the auxiliary cross-section position calculation unit 133c. calculate.
  • the intersection line information is information indicating a spatial position of a line where the basic sectional image and the auxiliary sectional image intersect.
  • the crossing line calculation unit 133d receives a change instruction of the display position of the basic cross-sectional image or the auxiliary cross-sectional image or a change instruction of the crossing line from the correction reception unit 133h, the crossing line information according to the content after the change is received. calculate.
  • the intersection line information calculated by the intersection line calculation unit 133d is used for processing by the display position calculation unit 133f and the display control unit 133g.
  • the cross-sectional image generation unit 133e generates a basic cross-sectional image based on the volume data read from the storage unit 132 and the basic cross-sectional position received from the basic cross-section position calculation unit 133b.
  • the cross-sectional image generation unit 133e generates an auxiliary cross-sectional image based on the volume data read from the storage unit 132 and the auxiliary cross-sectional position received from the auxiliary cross-section position calculation unit 133c.
  • the cross-sectional image generation unit 133e receives an instruction to change the display position of the basic cross-sectional image or the auxiliary cross-sectional image or an instruction to change the intersection line from the correction receiving unit 133h,
  • the auxiliary sectional position is calculated.
  • the cross-sectional image generation unit 133e calculates the basic cross-sectional position and the auxiliary cross-sectional position according to the change in the relative positional relationship between the display positions where both cross-sectional images are displayed. Then, the cross-sectional image generation unit 133e generates (regenerates) a basic cross-sectional image and an auxiliary cross-sectional image again based on the calculated basic cross-sectional position and auxiliary cross-sectional position.
  • the basic cross-sectional image and the auxiliary cross-sectional image generated by the cross-sectional image generation unit 133e are used for processing by the display control unit 133g.
  • the display position calculation unit 133f receives the cross line information from the cross line calculation unit 133d, and displays the display positions of the basic cross-sectional image and the auxiliary cross-sectional image so that the basic cross-sectional image is positioned in the extension direction of the cross line on the auxiliary cross-sectional image. calculate.
  • the display position calculated by the display position calculation unit 133f is used for processing by the display control unit 133g.
  • the display control unit 133g displays the basic cross-sectional image and the auxiliary cross-sectional image on the display unit 135 by arranging the basic cross-sectional image and the auxiliary cross-sectional image at display positions where the relative relationship is determined according to the crossing position of both cross-sectional images.
  • the display control unit 133g changes the display position of the basic cross-sectional image and the auxiliary cross-sectional image and the intersection position of both cross-sectional images in conjunction with each other.
  • the display control unit 133g displays the basic cross-sectional image and the auxiliary cross-sectional image received from the cross-sectional image generation unit 133e on the display unit 135 according to the display position received from the display position calculation unit 133f. Further, the display control unit 133g synthesizes and displays guide information indicating the extending direction of the intersection line when displaying the basic cross-sectional image and the auxiliary cross-sectional image.
  • the modification accepting unit 133h accepts an instruction to change the display position of the basic cross-sectional image and the auxiliary cross-sectional image and an instruction to change the intersection line from the operator via the input unit 134.
  • the change instruction received by the correction receiving unit 133h is used for processing by the intersection line calculation unit 133d and the cross-sectional image generation unit 133e.
  • the basic cross-section position calculation unit 133b reads volume data from the storage unit 132 (step S106-1) and calculates the basic cross-section position. (Step S106-2).
  • the basic cross-sectional position is a spatial position of the basic cross-sectional image in the three-dimensional image space, and is represented by a parameter that can uniquely identify the basic cross-sectional image from the volume data.
  • the parameter is represented by a center coordinate point o (Equation (1)) of the basic cross-sectional image and two vectors u and v (Equation (2)) on the basic cross-sectional image. If the two vectors u and v are not parallel, the basic cross-sectional position can be uniquely specified.
  • the basic cross-section position calculation unit 133b calculates these parameters o, u, and v so that a desired site used for diagnosis is included in the basic cross-sectional image.
  • the basic cross-section position calculation unit 133b calculates the left ventricular center C as the center coordinate point o of the basic cross-sectional image, calculates the short axis X as the vector u, and sets the long axis Y as the vector v.
  • Calculate as Vectors u and v are two orthogonal vectors. The vectors u and v are not limited to two orthogonal vectors.
  • the basic cross-section position calculation unit 133b calculates the basic cross-section position using a known technique. For example, the basic cross-section position calculation unit 133b prepares a template image of a basic cross-sectional image in advance, and specifies the left ventricular center C, the short axis X, and the long axis Y by template matching between the volume data and the template image. Then, the basic cross-section position calculation unit 133b calculates parameters o, u, and v representing the specified left ventricular center C, the short axis X, and the long axis Y.
  • the basic cross-section position calculation unit 133b prepares an identifier for identifying a basic cross-sectional image in advance, and applies this identifier to volume data, so that the left ventricular center C, the short axis X, and the long axis Y May be specified.
  • the basic cross-section position calculation unit 133b receives the designation of the left ventricular center C, the short axis X, and the long axis Y from the operator, thereby obtaining the left ventricular center C, the short axis X, and the long axis Y. You may specify.
  • the parameters are not limited to those corresponding to the left ventricular center C, the short axis X, and the long axis Y.
  • the parameter may represent the positions of three different points on the basic cross-sectional image, such as the mitral valve MV, the apex CA, and the short axis X.
  • the parameter may represent, for example, coordinate points of four vertices of a rectangle indicating a cross section. That is, the parameter may be any parameter that can uniquely identify the basic cross-sectional image from the volume data.
  • the auxiliary cross-section position calculation unit 133c calculates the auxiliary cross-section position using the basic cross-section position calculated in step S106-2 (step S106-3).
  • the auxiliary cross-sectional image is a cross-sectional image used auxiliary to assist in setting the basic cross-sectional image (for example, to make it easier for the operator to confirm the basic cross-sectional position) and intersects the basic cross-sectional image. It is a cross-sectional image.
  • the auxiliary cross-sectional position is a spatial position of the auxiliary cross-sectional image in the three-dimensional image space, and is represented by a parameter that can uniquely identify the auxiliary cross-sectional image from the volume data.
  • the parameters are the center point coordinate point o ′ (Equation (3)) of the left ventricular short axis image that is the auxiliary sectional image, and two vectors u ′ and v ′ (Equation (4)) on the auxiliary sectional image. ). If the two vectors u ′ and v ′ are not parallel, the auxiliary cross-sectional position can be uniquely specified.
  • the variable a is an arbitrary constant, and “ ⁇ ” is an outer product calculation. Note that, as in the first embodiment, by using a cross-sectional image orthogonal to the basic cross-sectional image as an auxiliary cross-sectional image, the operator can more effectively confirm the basic cross-sectional position.
  • the intersection line calculation unit 133d uses the basic sectional position calculated in step S106-2 and the auxiliary sectional position calculated in step S106-3 to indicate intersection line information indicating the intersection position of both sectional images. Is calculated (step S106-4).
  • the intersection line information on the auxiliary sectional image can be calculated by projecting the intersection line vector of the basic sectional image and the auxiliary sectional image onto the auxiliary sectional image.
  • the intersecting line calculation unit 133d calculates the intersecting line vector l by the expression (5).
  • the vector n is a normal vector of the basic cross-sectional image
  • the vector n ′ is a normal vector of the auxiliary cross-sectional image.
  • the variable b is an arbitrary constant
  • “p” is an arbitrary point on the line where the basic cross-sectional image and the auxiliary cross-sectional image intersect, and solves the plane equation of the basic cross-sectional image and the auxiliary cross-sectional image. Can be calculated.
  • the intersection line calculation unit 133d calculates the intersection line information on the auxiliary sectional image by projecting the intersection line vector l calculated by the equation (5) onto the auxiliary sectional image.
  • the display position calculation unit 133f calculates the display positions of the basic cross-sectional image and the auxiliary cross-sectional image so that the basic cross-sectional image is positioned in the extending direction of the intersecting line on the auxiliary cross-sectional image (step S106-5).
  • the display control unit 133g displays the basic cross-sectional image and the auxiliary cross-sectional image on the display unit 135 according to the display position calculated in Step S106-5 (Step S106-6). Further, when displaying the basic cross-sectional image and the auxiliary cross-sectional image, the display control unit 133g generates guide information indicating the extension direction of the intersection line, and synthesizes and displays the generated guide information.
  • the cross-sectional image generation unit 133e uses the volume data read from the storage unit 132 and the basic cross-sectional position calculated in step S106-2 until the display processing in step S106-6, to generate a basic cross-sectional image. Generate. In addition, the cross-sectional image generation unit 133e uses the volume data read from the storage unit 132 and the auxiliary cross-sectional position calculated in step S106-3 before the display processing in step S106-6 to generate an auxiliary cross-sectional image. Generate.
  • the cross-sectional image generation unit 133e generates a basic cross-sectional image and an auxiliary cross-sectional image by applying MPR (Multi Planer Reconstruction) processing to volume data based on the calculated basic cross-sectional position and auxiliary cross-sectional position.
  • MPR Multi Planer Reconstruction
  • FIG. 7 is a diagram for explaining a display example of a cross-sectional image in the first embodiment.
  • FIG. 7A is a diagram for explaining the display position of each cross-sectional image
  • FIG. 7B is a diagram showing a display example (GUI).
  • the display control unit 133g arranges the auxiliary cross-sectional image I1 and the basic cross-sectional image I2 so that the basic cross-sectional image I2 is positioned in the extending direction of the intersecting line on the auxiliary cross-sectional image I1. .
  • the display control unit 133g arranges both cross-sectional images so that the basic cross-sectional image I2 is positioned in the direction of the short axis X on the auxiliary cross-sectional image I1. In other words, in the first embodiment, the display control unit 133g arranges both cross-sectional images so that the basic cross-sectional image I2 corresponding to the slice is positioned on the straight line of the angle obtained by slicing the auxiliary cross-sectional image I1. To do.
  • FIG. 7B shows an example in which the display control unit 133g displays one auxiliary sectional image I1 and one basic sectional image I2 on the display unit 135.
  • the left ventricular center C is set as the center coordinate point o of the basic cross-sectional image
  • the center coordinate point o ′ of the auxiliary cross-sectional image is calculated by the equation (3). Yes.
  • the auxiliary cross-sectional image I1 and the basic cross-sectional image I2 are both generated so that the center thereof is the left ventricular center C.
  • the circle mark corresponds to the left ventricular center C.
  • a circle mark corresponds to the left ventricular center C
  • a square mark corresponds to the mitral valve MV
  • a triangular mark corresponds to the apex CA.
  • the display control unit 133g intersects the dotted line connecting the square mark, the circle mark, and the triangle mark on the basic cross-sectional image I2, and the auxiliary cross-sectional image I1 on the basic cross-sectional image I2. The example which displays the dotted line which shows is shown.
  • the display control unit 133g synthesizes and displays the guide information L1 indicating the extending direction of the intersecting line on the auxiliary sectional image I1.
  • the guide information L1 indicates the extending direction of the intersecting line on the auxiliary sectional image I1, that is, the direction of the minor axis X on the auxiliary sectional image I1 in the first embodiment.
  • the display control unit 133g uses the auxiliary cross-sectional image as the short axis X on the auxiliary cross-sectional image I1 so that the guide information L1 is connected to the auxiliary cross-sectional image I1 and the basic cross-sectional image I2. It is displayed with a line extended further outside the range of I1.
  • the display control unit 133g displays the guide information L1 so as to connect the center point of the auxiliary sectional image I1 and the center point of the basic sectional image I2.
  • both cross-sectional images By arranging and displaying both cross-sectional images in this way, an operator who operates while looking at both cross-sectional images can continuously correct and confirm the basic cross-sectional position with little movement of the viewpoint. it can.
  • the display control unit 133g makes the distance between the display positions of both cross-sectional images as close as possible within a range where the cross-sectional images do not overlap (or within a range where the target region on each cross-sectional image does not overlap)
  • the movement of the operator's viewpoint is further reduced and more effective.
  • the operator can intuitively understand in which direction the short axis X of the basic cross-sectional position is set spatially by looking at this display.
  • the display control unit 133g may not display the marks indicating the left ventricular center C, the mitral valve MV, and the apex CA on each cross-sectional image.
  • the display control unit 133g may not display the two types of dotted lines shown on the basic cross-sectional image I2.
  • the display control unit 133g may omit the guide line L1.
  • the guide line L1 connects the center points of both cross-sectional images.
  • the embodiment is not limited to this, and the center point and a point other than the center point are connected. What connects and points other than a center point may be connected.
  • the display control unit 133g may change the vertical relationship of the display position between the auxiliary cross-sectional image I1 and the basic cross-sectional image I2.
  • the display control unit 133g may display the intersection line itself on the auxiliary sectional image I1 together with the guide information L1 or instead of the guide information L1. That is, the display control unit 133g can arbitrarily change the display, non-display, arrangement, and the like of various information.
  • the correction receiving unit 133h determines whether or not a correction instruction has been received from the operator (step S106-7).
  • the correction receiving unit 133h receives a correction instruction from the operator (step S106-7, Yes)
  • the basic cross-section position and the auxiliary cross-section position are corrected based on the correction instruction (step S106-7).
  • step S106-8 the process returns to step S106-4 again.
  • the correction receiving unit 133h does not receive a correction instruction from the operator (No at Step S106-7)
  • the processing by the cross-section position deriving unit 133a is finished, and the process proceeds to Step S107 shown in FIG. .
  • FIG. 8 is a diagram for explaining correction of the basic cross-sectional position and the auxiliary cross-sectional position in the first embodiment.
  • the direction of the short axis X of the four-chamber cross-sectional image that is the basic cross-sectional image passes through the corner of the right ventricle RV and the long axis Y on the left ventricular short-axis image that is the auxiliary cross-sectional image.
  • the operator rotates the short axis X about the long axis Y so that the short axis X of the four-chamber cross-sectional image passes through the corner of the right ventricle RV and the long axis Y on the left ventricular short axis image. Make a minor correction.
  • the operator moves the display position of the basic cross-sectional image I2 displayed on the display unit 135 via the mouse of the input unit 134.
  • the correction acceptance unit 133h accepts this as a display position change instruction, and sends the received change instruction to the intersection line calculation unit 133d or the cross-sectional image generation unit 133e.
  • the relationship between the intersection line information and the display position is known. Therefore, the intersection line calculation unit 133d recalculates the intersection line information corresponding to the minor axis X based on the display position after movement (the relative relationship between both cross-sectional images), and displays the calculated intersection line information.
  • the data is sent to the control unit 133g.
  • the cross-sectional image generation unit 133e newly calculates a parameter of the basic cross-sectional position based on the newly calculated intersection line information, and generates a basic cross-sectional image I2 from the volume data.
  • the display control unit 133g updates and displays the newly generated basic cross-sectional image I2 at the display position after movement, and the center point of the auxiliary cross-sectional image I1 and the center point of the basic cross-sectional image I2 after movement.
  • the guide information L1 is displayed so as to connect.
  • the operator moves the guide information L1 displayed on the display unit 135 via the mouse of the input unit 134.
  • the correction receiving unit 133h receives this as a cross line change instruction, and sends the received change instruction to the cross line calculation unit 133d or the cross-sectional image generation unit 133e.
  • the intersection line calculation unit 133d recalculates the intersection line information corresponding to the minor axis X based on the guide information L1 after movement, and sends the calculated intersection line information to the display position calculation unit 133f and the display control unit 133g. .
  • the display position calculation unit 133f calculates the display position of the basic cross-sectional image again so that the basic cross-sectional image is positioned in the extension direction of the calculated intersection line. Further, the cross-sectional image generation unit 133e newly calculates a parameter of the basic cross-sectional position based on the newly calculated intersection line information, and generates a basic cross-sectional image I2 from the volume data. In this way, the display control unit 133g updates and displays the newly generated basic cross-sectional image I2 at the display position after movement, and the center point of the auxiliary cross-sectional image I1 and the center point of the basic cross-sectional image I2 after movement. The guide information L1 is displayed so as to connect.
  • the correction receiving unit 133h moves the intersection line by the operator as it is. May be accepted as a change instruction.
  • the display control unit 133g updates and displays the newly generated basic cross-sectional image I2 at the display position calculated according to the cross line change instruction, and displays the changed cross line on the auxiliary cross-sectional image I1. Is displayed.
  • the operator can appropriately set the basic cross-sectional position while performing a fine correction of rotating the short axis X about the long axis Y.
  • the correction of the basic sectional position and the auxiliary sectional position is not limited to the above-described embodiment.
  • the method of moving the basic cross-sectional image I2 and updating the moved basic cross-sectional image I2 side has been described, but the embodiment is not limited thereto.
  • an instruction to change the display position on the auxiliary sectional image I1 side may be received to update the basic sectional image I2 side.
  • the display control unit 133g accumulates and displays the basic cross-sectional images I2 according to the instructions of the operator (continuously displays the basic cross-sectional images I2 before movement), and displays a plurality of basic cross-sectional images I2 side by side. May be.
  • the display control unit 133g accumulates and displays the basic cross-sectional images I2 according to the instructions of the operator (continuously displays the basic cross-sectional images I2 before movement), and displays a plurality of basic cross-sectional images I2 side by side. May be.
  • the auxiliary cross-sectional image side can be updated, Both cross-sectional images may be updated.
  • the basic cross-sectional image can be positioned easily. Since the basic cross-sectional image is positioned in the extension direction of the intersection line in the auxiliary cross-sectional image, an operator who operates while looking at both cross-sectional images continuously corrects and confirms the basic cross-sectional position with little movement of the viewpoint. Can be done. Further, according to the first embodiment, a guide line connecting both cross-sectional images is also displayed in a synthesized manner. Since this guide line indicates a crossing line on the auxiliary cross-sectional image, the operator can intuitively understand in which direction the short axis X of the basic cross-sectional position is set spatially. Moreover, since the guide line connects both cross-sectional images, the operator can move the viewpoint along the guide line.
  • the operator can confirm a new basic cross-sectional image in which the basic cross-sectional position is changed only by performing an operation of moving the display position of the basic cross-sectional image or the guide line. it can. Further, according to the first embodiment, only the basic cross-sectional image side moved by the operator is updated, so that a GUI that is easy for the operator to understand can be provided.
  • FIG. 9 is a diagram for explaining another display example 1 of the first embodiment.
  • the display control unit 133g displays one auxiliary sectional image I1 and one basic sectional image I2
  • the embodiment is not limited thereto.
  • the display control unit 133g may display a plurality of basic cross-sectional images I2 to I4 with respect to one auxiliary cross-sectional image I1, arranged in the extending direction of the intersection line.
  • FIG. 10 is a diagram for explaining another display example 2 of the first embodiment.
  • the display control unit 133g may display a plurality of basic cross-sectional images obtained by rotating the short axis X about the long axis Y, arranged around the entire auxiliary cross-sectional image.
  • “sax” means the left ventricular short-axis image.
  • numbers such as “270” indicate the angle of the minor axis X.
  • a dotted line that is radially connected to the basic cross-sectional image from the center of the auxiliary cross-sectional image is a guide line.
  • a solid line in the horizontal direction drawn on each basic cross-sectional image indicates an intersection line on the basic cross-sectional image.
  • the display control unit 133g receives an instruction from the operator to display a basic cross-sectional image for the entire circumference every “30 °”, and performs the display as shown in FIG. 10 according to the instruction.
  • a plurality of auxiliary cross-sectional images may be arranged and displayed around the entire circumference of one basic cross-sectional image.
  • FIG. 11 is a diagram for explaining another display example 3 of the first embodiment.
  • the display control unit 133g may display a plurality of auxiliary sectional images I6 to I8 for one basic sectional image I5.
  • the display control unit 133g synthesizes and displays a guide line that connects each of the center points of the auxiliary sectional images I6 to I8 and the center point of the basic sectional image I5 in a straight line. .
  • FIG. 12 is a diagram for explaining another display example 4 of the first embodiment.
  • the display control unit 133g may display a plurality of types of basic cross-sectional images for one auxiliary cross-sectional image.
  • “sax” means the left ventricular short-axis image
  • “ver” means the vertical long-axis image
  • “hor” is the horizontal long-axis image.
  • “4ch” is a four-chamber cross-sectional image
  • “2ch” is a two-chamber cross-sectional image
  • “3ch” is a three-chamber cross-sectional image.
  • a plurality of types of basic cross-sectional images are displayed around a left ventricular short-axis image that is an auxiliary cross-sectional image.
  • the display control unit 133g displays “ver”, “hor”, “sax”, “4ch”, “2ch”, and “3ch” push buttons on the GUI. May be.
  • the display control unit 133g can switch display / non-display of the corresponding type of cross-sectional image depending on whether or not the push button is pressed by the operator. Since the display area on the GUI is limited, the operator can display a cross-sectional image while appropriately switching between display and non-display.
  • the display control unit 133g displays the display order of the cross-sectional images (for example, when a plurality of cross-sectional images are overlapped, depending on whether the press button is pressed by the operator) Display order) may be switched.
  • any of the various display examples described above can be displayed in color so that the display can be made more visually understandable.
  • the display control unit 133g matches the color of the frame of the auxiliary cross-sectional image “sax” with the color of the intersecting line on each basic cross-sectional image (for example, “light blue”). By making them match, the operator can intuitively understand the relationship between the two.
  • the display control unit 133 displays the color of the mitral valve MV (for example, “red”), the color of the left ventricular center C (for example, “green”), and the color of the apex CA (for example, “yellow” ]) May be displayed separately.
  • the color selection can be arbitrarily changed.
  • the display control unit 133g matches the color of the push button for designating the type of the cross-sectional image with the color of the frame of each cross-sectional image. For example, the display control unit 133g displays “ver”, “hor”, “sax”, “4ch”, “2ch”, and “3ch”, “light yellow”, “pink”, “light blue”, “light blue”, “ Displayed in “red”, “green”, and “yellow”, and the frame of each corresponding cross-sectional image is displayed in a corresponding color. In this case, the display control unit 133g may also display the guide line connected to each cross-sectional image with a corresponding color. The color selection can be arbitrarily changed.
  • FIG. 13A and FIG. 13B are diagrams for explaining display examples in other embodiments.
  • the display control unit 133g may arrange and display a plurality of cross-sectional images so as to intersect three-dimensionally. Also in this case, the display control unit 133g displays the two cross-sectional images on the display unit 135 by arranging the two cross-sectional images at display positions where a relative relationship is determined according to the crossing position of the two cross-sectional images.
  • the cross-sectional image generation unit 133e calculates a cross-sectional position based on the intersection line information, and generates a cross-sectional image from the volume data.
  • the display control unit 133g displays a corresponding cross-sectional image according to the intersection line information of both cross-sectional images.
  • the cross-sectional image generation unit 133e generates at least one cross-sectional image according to a change in the relative relationship between the display positions at which both cross-sectional images are displayed (for example, according to a change from FIG. 13A to FIG. 13B). Regenerate from volume data. Then, the display control unit 133g replaces and displays at least one of the cross-sectional images with the re-generated cross-sectional image.
  • the example in which the basic cross-sectional image is arranged in the extension direction of the intersecting line in the auxiliary cross-sectional image has been described, but the embodiment is not limited thereto.
  • the cross-sectional images may be displayed in a horizontal row.
  • the display control unit 133g synthesizes and displays the guide lines that connect the plurality of intersecting lines displayed on the auxiliary sectional images and the basic sectional images corresponding to the intersecting lines. The operator can find a basic cross-sectional image corresponding to the intersection line by moving the viewpoint along the guide line.
  • FIG. 14 is a diagram for explaining a display example in another embodiment. So far, as a display example of the basic cross-sectional image and the auxiliary cross-sectional image, a method has been described in which these cross-sectional images are displayed during the preparation scan and the correction of the basic cross-sectional position and the auxiliary cross-sectional position is accepted. However, the embodiment is not limited to this.
  • the display examples described so far (for example, FIGS. 7 to 13 and the like) can be applied as display examples after the imaging scan.
  • the display control unit 133g When displaying the basic cross-sectional image collected by the imaging scan after the imaging scan, the display control unit 133g displays the display position of the basic cross-sectional image and the auxiliary cross-sectional image intersecting with the basic cross-sectional image, and the crossing position of both cross-sectional images. Change in conjunction with. For example, when an imaging scan is performed and a basic cross-sectional image is generated, the display control unit 133g uses the basic cross-sectional image collected by the imaging scan as the crossing line extending direction in the auxiliary cross-sectional image collected by the preparation scan. Position and display. For example, after performing an imaging scan, if the basic cross-section position is readjusted and the imaging scan is performed again, and the basic cross-sectional image is collected again, it is effective to display the image in the form described above after the imaging scan. It is.
  • a cine imaging (continuous time-series imaging) of a basic cross-sectional image is performed by an imaging scan.
  • the display control unit 133g uses a plurality (or a plurality of types) of basic (or multiple types) collected by the imaging scan for the auxiliary sectional image I11 calculated from the volume data collected by the preparation scan.
  • the cross-sectional images I12 to I14 are arranged and displayed in the extending direction of the intersecting line.
  • the display control unit 133g displays the auxiliary sectional image I11 as a still image and displays the basic sectional images I12 to I14 as cine (moving image display).
  • the display control unit 133g can also reproduce the basic cross-sectional images I12 to I14 by synchronizing the cardiac phase between the basic cross-sectional images when performing cine display.
  • the display control unit 133g aligns the reproduction start timing of each basic cross-sectional image, thereby obtaining the basic cross-sectional images.
  • the heart phase can be synchronized and reproduced.
  • each electrocardiogram (ECG) information is attached to each cross-sectional image collected by cine imaging under electrocardiographic synchronization, even when the number of phases differs between basic cross-sectional images, the display control unit 133g. Can be reproduced by synchronizing the cardiac phase between the basic cross-sectional images using, for example, the accompanying electrocardiographic information.
  • the operator checks the basic cross-sectional images I12 to I14 that are actually collected and displayed in cine, and displays the display position of the basic cross-sectional image I13 via the mouse of the input unit 134 as shown in FIG. (Or guide information) is moved. Then, the intersection line calculation unit 133d recalculates the intersection line information based on the moving (or after movement) display position, and the cross-sectional image generation unit 133e performs basic calculation based on the newly calculated intersection line information. The parameter of the cross-sectional position is calculated again, and the basic cross-sectional image I13 is generated “from the volume data collected in the preparation scan”.
  • this basic cross-sectional image I13 is generated from the volume data collected in the preparation scan, it is displayed as a still image instead of a cine display. For example, when the operator confirms the cine display of the basic cross-sectional image I13 and thinks that it is better to re-take the photo by correcting the basic cross-sectional position, the basic cross-sectional image actually collected in such a GUI is used. A method for displaying the basic cross-sectional image after correcting the basic cross-sectional position is effective. In addition, operability is improved by using the same GUI for the preparation scan and the imaging scan.
  • FIG. 14 also shows a method for changing the display size of the cross-sectional image during movement of the basic cross-sectional image I13. Since the display area of the GUI is limited, the display size of one cross-sectional image becomes smaller as the number of cross-sectional images displayed on the GUI increases. Therefore, the display control unit 133g is configured so that the display size of the cross-sectional image that the operator will focus on among the plurality of cross-sectional images being displayed is relatively larger than the other cross-sectional images. Adjust the display size of the cross-sectional image. For example, as shown in FIG.
  • the display control unit 133g enlarges the display size of the basic cross-sectional image I13 whose display position is being moved by the operation of the operator (basic cross-sectional image I15 in FIG. 14) and displays it.
  • the display control unit 133g displays the other basic cross-sectional image I12 and the basic cross-sectional image I14 with a reduced display size.
  • the display control unit 133g does not change the display size of the auxiliary cross-sectional image I11.
  • the display control unit 133g returns to the original display size and displays it.
  • the display control unit 133g is configured such that at least one of the cross-sectional image being operated and the cross-sectional image related to the cross-sectional image being operated (for example, the cross-sectional image intersecting the cross-sectional image being operated) has a different cross-sectional size. What is necessary is just to adjust the display size of each cross-sectional image so that it may become relatively large compared with an image.
  • the auxiliary cross-sectional image I11 is displayed as a still image, and the basic cross-sectional images I12 to I14 are displayed as cine (moving image display).
  • the embodiment is not limited thereto.
  • the display control unit 133g can display the basic cross-sectional images I12 to I14 as well as the auxiliary cross-sectional image I11. Displaying both the auxiliary sectional image and the basic sectional image in cine is effective for readjustment of the basic sectional position.
  • the display control unit 133g can also reproduce the basic cross-sectional images I12 to I14 and the auxiliary cross-sectional image I11 by synchronizing the cardiac phases between the cross-sectional images when performing cine display.
  • the change in the display size described above is not limited to the display after the imaging scan, and the same applies to other display examples (for example, FIGS. 7 to 13) described in the above-described embodiment. be able to.
  • the display control unit 133g displays at least one of the cross-sectional image being operated and the cross-sectional image related to the cross-sectional image being operated, and the other cross-sectional image. You may control so that it is not displayed. In this case, for example, the display control unit 133g displays another cross-sectional image that has been controlled to be non-displayed at the end of the operation.
  • the control unit 133 may derive other imaging ranges from the three-dimensional MR data collected in step S104.
  • the control unit 133 detects a rectangular parallelepiped region circumscribing the subject P from the three-dimensional MR data collected in step S104, and derives a range wider than the rectangular parallelepiped region as an imaging range of sensitivity map imaging. Also good.
  • control unit 133 detects a rectangular parallelepiped region circumscribing the heart from the three-dimensional MR data collected in step S104, and derives a predetermined range including the rectangular parallelepiped region as an imaging range of shimming imaging. Good.
  • the “heart” has been described as an example of the target site.
  • the embodiment is not limited to this, and the same applies to imaging of other target sites. can do.
  • the present invention can be similarly applied to imaging of joints such as “shoulder” and “knee”.
  • an imaging position of an oblique coronal sectional image parallel to the scapula or an oblique sagittal sectional image orthogonal to the scapula may be positioned on the axial sectional image for positioning. is there.
  • the MRI apparatus 100 generates an axial sectional image, an oblique coronal sectional image and an oblique sagittal sectional image intersecting the axial sectional image from the volume data collected for positioning. Further, the MRI apparatus 100 displays the oblique coronal cross-sectional image in the extension direction of the cross line with the oblique coronal cross-sectional image in the axial cross-sectional image, and displays the cross line with the oblique sagittal cross-sectional image in the axial cross-sectional image. An oblique sagittal cross-sectional image is arranged and displayed in the extending direction.
  • the MRI apparatus 100 can change at least one of the cross-sectional images (for example, the oblique position) according to a change in the relative relationship between the display positions of the two cross-sectional images (for example, the axial cross-sectional image and the oblique coronal cross-sectional image). Update the coronal image.
  • the cross-sectional images for example, the oblique position
  • the relative relationship between the display positions of the two cross-sectional images for example, the axial cross-sectional image and the oblique coronal cross-sectional image.
  • the MRI apparatus 100 has been described as an example, but the embodiment is not limited thereto.
  • the above-described processes can be similarly applied to a medical image diagnostic apparatus such as an X-ray CT apparatus or an ultrasonic diagnostic apparatus.
  • the X-ray CT apparatus may apply MPR as post-processing for collected volume data to generate and display a desired cross-sectional image.
  • the X-ray CT apparatus displays a plurality of cross-sectional images intersecting each other at display positions where relative relations are determined according to the crossing positions of both cross-sectional images, and displayed on the display unit. Can do.
  • image processing system In the above-described embodiment, the case where the medical image diagnostic apparatus executes various processes has been described, but the embodiment is not limited thereto.
  • an image processing system including a medical image diagnostic apparatus and an image processing apparatus may execute the various processes described above.
  • the image processing device is, for example, a workstation, an image storage device (image server) of a PACS (Picture Archiving and Communication System), a viewer, various devices of an electronic medical record system, or the like.
  • the medical image diagnostic apparatus collects raw data such as MR data and projection data, and volume data.
  • the image processing apparatus receives the raw data and volume data collected by the medical image diagnostic apparatus from the medical image diagnostic apparatus or from the image server via the network, or via the recording medium. Is received and stored in the storage unit. Then, the image processing apparatus may perform the above-described various processes (for example, processes by the image generation unit 136 and the cross-section position deriving unit 133a) for the raw data and volume data stored in the storage unit. Information such as the cross-sectional position derived by the image processing apparatus is input to the medical image diagnostic apparatus again as necessary, and is used in subsequent imaging scans and the like.
  • the instructions shown in the processing procedures shown in the above-described embodiments can be executed based on a program that is software.
  • the general-purpose computer stores this program in advance and reads this program, so that the same effect as that obtained by the MRI apparatus 100 of the above-described embodiment can be obtained.
  • the instructions described in the above-described embodiments are, as programs that can be executed by a computer, magnetic disks (flexible disks, hard disks, etc.), optical disks (CD-ROM, CD-R, CD-RW, DVD-ROM, DVD). ⁇ R, DVD ⁇ RW, etc.), semiconductor memory, or a similar recording medium.
  • the storage format may be any form.
  • the computer reads the program from the recording medium and causes the CPU to execute instructions described in the program based on the program, the same operation as the MRI apparatus 100 of the above-described embodiment can be realized. Further, when the computer acquires or reads the program, it may be acquired or read through a network.
  • an OS Operating System
  • MW Mobile Network
  • the storage medium is not limited to a medium independent of a computer or an embedded system, but also includes a storage medium in which a program transmitted via a LAN (Local Area Network) or the Internet is downloaded and stored or temporarily stored.
  • the number of storage media is not limited to one, and the processing in the embodiment described above is executed from a plurality of media, and the configuration of the medium may be any configuration included in the storage medium in the embodiment. .
  • the computer or the embedded system in the embodiment is for executing each process in the above-described embodiment based on a program stored in a storage medium, and includes a single device such as a personal computer or a microcomputer.
  • the system may be any configuration such as a system connected to the network.
  • the computer in the embodiment is not limited to a personal computer, and includes an arithmetic processing device, a microcomputer, and the like included in an information processing device, and is a generic term for devices and devices that can realize the functions in the embodiment by a program. .
  • FIG. 15 is a diagram illustrating a hardware configuration of the image processing apparatus according to the embodiment.
  • the image processing apparatus according to the embodiment described above is connected to a control device such as a CPU (Central Processing Unit) 210, a storage device such as a ROM (Read Only Memory) 220 and a RAM (Random Access Memory) 230, and a network.
  • a control device such as a CPU (Central Processing Unit) 210, a storage device such as a ROM (Read Only Memory) 220 and a RAM (Random Access Memory) 230, and a network.
  • a communication I / F 240 that performs communication and a bus 201 that connects each unit are provided.
  • the program executed by the image processing apparatus according to the above-described embodiment is provided by being incorporated in advance in the ROM 220 or the like. Further, the program executed by the image processing apparatus according to the above-described embodiment may cause the computer to function as each part (for example, the cross-sectional position deriving unit 133a) of the above-described image processing apparatus.
  • the CPU 210 can read and execute a program from a computer-readable storage medium onto a main storage device.
  • the setting of the cross-sectional image can be performed appropriately.

Abstract

 実施形態に係る画像処理装置(130)は、生成部(133a、133e)と、表示制御部(133a、133g)とを備える。前記生成部(133a、133e)は、第1の断面像と、前記第1の断面像と交差する第2の断面像とを、3次元の医用画像データから生成する。前記表示制御部(133a、133g)は、前記第1の断面像及び前記第2の断面像の表示部(135)における表示位置と、両断面像の交差位置とを連動させて変更する。

Description

画像処理装置、磁気共鳴イメージング装置及び画像処理方法
 本発明の実施形態は、画像処理装置、磁気共鳴イメージング装置及び画像処理方法に関する。
 従来、磁気共鳴イメージング装置やX線CT(Computed Tomography)装置、超音波診断装置等の医用画像診断装置による撮像では、対象部位の撮像を行って3次元のデータを収集し、収集したデータから断面像を生成する場合がある。
 例えば、心臓の撮像では、垂直長軸像、水平長軸像、二腔(2chamber)断面像、三腔(3chamber)断面像、四腔(4chamber)断面像等の「基本断面像」が診断に用いられる。この基本断面像の撮像位置を適切に設定するために、例えば、医用画像診断装置は、診断用の画像を収集するイメージングスキャンの前に3次元のデータを収集し、収集した3次元のデータから、「基本断面像」と、基本断面像の設定に用いられる「補助断面像」とを生成する。そして、医用画像診断装置は、これらの断面像を表示部に表示し、操作者から修正や確認等の操作を受け付けることで、「基本断面像」の撮像位置を設定する。
特開2002-140689号公報 特許第4018303号
 本発明が解決しようとする課題は、断面像の設定を適切に行うことができる画像処理装置、磁気共鳴イメージング装置及び画像処理方法を提供することである。
 実施形態に係る画像処理装置は、生成部と、表示制御部とを備える。前記生成部は、第1の断面像と、前記第1の断面像と交差する第2の断面像とを、3次元の医用画像データから生成する。前記表示制御部は、前記第1の断面像及び前記第2の断面像の表示部における表示位置と、両断面像の交差位置とを連動させて変更する。
図1は、第1の実施形態に係るMRI装置の構成を示す機能ブロック図。 図2は、第1の実施形態における基本断面像を説明するための図。 図3は、第1の実施形態における補助断面像を説明するための図。 図4は、第1の実施形態における全体の処理手順を示すフローチャート。 図5は、第1の実施形態に係る断面位置導出部の構成を示す機能ブロック図。 図6は、第1の実施形態における基本断面位置導出処理の処理手順を示すフローチャート。 図7は、第1の実施形態における断面像の表示例を説明するための図。 図8は、第1の実施形態における基本断面位置や補助断面位置の修正を説明するための図。 図9は、第1の実施形態の他の表示例1を説明するための図。 図10は、第1の実施形態の他の表示例2を説明するための図。 図11は、第1の実施形態の他の表示例3を説明するための図。 図12は、第1の実施形態の他の表示例4を説明するための図。 図13Aは、その他の実施形態における表示例を説明するための図。 図13Bは、その他の実施形態における表示例を説明するための図。 図14は、その他の実施形態における表示例を説明するための図。 図15は、実施形態に係る画像処理装置のハードウェア構成を示す図。
 以下、図面を参照しながら、実施形態に係る画像処理装置、磁気共鳴イメージング装置(以下、適宜「MRI(Magnetic Resonance Imaging)装置」)及び画像処理方法を説明する。なお、実施形態は、以下の実施形態に限られるものではない。また、各実施形態において説明する内容は、原則として、他の実施形態においても同様に適用することができる。
(第1の実施形態)
 図1は、第1の実施形態に係るMRI装置100の構成を示す機能ブロック図である。図1に示すように、MRI装置100は、静磁場磁石101と、静磁場電源102と、傾斜磁場コイル103と、傾斜磁場電源104と、寝台105と、寝台制御部106と、送信コイル107と、送信部108と、受信コイル109と、受信部110と、シーケンス制御部120と、計算機130(「画像処理装置」とも称される)とを備える。なお、MRI装置100に、被検体P(例えば、人体)は含まれない。また、図1に示す構成は一例に過ぎない。例えば、シーケンス制御部120及び計算機130内の各部は、適宜統合若しくは分離して構成されてもよい。
 静磁場磁石101は、中空の円筒形状に形成された磁石であり、内部の空間に静磁場を発生する。静磁場磁石101は、例えば、超伝導磁石等であり、静磁場電源102から電流の供給を受けて励磁する。静磁場電源102は、静磁場磁石101に電流を供給する。なお、静磁場磁石101は、永久磁石でもよく、この場合、MRI装置100は、静磁場電源102を備えなくてもよい。また、静磁場電源102は、MRI装置100とは別に備えられてもよい。
 傾斜磁場コイル103は、中空の円筒形状に形成されたコイルであり、静磁場磁石101の内側に配置される。傾斜磁場コイル103は、互いに直交するX、Y、及びZの各軸に対応する3つのコイルが組み合わされて形成されており、これら3つのコイルは、傾斜磁場電源104から個別に電流の供給を受けて、X、Y、及びZの各軸に沿って磁場強度が変化する傾斜磁場を発生する。傾斜磁場コイル103によって発生するX、Y、及びZの各軸の傾斜磁場は、例えば、スライス用傾斜磁場Gs、位相エンコード用傾斜磁場Ge、及び読み出し用傾斜磁場Grである。傾斜磁場電源104は、傾斜磁場コイル103に電流を供給する。
 寝台105は、被検体Pが載置される天板105aを備え、寝台制御部106による制御の下、天板105aを、被検体Pが載置された状態で、傾斜磁場コイル103の空洞(撮像口)内へ挿入する。通常、寝台105は、長手方向が静磁場磁石101の中心軸と平行になるように設置される。寝台制御部106は、計算機130による制御の下、寝台105を駆動して天板105aを長手方向及び上下方向へ移動する。
 送信コイル107は、傾斜磁場コイル103の内側に配置され、送信部108からRFパルスの供給を受けて、高周波磁場を発生する。送信部108は、対象とする原子の種類及び磁場強度で定まるラーモア(Larmor)周波数に対応するRF(Radio Frequency)パルスを送信コイル107に供給する。
 受信コイル109は、傾斜磁場コイル103の内側に配置され、高周波磁場の影響によって被検体Pから発せられる磁気共鳴信号(以下、適宜「MR信号」)を受信する。受信コイル109は、MR信号を受信すると、受信したMR信号を受信部110へ出力する。
 なお、上述した送信コイル107及び受信コイル109は一例に過ぎない。送信機能のみを備えたコイル、受信機能のみを備えたコイル、若しくは送受信機能を備えたコイルのうち、1つ若しくは複数を組み合わせることによって構成されればよい。
 受信部110は、受信コイル109から出力されるMR信号を検出し、検出したMR信号に基づいてMRデータを生成する。具体的には、受信部110は、受信コイル109から出力されるMR信号をデジタル変換することによってMRデータを生成する。また、受信部110は、生成したMRデータをシーケンス制御部120へ送信する。なお、受信部110は、静磁場磁石101や傾斜磁場コイル103等を備える架台装置側に備えられてもよい。
 シーケンス制御部120は、計算機130から送信されるシーケンス情報に基づいて、傾斜磁場電源104、送信部108及び受信部110を駆動することによって、被検体Pの撮像を行う。ここで、シーケンス情報は、撮像を行うための手順を定義した情報である。シーケンス情報には、傾斜磁場電源104が傾斜磁場コイル103に供給する電流の強さや電流を供給するタイミング、送信部108が送信コイル107に供給するRFパルスの強さやRFパルスを印加するタイミング、受信部110がMR信号を検出するタイミング等が定義される。例えば、シーケンス制御部120は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路である。
 なお、シーケンス制御部120は、傾斜磁場電源104、送信部108及び受信部110を駆動して被検体Pを撮像した結果、受信部110からMRデータを受信すると、受信したMRデータを計算機130へ転送する。
 計算機130は、MRI装置100の全体制御や、画像の生成等を行う。計算機130は、インタフェース部131、記憶部132、制御部133、入力部134、表示部135、及び画像生成部136を備える。また、制御部133は、断面位置導出部133aを備える。
 インタフェース部131は、シーケンス情報をシーケンス制御部120へ送信し、シーケンス制御部120からMRデータを受信する。また、インタフェース部131は、MRデータを受信すると、受信したMRデータを記憶部132に格納する。記憶部132に格納されたMRデータは、制御部133によってk空間に配置される。この結果、記憶部132は、k空間データを記憶する。
 記憶部132は、インタフェース部131によって受信されたMRデータや、制御部133によってk空間に配置されたk空間データ、画像生成部136によって生成された画像データ等を記憶する。例えば、記憶部132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。
 入力部134は、操作者からの各種指示や情報入力を受け付ける。入力部134は、例えば、マウスやトラックボール等のポインティングデバイス、モード切替スイッチ等の選択デバイス、あるいはキーボード等の入力デバイスである。表示部135は、制御部133による制御の下、撮像条件の入力を受け付けるためのGUI(Graphical User Interface)や、画像生成部136によって生成された画像等を表示する。表示部135は、例えば、液晶表示器等の表示デバイスである。
 制御部133は、MRI装置100の全体制御を行い、撮像や画像の生成、画像の表示等を制御する。例えば、制御部133は、撮像条件(撮像パラメータ等)の入力をGUI上で受け付け、受け付けた撮像条件に従ってシーケンス情報を生成する。また、制御部133は、生成したシーケンス情報をシーケンス制御部120へ送信する。例えば、制御部133は、ASIC、FPGA等の集積回路、CPU、MPU等の電子回路である。なお、断面位置導出部133aによる処理の詳細は、後述する。
 画像生成部136は、k空間データを記憶部132から読み出し、読み出したk空間データにフーリエ変換等の再構成処理を施すことで、画像を生成する。
 図2は、第1の実施形態における基本断面像を説明するための図であり、図3は、第1の実施形態における補助断面像を説明するための図である。なお、第1の実施形態においては、対象部位として「心臓」、基本断面像として「四腔断面像」、補助断面像として「左室短軸像」を例に挙げて説明する。なお、基本断面像は、「四腔断面像」に限られるものではなく、診断に用いられる所望の部位を含むように設定された断面像であればよい。例えば、基本断面像は、垂直長軸像、水平長軸像、二腔断面像、三腔断面像等の長軸像や、左室短軸像等でもよい。また、同様に、補助断面像は、「左室短軸像」に限られるものではなく、基本断面像と交差する断面像であればよい。
 図2(a)は、四腔断面像I10の解剖学的な位置付けを示し、図2(b)は、四腔断面像I10の例を示す。図2(b)に示すように、四腔断面像I10は、4つの腔(左心室LV(left ventricle)、左心房LA(left atrium)、右心室RV(right ventricle)、及び右心房RA(right atrium))の全てを観察できる断面像である。また、四腔断面像I10は、心臓の特徴部位である僧帽弁MV(mitral valve)及び心尖部CA(cardiac apex)を通る断面像である。図2(b)に示すCは、「左室中心」と呼ばれる部位であり、僧房弁MVと心尖部CAとの中点に位置する。左室中心Cから心尖部CAへと向かうベクトルを「長軸Y」と呼び、四腔断面像I10上で長軸Yと直交するベクトルを「短軸X」と呼ぶ。
 図3(a)は、左室短軸像I20の解剖学的な位置付けを示し、図3(b)は、左室短軸像I20の例を示す。図2及び図3から分かるように、左室短軸像I20は、長軸Yに対して直交する断面像である。
 次に、図4は、第1の実施形態における全体の処理手順を示すフローチャートである。
 まず、制御部133が、操作者による撮像条件の入力を、入力部134を介してGUI上で受け付け、受け付けた撮像条件に従ってシーケンス情報を生成する(ステップS101)。例えば、制御部133は、GUIとして、人体模型図上で撮像部位毎の選択を受け付ける領域や、一群のプロトコル(パルスシーケンス)の総称を表示する領域、各総称に含まれるプロトコルの一覧を表示する領域を含む画面を表示する。このようなGUI上で、例えば、操作者は、各領域の階層構造に従って、人体模型図上で「心臓」を選択し、次に、総称として「Heart(4chamber)」を選択する。続いて、操作者は、プロトコルの一覧の中から、各種準備スキャンのプロトコル(例えば、位置決め用の画像データを収集するための準備スキャンのプロトコル)や、イメージングスキャンのプロトコルを選択する。
 次に、被検体Pに受信コイル109が装着され、被検体Pが寝台105の天板105a上に載置され、受信コイル109がMRI装置100に電気的に接続される(ステップS102)。例えば、受信コイル109は、複数のコイルエレメントを有するボディコイルである。
 続いて、寝台制御部106が、寝台105を移動する(ステップS103)。具体的には、寝台制御部106が、天板105aを所定位置に移動させると、投光器(図示を省略)の光が被検体Pに当てられる。操作者は、この投光器の光が、撮像部位である心臓に当てられたタイミングで、入力部134を介して、撮像部位の位置の指定を入力する。すると、寝台制御部106は、指定された撮像部位が磁場中心に位置付けられるように、天板105aを移動させる。
 そして、シーケンス制御部120が、シーケンス情報に基づきパルスシーケンスの実行を制御することによって、心臓を含む範囲の3次元のMRデータを収集する(ステップS104)。この収集においては、通常、被検体Pが息止めしている状態で、比較的広範囲の撮像範囲全体のMRデータが収集される。このため、シーケンス制御部120は、高速且つ低分解能の収集を実現する撮像パラメータ(フリップ角、スライス厚、位相エンコード数等)に従って、3次元のMRデータを高速に収集する。例えば、シーケンス制御部120は、GE(Gradient Echo)系のパルスシーケンスを用いてMRデータを収集する。GE系のパルスシーケンスは、小さなフリップ角の励起パルス及び傾斜磁場パルスを印加する手法であるので、SE(Spin Echo)系のパルスシーケンスに比較して、TR(Repetition Time)が短い。例えば、シーケンス制御部120は、3D FFE(Fast Field Echo)を用いて、MRデータを収集する。
 なお、3次元のMRデータを収集するパルスシーケンスは、3D FFEに限られるものではない。シーケンス制御部120は、3次元のMRデータを収集する場合に、パルスシーケンスとして、例えば、3D SSFP(Steady-State Free Precession)や、3D FASE(Fast Asymmetric Spin Echo)を用いてもよい。また、例えば、シーケンス制御部120は、2D FFE、2D SSFP、2D FASEを用いたマルチスライス撮像によって、3次元のMRデータを収集してもよい。また、例えば、シーケンス制御部120は、これらのパルスシーケンスの実行に先行して、T2プリパレーション(preparation)パルスを印加するパルスシーケンスを付加してもよい。T2プリパレーションパルスを印加することで、画像のコントラストを強調することができる。
 また、例えば、シーケンス制御部120は、磁場中心を中心に、被検体Pの頭足方向、左右方向、及び背腹方向、それぞれ25cm以上の撮像範囲で3次元のMRデータを収集する。第1の実施形態において、3次元のMRデータは、他のスキャンに先立って収集されるので、被検体Pの心臓が3次元のMRデータ内のどの位置にどの大きさで入るかは不明であり、ある程度撮像範囲を大きく設定する必要がある。この点、心臓の大きさは頭足方向が13cm程度であると考えられるので、第1の実施形態においては、その倍程度の25cm以上とした。なお、被検体Pが小児の場合には、心臓の大きさも小さくなると考えられるので、例えば、20cm以上としてもよい。なお、撮像範囲の大きさは任意に変更することができる。例えば、シーケンス制御部120は、MRI装置100として設定可能な最大FOV(Field Of View)(例えば、静磁場強度の均一性を担保可能な範囲)で3次元のMRデータを収集してもよい。
 このように収集された3次元のMRデータは、第1の実施形態において、後続の準備スキャンにおける撮像範囲を導出するために用いられる。具体的には、マルチスライス像を収集するための準備スキャンにおける撮像範囲を導出するために用いられる。なお、第1の実施形態において、マルチスライス像は、イメージングスキャンで収集される基本断面像の撮像位置(以下、適宜「基本断面位置」)を導出するための「位置決め用のデータ」として用いられる。また、ステップS104で収集される3次元のMRデータと、後続の準備スキャンで収集されるマルチスライス像とを比較した場合、通常、マルチスライス像の方が、前者の3次元のMRデータよりも高い空間分解能で収集される。
 続いて、図4に示すように、シーケンス制御部120が、各種準備スキャンを実行する(ステップS105)。マルチスライス像を収集するための準備スキャンについて説明すると、例えば、まず、制御部133が、ステップS104で収集された3次元のMRデータに対して、テンプレートマッチングや、識別器を用いたパターン認識等の画像処理技術を適宜適用することで、心臓の上端位置及び下端位置を検出する。次に、制御部133は、心臓の上端位置及び下端位置を含む所定範囲、すなわち、心臓の上端位置から頭方向に所定のオフセットを取った位置と、心臓の下端位置から足方向に所定のオフセットを取った位置とを、スライス方向の撮像範囲として導出する。なお、制御部133は、左右方向及び背腹方向の撮像範囲については、例えば、少なくとも心臓が含まれる範囲となるように予め定めた固定の値を用いる。また、制御部133は、確認画面を表示部135に表示して、操作者による確認や修正を受け付けてから撮像範囲を決定してもよい。また、オフセットの長さには、固定の値、可変の値、操作者から受け付けた値等を任意に設定することができる。
 そして、シーケンス制御部120は、制御部133によって導出された撮像範囲に従い、例えば、2D FFEや2D SSFP、2D FASEを用いて、マルチスライス像のMRデータを収集する。この収集においては、心臓の断面像を特定できるような高分解能でMRデータが収集される。このため、シーケンス制御部120は、高分解能の収集を実現する撮像パラメータ(フリップ角、スライス厚、スライスピッチ、位相エンコード数等)に従って、マルチスライス像のMRデータを収集する。その後、画像生成部136が、収集されたMRデータから被検体Pの体軸方向に沿った複数のアキシャル断面像を再構成することで、ボリュームデータを生成する。例えば、ボリュームデータは、画像生成部136によって再構成された20枚のアキシャル断面像群である。なお、画像生成部136は、再構成後のボリュームデータに対して、等方化処理(x、y、zの3方向がそれぞれ等距離間隔となるように行う補間処理)を施した上で、後段の処理にボリュームデータとして提供してもよい。あるいは、画像生成部136は、等方化処理を施さないボリュームデータを後段の処理に提供してもよい。
 また、シーケンス制御部120は、その他の準備スキャンを実行する。例えば、シーケンス制御部120は、各コイルエレメント(若しくはチャネル)の配列方向の感度を示すプロファイルデータを収集するための準備スキャン、各コイルエレメント(若しくはチャネル)の感度分布を示す感度マップを収集するための準備スキャン、RFパルスの中心周波数を求めるためのスペクトラムデータを収集するための準備スキャン、静磁場の均一性を調整するために補正コイル(図示を省略)に流す電流値を求めるための準備スキャン等を実行する。
 続いて、断面位置導出部133aが、ステップS105で生成されたボリュームデータを用いて、イメージングスキャンで収集される基本断面像の撮像位置、すなわち、基本断面位置を導出するための一連の処理を実行する(ステップS106)。なお、基本断面位置の導出処理の詳細については、後述する。
 そして、シーケンス制御部120は、ステップS106で導出された基本断面位置を設定の上、イメージングスキャンを実行する(ステップS107)。その後、画像生成部136が、シーケンス制御部120によって収集されたMRデータから、所望の基本断画像を生成し(ステップS108)、生成した基本断面像を表示部135に表示する(ステップS109)。
 なお、上述した処理手順は、一例に過ぎない。例えば、各種準備スキャンの実行は、その順序を任意に変更することができる。例えば、シーケンス制御部120は、基本断面位置の導出に用いられるマルチスライス像の収集のみを、基本断面位置の導出よりも前段で実行し、他の準備スキャンについては、基本断面位置の導出よりも後段で実行してもよい。また、感度マップは、通常、画像生成処理までに収集されればよいので、必ずしもイメージングスキャンに先行して収集されなくてもよい。更に、少なくとも一部の準備スキャンについては、ステップS104の3次元のMRデータの収集に先行して実行されてもよい。
 また、第1の実施形態においては、ステップS104で収集した3次元のMRデータを用いてマルチスライス像の収集の撮像範囲を導出する例を説明したが、実施形態はこれに限られるものではない。例えば、アキシャル像やコロナル像を収集して表示部135に表示し、操作者から、マルチスライス像の収集の撮像範囲を受け付けてもよい。さらに、例えば、イメージングスキャンの実行後に、基本断面像を生成する処理や、生成した基本断面像を表示部135に表示する処理等は、適宜、運用の形態に応じて割愛することができる。
 また、第1の実施形態においては、マルチスライス像の撮像範囲を導出するために3次元のMRデータを収集するスキャン(ステップS104)と、マルチスライス像を収集するスキャン(ステップS105)とをそれぞれ実行する例を説明した。しかしながら、実施形態はこれに限られるものではなく、いずれか一方のスキャンのみを実行する態様でもよい。この場合、この一方のスキャンで収集され、生成されたボリュームデータから、「マルチスライス像の撮像範囲」及び「基本断面位置」の両方を導出することになるので、シーケンス制御部120は、この一方のスキャンを、高速且つ高分解能で実行することが望ましい。また、更に、シーケンス制御部120は、この一方のスキャンを、高コントラストを実現するように実行することが望ましい。ここでいう高コントラストとは、例えば血液と心筋との間の輝度分布差が大きいことをいう。例えば、第1の実施形態において、シーケンス制御部120は、マルチスライス像の撮像範囲を導出するために3次元のMRデータを収集する場合、コントラストよりも高速を優先して、比較的小さいフリップ角(例えば15°程度)の設定に従って撮像を行う。一方、第1の実施形態において、シーケンス制御部120は、マルチスライス像を収集する場合、比較的大きいフリップ角(例えば60°程度)の設定に従って、高コントラストを実現するように撮像を行う。このように、撮像パラメータであるフリップ角の設定に従ってコントラストを調整することが可能であるので、一方のスキャンのみを実行する態様においても、シーケンス制御部120は、高コントラストを実現するように設定されたフリップ角に従って、高コントラストに撮像を行うことができる。
 続いて、図5は、第1の実施形態に係る断面位置導出部133aの構成を示す機能ブロック図であり、図6は、第1の実施形態における基本断面位置導出処理の処理手順を示すフローチャートである。なお、図6に示す処理手順は、図4に示すステップS106の処理に対応する。
 図5に示すように、第1の実施形態に係る断面位置導出部133aは、基本断面位置算出部133bと、補助断面位置算出部133cと、交差線算出部133dと、断面像生成部133eと、表示位置算出部133fと、表示制御部133gと、修正受付部133hとを備える。
 基本断面位置算出部133bは、記憶部132からボリュームデータを読み出し、読み出したボリュームデータを用いて、基本断面像の空間的な位置を示す基本断面位置を算出する。また、基本断面位置は、イメージングスキャンで収集される基本断面像の撮像位置である。なお、基本断面位置算出部133bによって算出された基本断面位置は、補助断面位置算出部133cや交差線算出部133d、断面像生成部133eによる処理に用いられる。
 補助断面位置算出部133cは、基本断面位置算出部133bから基本断面位置を受け取ると、この基本断面位置によって示される基本断面像と交差する補助断面像の空間的な位置を示す補助断面位置を算出する。なお、補助断面位置算出部133cによって算出された補助断面位置は、交差線算出部133dや断面像生成部133eによる処理に用いられる。
 交差線算出部133dは、基本断面位置算出部133bから受け取った基本断面位置と、補助断面位置算出部133cから受け取った補助断面位置とに基づいて、両断面像の交差位置を示す交差線情報を算出する。交差線情報は、基本断面像と補助断面像とが交差する線の空間的な位置を示す情報である。また、交差線算出部133dは、修正受付部133hから、基本断面像や補助断面像の表示位置の変更指示や、交差線の変更指示を受け取ると、変更後の内容に応じた交差線情報を算出する。なお、交差線算出部133dによって算出された交差線情報は、表示位置算出部133fや表示制御部133gによる処理に用いられる。
 断面像生成部133eは、記憶部132から読み出したボリュームデータと、基本断面位置算出部133bから受け取った基本断面位置とに基づいて、基本断面像を生成する。また、断面像生成部133eは、記憶部132から読み出したボリュームデータと、補助断面位置算出部133cから受け取った補助断面位置とに基づいて、補助断面像を生成する。また、断面像生成部133eは、修正受付部133hから、基本断面像や補助断面像の表示位置の変更指示や、交差線の変更指示を受け取ると、変更後の内容に応じた基本断面位置や補助断面位置を算出する。すなわち、断面像生成部133eは、両断面像が表示された表示位置の相対的な位置関係の変化に応じて、基本断面位置や補助断面位置を算出する。そして、断面像生成部133eは、算出後の基本断面位置や補助断面位置に基づいて、基本断面像や補助断面像を改めて生成(再生成)する。なお、断面像生成部133eによって生成された基本断面像や補助断面像は、表示制御部133gによる処理に用いられる。
 表示位置算出部133fは、交差線算出部133dから交差線情報を受け取り、補助断面像上における交差線の延長方向に基本断面像が位置付けられるように、基本断面像及び補助断面像の表示位置を算出する。なお、表示位置算出部133fによって算出された表示位置は、表示制御部133gによる処理に用いられる。
 表示制御部133gは、基本断面像及び補助断面像を、両断面像の交差位置に応じて相対的な関係が定まる表示位置にそれぞれ配置して、表示部135に表示する。言い換えると、表示制御部133gは、基本断面像及び補助断面像の表示位置と、両断面像の交差位置とを連動させて変更する。具体的には、表示制御部133gは、断面像生成部133eから受け取った基本断面像及び補助断面像を、表示位置算出部133fから受け取った表示位置に従って、表示部135に表示する。また、表示制御部133gは、基本断面像及び補助断面像を表示する場合に、交差線の延長方向を示すガイド情報を合成して表示する。
 修正受付部133hは、操作者から、入力部134を介して、基本断面像や補助断面像の表示位置の変更指示や、交差線の変更指示を受け付ける。なお、修正受付部133hによって受け付けられた変更指示は、交差線算出部133dや、断面像生成部133eによる処理に用いられる。
 上述した各部の処理の詳細を、図6に示す処理手順に従って説明すると、まず、基本断面位置算出部133bが、記憶部132からボリュームデータを読み出し(ステップS106-1)、基本断面位置を算出する(ステップS106-2)。基本断面位置は、3次元画像空間における基本断面像の空間的な位置のことであり、ボリュームデータから基本断面像を一意に特定できるパラメータで表される。
 例えば、パラメータは、基本断面像の中心座標点o((1)式)と、基本断面像上にある2本のベクトルu及びv((2)式)とで表される。2本のベクトルu及びvは、平行でなければ、基本断面位置を一意に特定することができる。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 基本断面位置算出部133bは、診断に用いる所望の部位が基本断面像上に含まれるように、これらのパラメータo、u、及びvを算出する。また、第1の実施形態において、基本断面位置算出部133bは、左室中心Cを基本断面像の中心座標点oとして算出し、短軸Xをベクトルuとして算出し、長軸Yをベクトルvとして算出する。ベクトルu及びvは、直交する2本のベクトルとなる。なお、ベクトルu及びvは、直交する2本のベクトルに限られるものではない。
 ここで、基本断面位置算出部133bは、公知の技術を用いて基本断面位置を算出する。例えば、基本断面位置算出部133bは、基本断面像のテンプレート画像を予め用意し、ボリュームデータとテンプレート画像とのテンプレートマッチングによって、左室中心C、短軸X、及び長軸Yを特定する。そして、基本断面位置算出部133bは、特定した左室中心C、短軸X、及び長軸Yを表すパラメータo、u、及びvを算出する。
 また、例えば、基本断面位置算出部133bは、基本断面像を識別する識別器を予め用意し、ボリュームデータにこの識別器を適用することで、左室中心C、短軸X、及び長軸Yを特定してもよい。その他、例えば、基本断面位置算出部133bは、操作者から、左室中心C、短軸X、及び長軸Yの指定を受け付けることで、左室中心C、短軸X、及び長軸Yを特定してもよい。
 なお、パラメータは、左室中心C、短軸X、及び長軸Yに対応するものに限られるものではない。パラメータは、例えば、僧帽弁MV、心尖部CA、及び短軸X等、基本断面像上の異なる3点の位置を表すものでもよい。また、パラメータは、例えば、断面を示す長方形の4頂点の座標点を表すものでもよい。すなわち、パラメータは、ボリュームデータから基本断面像を一意に特定できるものであればよい。
 次に、補助断面位置算出部133cが、ステップS106-2で算出された基本断面位置を用いて、補助断面位置を算出する(ステップS106-3)。補助断面像は、基本断面像の設定を支援するために(例えば、操作者に対して基本断面位置を確認し易くするために)補助的に用いられる断面像であって、基本断面像と交差する断面像である。補助断面位置は、3次元画像空間における補助断面像の空間的な位置のことであり、ボリュームデータから補助断面像を一意に特定できるパラメータで表される。
 例えば、パラメータは、補助断面像である左室短軸像の中心点座標点o´((3)式)と、補助断面像上にある2本のベクトルu´及びv´((4)式)とで表される。2本のベクトルu´及びv´は、平行でなければ、補助断面位置を一意に特定することができる。なお、変数aは、任意の定数であり、「×」は、外積計算である。なお、第1の実施形態のように、基本断面像と直交する断面像を補助断面像とすることで、操作者は、より効果的に、基本断面位置を確認することができる。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 続いて、交差線算出部133dが、ステップS106-2で算出された基本断面位置と、ステップS106-3で算出された補助断面位置とを用いて、両断面像の交差位置を示す交差線情報を算出する(ステップS106-4)。例えば、補助断面像上における交差線情報は、基本断面像と補助断面像との交差線ベクトルを補助断面像に射影することで、算出することができる。
 例えば、交差線算出部133dは、(5)式によって、交差線ベクトルlを算出する。なお、ベクトルnは、基本断面像の法線ベクトルであり、ベクトルn´は、補助断面像の法線ベクトルである。また、変数bは、任意の定数であり、「p」は、基本断面像と補助断面像とが交差する線上の任意の点であり、基本断面像及び補助断面像の平面の方程式を解くことで、算出することができる。そして、交差線算出部133dは、(5)式によって算出した交差線ベクトルlを補助断面像に射影することで、補助断面像上における交差線情報を算出する。
Figure JPOXMLDOC01-appb-M000005
 次に、表示位置算出部133fが、補助断面像上における交差線の延長方向に基本断面像が位置付けられるように、基本断面像及び補助断面像の表示位置を算出する(ステップS106-5)。
 そして、表示制御部133gが、ステップS106-5で算出された表示位置に従って、基本断面像及び補助断面像を表示部135に表示する(ステップS106-6)。また、表示制御部133gは、基本断面像及び補助断面像を表示する場合に、交差線の延長方向を示すガイド情報を生成し、生成したガイド情報を合成して表示する。
 なお、断面像生成部133eは、このステップS106-6の表示処理までに、記憶部132から読み出したボリュームデータと、ステップS106-2で算出された基本断面位置とを用いて、基本断面像を生成する。また、断面像生成部133eは、このステップS106-6の表示処理までに、記憶部132から読み出したボリュームデータと、ステップS106-3で算出された補助断面位置とを用いて、補助断面像を生成する。例えば、断面像生成部133eは、算出された基本断面位置や補助断面位置に基づきボリュームデータに対するMPR(Multi Planer Reconstruction)処理を適用することで、基本断面像や補助断面像を生成する。
 ここで、図7は、第1の実施形態における断面像の表示例を説明するための図である。図7(a)は、各断面像の表示位置を説明するための図であり、図7(b)は、表示例(GUI)を示す図である。表示制御部133gは、図7(a)に示すように、補助断面像I1及び基本断面像I2を、補助断面像I1上における交差線の延長方向に基本断面像I2が位置付けられるように配置する。すなわち、第1の実施形態において、表示制御部133gは、補助断面像I1上における短軸Xの方向に基本断面像I2が位置付けられるように、両断面像を配置する。更に言い換えると、第1の実施形態において、表示制御部133gは、補助断面像I1をスライスした角度の直線上に、そのスライスに対応する基本断面像I2が位置付けられるように、両断面像を配置する。
 図7(b)においては、表示制御部133gが、1つの補助断面像I1と1つの基本断面像I2とを表示部135に表示する例を示す。また、第1の実施形態においては、上述したように、左室中心Cを基本断面像の中心座標点oとし、また、(3)式によって補助断面像の中心座標点o´を算出している。このため、図7(b)に示すように、補助断面像I1及び基本断面像I2は、いずれもその中心が左室中心Cとなるように生成される。補助断面像I1において、丸の印は、左室中心Cに対応する。一方、基本断面像I2において、丸の印は、左室中心Cに対応し、四角の印は、僧帽弁MVに対応し、三角の印は、心尖部CAに対応する。また、図7においては、表示制御部133gが、基本断面像I2上に、四角の印、丸の印、三角の印を結ぶ点線と、基本断面像I2上における補助断面像I1との交差線を示す点線とを表示する例を示す。
 また、図7(b)に示すように、表示制御部133gは、補助断面像I1上における交差線の延長方向を示すガイド情報L1を合成して表示する。ガイド情報L1は、補助断面像I1上における交差線の延長方向、すなわち、第1の実施形態において、補助断面像I1上における短軸Xの方向を示す。また、第1の実施形態において、表示制御部133gは、このガイド情報L1を、補助断面像I1と基本断面像I2とを結ぶように、補助断面像I1上における短軸Xを、補助断面像I1の範囲外まで更に延長した線で表示する。例えば、表示制御部133gは、図7(b)に示すように、補助断面像I1の中心点と基本断面像I2の中心点とを結ぶように、ガイド情報L1を表示する。
 両断面像をこのように配置して表示することで、両断面像を見ながら操作を行う操作者は、視点の移動が少ない状態で、基本断面位置の修正や確認を連続的に行うことができる。また、表示制御部133gが、両断面像の表示位置の間の距離を、断面像同士が重複しない範囲内(若しくは、各断面像上での注目部位が重複しない範囲内)でできるだけ近づけた場合、操作者の視点の移動は更に少なくなり、より効果的である。また、操作者は、この表示を見ることで、基本断面位置の短軸Xが空間的にどの方向に設定されているかを直感的に理解することができる。
 なお、図7(b)に示す表示例は一例に過ぎない。例えば、表示制御部133gは、左室中心Cや、僧帽弁MV、心尖部CAを示す印を、各断面像上に表示しなくてもよい。また、例えば、表示制御部133gは、基本断面像I2上に示した2種類の点線を表示しなくてもよい。また、例えば、表示制御部133gは、ガイド線L1を省略してもよい。また、第1の実施形態において、ガイド線L1は、両断面像の中心点同士を結ぶものとなったが、実施形態はこれに限られるものではなく、中心点と中心点以外の点とを結ぶものや、中心点以外の点同士を結ぶものであってもよい。また、例えば、表示制御部133gは、補助断面像I1と、基本断面像I2との表示位置の上下の関係を変更してもよい。また、例えば、表示制御部133gは、ガイド情報L1とともに、若しくはガイド情報L1の替わりに、交差線自体を補助断面像I1上に表示してもよい。すなわち、表示制御部133gは、各種情報の表示や非表示、配置等について、任意に変更することができる。
 図6に戻り、表示制御部133gによって基本断面像及び補助断面像が表示された後、修正受付部133hが、操作者から修正指示を受け付けたか否かを判定する(ステップS106-7)。そして、修正受付部133hが、操作者から修正指示を受け付けた場合には(ステップS106-7,Yes)、その後、修正指示に基づいて、基本断面位置や補助断面位置の修正が行われ(ステップS106-8)、再び、ステップS106-4の処理に戻る。なお、修正受付部133hが、操作者から修正指示を受け付けなかった場合(ステップS106-7,No)、断面位置導出部133aによる処理は終了し、図4に示すステップS107の処理へと移行する。
 図8は、第1の実施形態における基本断面位置や補助断面位置の修正を説明するための図である。補助断面像である左室短軸像上において、基本断面像である四腔断面像の短軸Xの方向は、右心室RVの角と長軸Yとを通るという医学的知見がある。しかしながら、心臓の形状には個人差がある。このため、操作者は、四腔断面像の短軸Xが左室短軸像上において右心室RVの角と長軸Yとを通るように、長軸Yを軸に短軸Xを回転させるという微修正を行う。
 例えば、操作者は、図8に示すように、入力部134のマウスを介して、表示部135に表示されている基本断面像I2の表示位置を移動させる。修正受付部133hは、表示位置の変更指示としてこれを受け付け、受け付けた変更指示を、交差線算出部133dや断面像生成部133eに送る。交差線情報と表示位置との関係は既知である。このため、交差線算出部133dは、移動後の表示位置(両断面像の相対的な関係)に基づいて、短軸Xに相当する交差線情報を改めて算出し、算出した交差線情報を表示制御部133gに送る。また、断面像生成部133eは、改めて算出された交差線情報に基づいて基本断面位置のパラメータを改めて算出し、ボリュームデータから基本断面像I2を改めて生成する。こうして、表示制御部133gは、移動後の表示位置に、改めて生成された基本断面像I2を更新して表示し、補助断面像I1の中心点と、移動後の基本断面像I2の中心点とを結ぶように、ガイド情報L1を表示する。
 また、例えば、操作者は、図8に示すように、入力部134のマウスを介して、表示部135に表示されているガイド情報L1を移動させる。修正受付部133hは、交差線の変更指示としてこれを受け付け、受け付けた変更指示を、交差線算出部133dや断面像生成部133eに送る。交差線算出部133dは、移動後のガイド情報L1に基づいて、短軸Xに相当する交差線情報を改めて算出し、算出した交差線情報を、表示位置算出部133fや表示制御部133gに送る。表示位置算出部133fは、改めて算出された交差線の延長方向に基本断面像が位置付けられるように、基本断面像の表示位置を改めて算出する。また、断面像生成部133eは、改めて算出された交差線情報に基づいて基本断面位置のパラメータを改めて算出し、ボリュームデータから基本断面像I2を改めて生成する。こうして、表示制御部133gは、移動後の表示位置に、改めて生成された基本断面像I2を更新して表示し、補助断面像I1の中心点と、移動後の基本断面像I2の中心点とを結ぶように、ガイド情報L1を表示する。なお、ガイド情報L1とともに、若しくはガイド情報L1の替わりに交差線自体が補助断面像I1の上に表示されていた場合、修正受付部133hは、操作者によるこの交差線の移動を、そのまま交差線の変更指示として受け付けてもよい。この場合、表示制御部133gは、交差線の変更指示に従って算出された表示位置に、改めて生成された基本断面像I2を更新して表示し、補助断面像I1上には、変更後の交差線を表示する。
 こうして、操作者は、長軸Yを軸に短軸Xを回転させるという微修正を行いながら、基本断面位置の設定を適切に行うことができる。なお、基本断面位置や補助断面位置の修正は、上述した実施形態に限られるものではない。例えば、第1の実施形態においては、基本断面像I2を移動し、移動した基本断面像I2側を更新する手法を説明したが、実施形態はこれに限られるものではない。例えば、補助断面像I1側の表示位置の変更指示を受け付けて、基本断面像I2側を更新してもよい。また、例えば、表示制御部133gは、操作者の指示に従い、基本断面像I2を累積して表示(移動前の基本断面像I2を継続して表示)し、複数の基本断面像I2を並べて表示してもよい。また、例えば、第1の実施形態においては、基本断面像側を更新する例を説明したが、実施形態はこれに限られるものではなく、必要に応じて、補助断面像側を更新したり、両断面像を更新してもよい。
 上述してきたように、第1の実施形態によれば、基本断面像の位置決めを簡易に行うことができる。基本断面像が、補助断面像における交差線の延長方向に位置付けられるので、両断面像を見ながら操作を行う操作者は、視点の移動が少ない状態で、基本断面位置の修正や確認を連続的に行うことができる。また、第1の実施形態によれば、両断面像を結ぶガイド線も合成して表示される。このガイド線は、補助断面像上では交差線を示しているので、操作者は、基本断面位置の短軸Xが空間的にどの方向に設定されているかを直感的に理解することができる。また、ガイド線は両断面像を結んでいるので、操作者は、このガイド線に沿って視点を移動することができる。
 更に、第1の実施形態によれば、操作者は、基本断面像の表示位置やガイド線を移動する操作を行うだけで、基本断面位置が変更された新たな基本断面像を確認することができる。また、第1の実施形態によれば、操作者によって移動された基本断面像側のみを更新するので、操作者とって分かり易いGUIを提供することができる。
(第1の実施形態の他の表示例1)
 図9は、第1の実施形態の他の表示例1を説明するための図である。上述した第1の実施形態では、表示制御部133gが、1つの補助断面像I1と1つの基本断面像I2とを表示する例を説明したが、実施形態はこれに限られるものではない。例えば、表示制御部133gは、1つの補助断面像I1に対して、複数の基本断面像I2~I4を、それぞれ、交差線の延長方向に配置して表示してもよい。
(第1の実施形態の他の表示例2)
 図10は、第1の実施形態の他の表示例2を説明するための図である。例えば、表示制御部133gは、長軸Yを軸として短軸Xを回転させた複数の基本断面像を、1つの補助断面像の全周囲に配置して表示してもよい。ここで、図10において、『sax』は、左室短軸像の意味である。また、図10において、『270』等の数字は、短軸Xの角度を示す。また、図10において、補助断面像の中心から放射状に基本断面像に結ばれている点線が、ガイド線である。各基本断面像上に引かれた横方向の実線は、基本断面像上における交差線を示す。例えば、表示制御部133gは、操作者から、『30°』毎に全周分の基本断面像の表示を所望する旨の指示を受け付け、この指示に従って図10のような表示を行う。なお、例えば、1つの基本断面像の全周囲に、複数の補助断面像を配置して表示してもよい。
(第1の実施形態の他の表示例3)
 図11は、第1の実施形態の他の表示例3を説明するための図である。例えば、表示制御部133gは、1つの基本断面像I5に対して、複数の補助断面像I6~I8を表示してもよい。この場合、例えば、表示制御部133gは、図11に示すように、補助断面像I6~I8それぞれの中心点と、基本断面像I5の中心点とを一直線で結ぶガイド線を合成して表示する。
(第1の実施形態の他の表示例4)
 図12は、第1の実施形態の他の表示例4を説明するための図である。例えば、表示制御部133gは、1つの補助断面像に対して、複数種類の基本断面像を表示してもよい。図12において、『sax』は左室短軸像の意味であり、『ver』は垂直長軸像の意味であり、『hor』は水平長軸像である。また、『4ch』は四腔断面像であり、『2ch』は二腔断面像であり、『3ch』は三腔断面像である。図12においては、補助断面像である左室短軸像の周囲に、複数種類の基本断面像が表示されている。
 また、図12に示すように、例えば、表示制御部133gは、GUI上に、『ver』、『hor』、『sax』、『4ch』、『2ch』、及び『3ch』の押下ボタンを表示してもよい。表示制御部133gは、この押下ボタンが操作者によって押下されているか否かに応じて、該当する種類の断面像の表示・非表示を切り替えることができる。GUI上の表示領域は限られているので、操作者は、適宜表示・非表示を切り替えながら、断面像を表示させることができる。あるいは、表示制御部133gは、この押下ボタンが操作者によって押下されているか否かに応じて、断面像の表示順(例えば、複数の断面像が重複した場合に、最前面・最背面に表示するといった表示順)を切り替えてもよい。
(第1の実施形態の他の表示例5)
 また、上述してきた様々な表示例は、いずれも、カラー表示することで、より視覚的に分かり易い表示とすることができる。例えば、図10の表示例2の場合、表示制御部133gは、補助断面像『sax』の枠の色と、各基本断面像上の交差線の色とを一致させる(例えば、『水色』で一致させる)ことで、両者の関係を操作者に直感的に理解させることができる。また、例えば、表示制御部133は、僧帽弁MVの色(例えば、『赤色』)と、左室中心Cの色(例えば、『緑色』)と、心尖部CAの色(例えば、『黄色』)とを区別して表示してもよい。なお、色の選択は任意に変更することができる。
 また、例えば、図12の表示例4の場合、表示制御部133gは、断面像の種類を指定する押下ボタンの色と、各断面像の枠の色とを一致させる。例えば、表示制御部133gは、『ver』、『hor』、『sax』、『4ch』、『2ch』、及び『3ch』を、それぞれ、『薄黄色』、『桃色』、『水色』、『赤色』、『緑色』、『黄色』で表示し、これらに該当する各断面像の枠を、対応する色で表示する。この場合、表示制御部133gは、各断面像と結ばれるガイド線も、対応する色で表示してもよい。なお、色の選択は任意に変更することができる。
(その他の実施形態)
 なお、実施形態は、上述した実施形態に限られるものではない。
(立体交差の表示例)
 図13A及び図13Bは、その他の実施形態における表示例を説明するための図である。第1の実施形態においては、基本断面像及び補助断面像の両断面像が、一方の断面像上における交差線の延長方向に他方の断面像が位置付けられるように配置される例を説明したが、実施形態はこれに限られるものではない。表示制御部133gは、図13A及び図13Bに示すように、複数の断面像を立体的に交差させるように配置して表示してもよい。この場合も、表示制御部133gは、2つの断面像を、両断面像の交差位置に応じて相対的な関係が定まる表示位置にそれぞれ配置して、表示部135に表示するものである。
 図13Aと図13Bとでは、両断面像の交差位置、すなわち交差線情報が異なる。断面像生成部133eは、第1の実施形態と同様、交差線情報に基づいて断面位置を算出し、ボリュームデータから断面像を生成する。表示制御部133gは、両断面像の交差線情報に応じて、対応する断面像を表示する。また、断面像生成部133eは、両断面像が表示された表示位置の相対的な関係の変化に応じて(例えば、図13Aから図13Bへの変化に応じて)、少なくとも一方の断面像をボリュームデータから再生成する。そして、表示制御部133gは、少なくとも一方の断面像を、再生成された断面像に置き換えて表示する。
(その他の表示例)
 上述した実施形態においては、補助断面像における交差線の延長方向に基本断面像を配置する例を説明したが、実施形態はこれに限られるものではない。例えば、各断面像は、横一列に並べて表示されてもよい。この場合、例えば、表示制御部133gは、補助断面像上に表示する複数の交差線と、各交差線に対応する基本断面像とをそれぞれ結ぶガイド線を、合成して表示する。操作者は、このガイド線に沿って視点を移動することで、交差線に対応する基本断面像を見つけることができる。
 また、図14は、その他の実施形態における表示例を説明するための図である。これまでは、基本断面像や補助断面像の表示例として、準備スキャン時にこれらの断面像を表示して、基本断面位置や補助断面位置の修正を受け付ける手法を説明した。しかしながら、実施形態はこれに限られるものではない。これまで説明してきた表示例(例えば、図7~13等)は、イメージングスキャン後の表示例として適用することが可能である。
 表示制御部133gは、イメージングスキャンで収集された基本断面像を、イメージングスキャン後に表示する場合に、基本断面像及びこの基本断面像と交差する補助断面像の表示位置と、両断面像の交差位置とを連動させて変更する。例えば、イメージングスキャンが実行されて、基本断面像が生成されると、表示制御部133gは、イメージングスキャンで収集された基本断面像を、準備スキャンで収集された補助断面像における交差線の延長方向に位置付けて、表示する。例えば、イメージングスキャンを実行した後、改めて基本断面位置を再調整してイメージングスキャンを再実行し、基本断面像を収集し直す場合には、イメージングスキャン後に上述したような形態で表示することが有効である。
 以下では、イメージングスキャンで基本断面像のシネ撮像(連続する時系列の撮像)が行われた場合を想定して説明する。例えば、表示制御部133gは、図14に示すように、準備スキャンで収集されたボリュームデータから算出された補助断面像I11に対して、イメージングスキャンで収集された複数(若しくは、複数種類)の基本断面像I12~I14を、それぞれ、交差線の延長方向に配置して表示する。このとき、表示制御部133gは、補助断面像I11を静止画表示し、基本断面像I12~I14をシネ表示(動画表示)する。なお、表示制御部133gは、基本断面像I12~I14をシネ表示する際に、基本断面像間で心位相を同期させて再生することもできる。基本断面像間で位相の数(シネ撮像で収集された断面像の数に相当)が同じ場合、表示制御部133gは、例えば、各基本断面像の再生開始タイミングを揃えることで、基本断面像間で心位相を同期させて再生することができる。また、心電同期下のシネ撮像により収集された各断面像には、心電(ECG:Electrocardiogram)情報が付帯されるので、基本断面像間で位相の数が異なる場合でも、表示制御部133gは、例えば、この付帯された心電情報を用いて、基本断面像間で心位相を同期させて再生することができる。
 例えば、操作者は、実際に収集され、シネ表示されている基本断面像I12~I14を確認しながら、図14に示すように、入力部134のマウスを介して、基本断面像I13の表示位置(若しくはガイド情報)を移動させる。すると、交差線算出部133dは、移動中(若しくは移動後)の表示位置に基づいて交差線情報を改めて算出し、また、断面像生成部133eは、改めて算出された交差線情報に基づいて基本断面位置のパラメータを改めて算出し、「準備スキャンで収集されたボリュームデータから」基本断面像I13を生成する。この基本断面像I13は、準備スキャンで収集されたボリュームデータから生成されるものであるので、シネ表示ではなく、静止画表示される。例えば、操作者が、基本断面像I13のシネ表示を確認し、基本断面位置を少し修正して撮り直した方がよいと考えた場合、このようなGUIにおいて、実際に収集された基本断面像と、基本断面位置を修正した後の基本断面像とを表示する手法は、有効である。また、準備スキャン時と、イメージングスキャン時とで、同じGUIを用いることで、操作性も向上する。
 また、図14においては、基本断面像I13の移動中、断面像の表示サイズを変更する手法を併せて示している。GUIの表示領域は限られているので、GUIに表示する断面像の数が増えれば増えるほど、1つの断面像の表示サイズは、小さくなる。そこで、表示制御部133gは、表示中の複数の断面像のうち、操作者が着目するであろう断面像の表示サイズが、他の断面像に比較して相対的に大きくなるように、各断面像の表示サイズを調整する。例えば、表示制御部133gは、図14に示すように、操作者の操作により表示位置を移動中の基本断面像I13の表示サイズを拡大して(図14において基本断面像I15)、表示する。また、表示制御部133gは、他の基本断面像I12及び基本断面像I14については、表示サイズを縮小して表示する。また、表示制御部133gは、補助断面像I11については、表示サイズを変更しない。そして、表示制御部133gは、基本断面像I13の移動が完了すると、元の表示サイズに戻して表示する。
 なお、図14に示した表示サイズの変更は、一例に過ぎない。表示制御部133gは、操作中の断面像、及び、操作中の断面像と関連する断面像(例えば、操作中の断面像と交差する断面像)のうち、少なくとも一方の表示サイズが他の断面像に比較して相対的に大きくなるように、各断面像の表示サイズを調整すればよい。
 また、上述した表示例では、補助断面像I11を静止画表示し、基本断面像I12~I14をシネ表示(動画表示)する例を説明したが、実施形態はこれに限られるものではない。例えば、イメージングスキャンで補助断面像I11のシネ撮像も行われている場合には、表示制御部133gは、基本断面像I12~I14をシネ表示するとともに補助断面像I11もシネ表示することができる。補助断面像と基本断面像との双方をシネ表示することは、基本断面位置の再調整にあたり有効である。なお、上述した表示例と同様、表示制御部133gは、基本断面像I12~I14及び補助断面像I11をシネ表示する際に、断面像間で心位相を同期させて再生することもできる。
 また、上述した表示サイズの変更は、イメージングスキャン後の表示に限られるものではなく、上述した実施形態で説明してきた他の表示例(例えば、図7~13等)においても、同様に適用することができる。また、表示サイズの変更に限られるものではなく、表示制御部133gは、操作中の断面像、及び、操作中の断面像と関連する断面像のうち、少なくとも一方を表示し、他の断面像については非表示とするように、制御してもよい。この場合、例えば、表示制御部133gは、操作の終了とともに、非表示に制御していた他の断面像を、表示する。
(3次元のMRデータ(図4のステップS104参照)の利用法)
 上述した第1の実施形態においては、ステップS104で収集した3次元のMRデータを用いてマルチスライス像の収集の撮像範囲を導出する例を説明したが、実施形態はこれに限られるものではない。制御部133は、ステップS104で収集した3次元のMRデータから、その他の撮像範囲を導出してもよい。例えば、制御部133は、は、ステップS104で収集した3次元のMRデータから被検体Pに外接する直方体領域を検出し、この直方体領域よりも広い範囲を感度マップ撮像の撮像範囲として導出してもよい。また、例えば、制御部133は、は、ステップS104で収集した3次元のMRデータから心臓に外接する直方体領域を検出し、この直方体領域を含む所定範囲をシミング撮像の撮像範囲として導出してもよい。
(その他の部位)
 上述した第1の実施形態においては、対象部位として「心臓」を例に挙げて説明したが、実施形態はこれに限られるものではなく、他の対象部位を撮像する場合にも、同様に適用することができる。例えば、「肩」や「膝」といった関節の撮像にも、同様に適用することができる。肩関節の撮像においては、例えば、位置決め用のアキシャル断面像上で、肩甲骨に平行な斜位コロナル断面像や、肩甲骨に直交する斜位サジタル断面像の撮像位置の位置決めが行われる場合がある。例えば、MRI装置100は、位置決め用に収集したボリュームデータから、アキシャル断面像や、このアキシャル断面像と交差する斜位コロナル断面像、斜位サジタル断面像を生成する。また、MRI装置100は、アキシャル断面像における斜位コロナル断面像との交差線の延長方向に、斜位コロナル断面像を配置して表示し、アキシャル断面像における斜位サジタル断面像との交差線の延長方向に、斜位サジタル断面像を配置して表示する。そして、例えば、MRI装置100は、2つの断面像(例えば、アキシャル断面像及び斜位コロナル断面像)の表示位置の相対的な関係の変化に応じて、少なくとも一方の断面像(例えば、斜位コロナル断面像)を更新する。
(他の医用画像診断装置)
 上述した第1の実施形態においては、MRI装置100を例に挙げて説明したが、実施形態はこれに限られるものではない。X線CT装置や超音波診断装置等の医用画像診断装置においても、上述した各処理を同様に適用することができる。例えば、X線CT装置は、収集したボリュームデータに対する後処理としてMPRを適用し、所望の断面像を生成し、表示する場合がある。このような場合に、X線CT装置は、互いに交差する複数の断面像を、両断面像の交差位置に応じて相対的な関係が定まる表示位置にそれぞれ配置して、表示部に表示することができる。
(具体的な数値、処理の順序)
 また、上述した実施形態において例示した具体的な数値や処理の順序は、原則として、一例に過ぎない。例えば、上述した実施形態においては、心臓を診断の対象部位として想定したが、実施形態はこれに限られるものではなく、心臓以外の部位を対象部位としてもよい。また、複数の部位を同時に対象部位としてもよい。また、処理の順序や具体的なパルスシーケンスについても、任意に変更することができる。
(画像処理システム)
 また、上述した実施形態においては、医用画像診断装置が各種処理を実行する場合を説明したが、実施形態はこれに限られるものではない。例えば、医用画像診断装置と画像処理装置とを含む画像処理システムが、上述した各種処理を実行してもよい。ここで、画像処理装置とは、例えば、ワークステーション、PACS(Picture Archiving and Communication System)の画像保管装置(画像サーバ)やビューワ、電子カルテシステムの各種装置等である。この場合、例えば、医用画像診断装置は、MRデータ、投影データ等のlawデータや、ボリュームデータの収集を行う。一方、画像処理装置は、医用画像診断装置によって収集されたlawデータやボリュームデータを、医用画像診断装置から、若しくは、画像サーバからネットワーク経由で受信することで、あるいは、記録媒体を介して操作者から入力されること等で受け付けて、記憶部に記憶する。そして、画像処理装置は、記憶部に記憶したこのlawデータやボリュームデータを対象として、上述した各種処理(例えば、画像生成部136や断面位置導出部133aによる処理)を実行すればよい。画像処理装置によって導出された断面位置等の情報は、必要に応じて再び医用画像診断装置に入力され、続くイメージングスキャン等で用いられる。
(プログラム)
 また、上述した実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用コンピュータが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態のMRI装置100による効果と同様の効果を得ることも可能である。上述した実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD-ROM、CD-R、CD-RW、DVD-ROM、DVD±R、DVD±RWなど)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータ又は組み込みシステムが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態のMRI装置100と同様の動作を実現することができる。また、コンピュータがプログラムを取得する場合又は読み込む場合は、ネットワークを通じて取得又は読み込んでもよい。
 また、記憶媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(Operating System)や、データベース管理ソフト、ネットワーク等のMW(Middleware)等が、上述した実施形態を実現するための各処理の一部を実行してもよい。更に、記憶媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LAN(Local Area Network)やインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体も含まれる。また、記憶媒体は1つに限られず、複数の媒体から、上述した実施形態における処理が実行される場合も、実施形態における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。
 なお、実施形態におけるコンピュータ又は組み込みシステムは、記憶媒体に記憶されたプログラムに基づき、上述した実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。また、実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって実施形態における機能を実現することが可能な機器、装置を総称している。
(ハードウェア構成)
 図15は、実施形態に係る画像処理装置のハードウェア構成を示す図である。上述した実施形態に係る画像処理装置は、CPU(Central Processing Unit)210等の制御装置と、ROM(Read Only Memory)220やRAM(Random Access Memory)230等の記憶装置と、ネットワークに接続して通信を行う通信I/F240と、各部を接続するバス201とを備えている。
 上述した実施形態に係る画像処理装置で実行されるプログラムは、ROM220等に予め組み込まれて提供される。また、上述した実施形態に係る画像処理装置で実行されるプログラムは、コンピュータを上述した画像処理装置の各部(例えば、断面位置導出部133a)として機能させ得る。このコンピュータは、CPU210がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
 以上述べた少なくとも一つの実施形態の画像処理装置、磁気共鳴イメージング装置及び画像処理方法によれば、断面像の設定を適切に行うことができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (15)

  1.  第1の断面像と、前記第1の断面像と交差する第2の断面像とを、3次元の医用画像データから生成する生成部と、
     前記第1の断面像及び前記第2の断面像の表示部における表示位置と、両断面像の交差位置とを連動させて変更する表示制御部と
     を備える、画像処理装置。
  2.  前記生成部は、前記第1の断面像及び前記第2の断面像が表示された表示位置の相対的な関係の変化に応じて、少なくとも一方の断面像を前記医用画像データから再生成し、
     前記表示制御部は、前記表示部に表示された前記第1断面像及び前記第2断面像のうち少なくとも一方の断面像を、再生成された断面像に置き換えて表示する、請求項1に記載の画像処理装置。
  3.  前記表示制御部は、前記第2の断面像上における前記第1の断面像との交差線の延長方向に、前記第1の断面像を配置する、請求項1又は2に記載の画像処理装置。
  4.  前記表示制御部は、前記第2の断面像上における前記第1の断面像との交差線の延長方向であって、前記第2の断面像と重複しない表示位置に、前記第1の断面像を配置する、請求項1又は2に記載の画像処理装置。
  5.  前記表示制御部は、前記第1の断面像及び前記第2の断面像を表示するとともに、前記交差線の延長方向を示すガイド線を表示する、請求項3又は4に記載の画像処理装置。
  6.  前記表示制御部は、前記ガイド線を、前記第1の断面像と前記第2の断面像とを結ぶように表示する、請求項5に記載の画像処理装置。
  7.  前記第1の断面像及び前記第2の断面像のうち少なくとも一方の断面像の表示位置の変更を受け付ける受付部を更に備える、請求項1~6のいずれかひとつに記載の画像処理装置。
  8.  前記生成部は、表示位置の変更を受け付けた側の断面像について、前記医用画像データから再生成する、請求項7に記載の画像処理装置。
  9.  前記第2の断面像における前記第1の断面像との交差線の延長方向を示すガイド線の変更を受け付ける受付部を更に備える、請求項1~6のいずれかひとつに記載の画像処理装置。
  10.  前記生成部は、心臓の診断に用いられる基本断面像である第1の断面像と、前記基本断面像の撮像位置の設定に用いられる補助断面像である第2の断面像とを、3次元の医用画像データから生成し、
     前記表示制御部は、前記補助断面像における前記基本断面像との交差線の延長方向に、前記基本断面像を配置して表示するとともに、前記交差線の延長方向を示すガイド線を、前記基本断面像と前記補助断面像とを結ぶように表示する、請求項1に記載の画像処理装置。
  11.  前記表示制御部は、操作中の断面像、及び、操作中の断面像と関連する断面像のうち、少なくとも一方の表示サイズが他の断面像に比較して相対的に大きくなるように、各断面像の表示サイズを調整する、請求項1~10のいずれかひとつに記載の画像処理装置。
  12.  前記表示制御部は、操作中の断面像、及び、操作中の断面像と関連する断面像のうち、少なくとも一方を表示し、他の断面像については非表示とするように制御する、請求項1~10のいずれかひとつに記載の画像処理装置。
  13.  イメージングスキャンで収集される断面像の撮像位置の設定に用いられる3次元の医用画像データを収集するシーケンス制御部と、
     第1の断面像と、前記第1の断面像と交差する第2の断面像とを、前記医用画像データから生成する生成部と、
     前記第1の断面像及び前記第2の断面像の表示部における表示位置と、両断面像の交差位置とを連動させて変更する表示制御部と
     を備える、磁気共鳴イメージング装置。
  14.  前記表示制御部は、前記イメージングスキャンで収集された第3の断面像を、イメージングスキャン後に前記表示部に表示する場合に、前記第3の断面像及び前記第3の断面像と交差する他の断面像の表示位置と、両断面像の交差位置とを連動させて変更する、請求項13に記載の磁気共鳴イメージング装置。
  15.  画像処理装置で実行される画像処理方法であって、
     第1の断面像と、前記第1の断面像と交差する第2の断面像とを、3次元の医用画像データから生成し、
     前記第1の断面像及び前記第2の断面像の表示部における表示位置と、両断面像の交差位置とを連動させて変更する、画像処理方法。
PCT/JP2013/081565 2012-11-22 2013-11-22 画像処理装置、磁気共鳴イメージング装置及び画像処理方法 WO2014081021A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380060907.0A CN104812298B (zh) 2012-11-22 2013-11-22 图像处理装置、磁共振成像装置以及图像处理方法
US14/720,257 US9797972B2 (en) 2012-11-22 2015-05-22 Image processing apparatus, magnetic resonance imaging apparatus, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012256650 2012-11-22
JP2012-256650 2012-11-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/720,257 Continuation US9797972B2 (en) 2012-11-22 2015-05-22 Image processing apparatus, magnetic resonance imaging apparatus, and image processing method

Publications (1)

Publication Number Publication Date
WO2014081021A1 true WO2014081021A1 (ja) 2014-05-30

Family

ID=50776197

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/081565 WO2014081021A1 (ja) 2012-11-22 2013-11-22 画像処理装置、磁気共鳴イメージング装置及び画像処理方法

Country Status (4)

Country Link
US (1) US9797972B2 (ja)
JP (1) JP6351959B2 (ja)
CN (1) CN104812298B (ja)
WO (1) WO2014081021A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016070049A1 (en) * 2014-10-30 2016-05-06 General Electric Company Ultrasonic image display apparatus and program for controlling the same

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6611426B2 (ja) 2014-11-20 2019-11-27 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置及び医用画像処理方法
JP6548383B2 (ja) 2014-11-28 2019-07-24 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置
US10824315B2 (en) * 2015-05-29 2020-11-03 Canon Medical Systems Corporation Medical image processing apparatus, magnetic resonance imaging apparatus and medical image processing method
US10475160B1 (en) * 2015-06-25 2019-11-12 CAPTUREPROOF, Inc. Image magnification system
EP3220357A3 (de) * 2016-03-15 2018-01-10 Siemens Healthcare GmbH Modellhaftes erzeugen und darstellen von dreidimensionalen objekten
JP6738631B2 (ja) * 2016-03-29 2020-08-12 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP6792340B2 (ja) * 2016-03-29 2020-11-25 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
KR20180134358A (ko) * 2016-04-05 2018-12-18 이스타블리쉬먼트 렙스 에스.에이. 의료 촬상 시스템들, 디바이스들, 및 방법들
US10481235B2 (en) 2016-07-21 2019-11-19 Canon Medical Systems Corporation Magnetic resonance imaging apparatus and image processing apparatus
EP3480616A1 (de) * 2017-11-06 2019-05-08 Siemens Healthcare GmbH Magnetresonanz-system und verfahren zum übertragen von steuerdaten an eine digitale steuereinrichtung eines magnetresonanz-systems
KR20190129221A (ko) 2018-05-10 2019-11-20 한국자동차연구원 열교환 성능을 향상시킨 자동차 응축기용 u자형 루버핀
JP6734429B2 (ja) * 2019-04-08 2020-08-05 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置
CN114760927A (zh) * 2019-09-27 2022-07-15 布弗莱运营公司 提供用于定位超声设备的反馈的方法和装置
IT202100004376A1 (it) * 2021-02-25 2022-08-25 Esaote Spa Metodo di determinazione di piani di scansione nell’acquisizione di immagini ecografiche e sistema ecografico per l’attuazione del detto metodo

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017314A (ja) * 2008-07-09 2010-01-28 Ziosoft Inc 医用画像表示制御装置及び医用画像表示制御プログラム
JP2011239890A (ja) * 2010-05-17 2011-12-01 Toshiba Corp 超音波画像処理装置及び超音波診断装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0418303A (ja) 1990-05-12 1992-01-22 Kiichiro Hamazaki 連続式木材皮剥機
JP3910239B2 (ja) * 1996-11-14 2007-04-25 東芝医用システムエンジニアリング株式会社 医用画像合成装置
JP4018303B2 (ja) 1999-12-07 2007-12-05 株式会社東芝 医療用画像処理装置
JP2001250133A (ja) * 2000-03-03 2001-09-14 Hitachi Medical Corp 画像表示装置
JP2002140689A (ja) 2000-10-31 2002-05-17 Toshiba Corp 医用画像処理装置及びその方法
US7684604B2 (en) 2004-04-26 2010-03-23 Koninklijke Philips Electronics N.V. Apparatus and method for planning magnetic resonance imaging
US7280862B2 (en) 2004-08-18 2007-10-09 General Electric Company System and method for automatically obtaining a digital image of a heart
US8340374B2 (en) * 2007-01-11 2012-12-25 Kabushiki Kaisha Toshiba 3-dimensional diagnostic imaging system
JP5063279B2 (ja) * 2007-09-27 2012-10-31 株式会社日立製作所 磁気共鳴装置
CN101711681B (zh) * 2008-10-07 2012-06-27 株式会社东芝 三维图像处理装置
JP5433240B2 (ja) * 2009-01-21 2014-03-05 株式会社東芝 超音波診断装置及び画像表示装置
US8538103B2 (en) * 2009-02-10 2013-09-17 Hitachi Medical Corporation Medical image processing device, medical image processing method, medical image diagnostic apparatus, operation method of medical image diagnostic apparatus, and medical image display method
JP5414359B2 (ja) * 2009-05-27 2014-02-12 株式会社東芝 医用三次元画像表示装置及びその方法
JP2011125568A (ja) * 2009-12-18 2011-06-30 Canon Inc 画像処理装置、画像処理方法、プログラム及び画像処理システム
JP5323795B2 (ja) * 2010-10-12 2013-10-23 富士フイルム株式会社 診断支援装置、診断支援プログラムおよび診断支援方法
US20130054270A1 (en) * 2011-03-29 2013-02-28 Boston Scientific Neuromodulation Corporation Communication interface for therapeutic stimulation providing systems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017314A (ja) * 2008-07-09 2010-01-28 Ziosoft Inc 医用画像表示制御装置及び医用画像表示制御プログラム
JP2011239890A (ja) * 2010-05-17 2011-12-01 Toshiba Corp 超音波画像処理装置及び超音波診断装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016070049A1 (en) * 2014-10-30 2016-05-06 General Electric Company Ultrasonic image display apparatus and program for controlling the same

Also Published As

Publication number Publication date
US20150253407A1 (en) 2015-09-10
JP2014121596A (ja) 2014-07-03
CN104812298A (zh) 2015-07-29
JP6351959B2 (ja) 2018-07-04
US9797972B2 (en) 2017-10-24
CN104812298B (zh) 2018-02-16

Similar Documents

Publication Publication Date Title
JP6351959B2 (ja) 画像処理装置、磁気共鳴イメージング装置及び画像処理方法
JP6366905B2 (ja) 磁気共鳴イメージング装置及び医用画像診断装置
JP6440980B2 (ja) 磁気共鳴イメージング装置
JP6462286B2 (ja) 磁気共鳴イメージング装置
US20160155229A1 (en) Magnetic resonance imaging apparatus and medical image processing method
JP2018094451A (ja) 磁気共鳴イメージング装置、磁気共鳴イメージング方法及び画像処理システム
JP6753968B2 (ja) 磁気共鳴イメージング装置及び断面位置表示方法
US20190333628A1 (en) Medical imaging apparatus and method of controlling the same
JP2009254629A (ja) 磁気共鳴イメージング装置
JP6510187B2 (ja) 医用画像処理装置
JP2008206959A (ja) 磁気共鳴イメージング装置およびスライス領域設定方法
US10823800B2 (en) Magnetic resonance imaging apparatus and medical image processing method
JP5401290B2 (ja) 磁気共鳴イメージング装置および位置パラメータ設定支援方法
JP6853328B2 (ja) 磁気共鳴イメージング装置及び医用画像処理方法
JP5847247B2 (ja) 磁気共鳴イメージング装置
JP6382022B2 (ja) 磁気共鳴イメージング装置及び画像処理装置
JP2019130379A (ja) 磁気共鳴イメージング装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13857362

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13857362

Country of ref document: EP

Kind code of ref document: A1