WO2014192875A1 - 医用画像処理装置および医用画像処理方法 - Google Patents

医用画像処理装置および医用画像処理方法 Download PDF

Info

Publication number
WO2014192875A1
WO2014192875A1 PCT/JP2014/064281 JP2014064281W WO2014192875A1 WO 2014192875 A1 WO2014192875 A1 WO 2014192875A1 JP 2014064281 W JP2014064281 W JP 2014064281W WO 2014192875 A1 WO2014192875 A1 WO 2014192875A1
Authority
WO
WIPO (PCT)
Prior art keywords
cross
axis
image
sectional
sectional image
Prior art date
Application number
PCT/JP2014/064281
Other languages
English (en)
French (fr)
Inventor
哲也 横田
智司 若井
Original Assignee
株式会社 東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社 東芝
Publication of WO2014192875A1 publication Critical patent/WO2014192875A1/ja
Priority to US14/924,190 priority Critical patent/US9679377B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10108Single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • Embodiments described herein relate generally to a medical image processing apparatus and a medical image processing method for processing a medical image.
  • morphological information about the myocardium and coronary arteries, and functional information about movement and ischemia are acquired using various modalities. These form information and function information are displayed as images. The imaged morphological information and function information are used for cardiac diagnosis.
  • the above morphological information and function information cannot be acquired by one imaging or one modality on the subject. For this reason, in order to examine the overall diagnosis and treatment plan for the subject, it is necessary to associate the two images corresponding to the morphological information and the functional information, respectively. This association is performed by comparing the form information that can be read from each of the plurality of images with the function information.
  • the alignment between the plurality of images is important.
  • the alignment of the plurality of images is automatically executed by using, for example, the degree of correlation with the teacher data or the like (hereinafter referred to as automatic alignment processing).
  • An object is to provide a medical image processing apparatus and a medical image processing method capable of reducing a burden on an operator in alignment of medical images.
  • the medical image processing apparatus includes an input unit that inputs at least three marker points in the first slice image group and the second slice image group, the first slice image group, and the second slice image group.
  • An axis determining unit that determines a first axis connecting two points in the marker point and a second axis that passes through another point different from the two points among the marker points and is orthogonal to the first axis;
  • An alignment unit that aligns the first slice image and a plurality of second slice images belonging to the second slice image group;
  • FIG. 1 is a configuration diagram illustrating an example of a configuration of a medical image processing apparatus 1 according to the present embodiment.
  • FIG. 2 is a diagram illustrating three first cross-sectional images and rendering images generated based on the first volume data according to the present embodiment.
  • FIG. 3 is a diagram illustrating a superimposed schematic image together with one cross-sectional image of the first cross-sectional images before inputting the three marker points according to the present embodiment.
  • FIG. 4 is a diagram illustrating an example in which the superimposed schematic image is updated according to the input of each of the three marker points according to the present embodiment.
  • FIG. 5 is a diagram illustrating an example of three second slice images generated based on the second volume data according to the present embodiment.
  • FIG. 6 is a diagram illustrating an example relating to the expression of the direction of the central axis (first axis) in each first cross-sectional image according to the present embodiment.
  • FIG. 7 relates to the present embodiment, and the superposition ratio is 0.5, and the positions of the CT axis and the first axis intersection in the first slice image and the SPECT axis and the second intersection in the second slice image are shown. It is a figure which shows an example of a matching.
  • FIG. 8 is a flowchart illustrating an example of a processing procedure of the biaxial adjustment alignment process according to the present embodiment.
  • FIG. 8 is a flowchart illustrating an example of a processing procedure of the biaxial adjustment alignment process according to the present embodiment.
  • FIG. 9 is a diagram illustrating a superimposed image corresponding to a superimposition ratio together with a superimposition ratio scroll bar, a knob, and a cursor according to the first modification of the present embodiment.
  • FIG. 10 is a flowchart illustrating an example of the procedure of the axis adjustment input process according to the first modification of the present embodiment.
  • FIG. 11 is a diagram illustrating a superimposed image corresponding to a superimposition ratio together with a superimposition ratio scroll bar, a knob, and a cursor according to the second modification example of the present embodiment.
  • FIG. 12 is a flowchart illustrating an example of the procedure of the position adjustment input process according to the second modification of the present embodiment.
  • FIG. 13 is a diagram illustrating an example in which a cross-sectional image is displayed in a partial region according to an anatomical feature according to the present embodiment.
  • FIG. 14 is a diagram illustrating an example in which a superimposition rate scroll bar and a knob are displayed on each cross-sectional image according to the present embodiment.
  • FIG. 1 is a configuration diagram illustrating an example of a configuration of a medical image processing apparatus 1 according to the present embodiment.
  • the medical image processing apparatus 1 includes an interface unit 10, a storage unit 12, an axis determination unit 14, an input unit 16, a cross-section specifying unit 18, a cross-sectional image generation unit 20, a registration unit 22, and a superimposed image generation.
  • the unit 24, the display unit 26, and the control unit 28 are included.
  • the interface unit 10 is connected to a plurality of medical image diagnostic apparatuses (first to nth medical image diagnostic apparatuses) via a network.
  • a plurality of medical image diagnostic apparatuses include, for example, an X-ray computed tomography (hereinafter referred to as CT) apparatus, a magnetic resonance imaging (hereinafter referred to as MRI) apparatus, an ultrasonic diagnostic apparatus, and a nuclear medicine diagnosis.
  • Apparatus for example, positron emission computed tomography (hereinafter referred to as PET) apparatus, single photon emission computed tomography (hereinafter referred to as SPECT) apparatus, X-ray diagnostic apparatus, etc.) It is.
  • the storage unit 12 includes a plurality of first cross-sectional images (first cross-sectional image group) respectively corresponding to a plurality of different cross-sections, and a plurality of second cross-sectional images (second cross-sectional image group) respectively corresponding to the plurality of cross-sections. And remember.
  • the storage unit 12 stores first volume data related to the first slice image.
  • the storage unit 12 stores second volume data related to the second slice image.
  • the storage unit 12 stores a first rendering image that has been rendered by a rendering processing unit (not shown) based on the first volume data.
  • the storage unit 12 stores a second rendering image that has been rendered by a rendering processing unit (not shown) based on the second volume data.
  • the storage unit 12 stores a schematic image schematically showing a predetermined organ region.
  • first slice image group and the second slice image group are image groups generated by different modalities. Further, it is assumed that the first volume data and the second volume data are volume data generated by different modalities.
  • the different modalities include, for example, an X-ray CT apparatus and a SPECT apparatus, an ultrasonic diagnostic apparatus, a SPECT apparatus, and the like.
  • the plurality of cross sections are three orthogonal cross sections concerning a predetermined organ in the subject.
  • the predetermined organ is, for example, the heart.
  • the predetermined organ is not limited to the heart, and may be, for example, the brain, the liver, or the like.
  • the three orthogonal cross sections are, for example, three cross sections having the center of gravity of the heart.
  • the three orthogonal cross sections are, for example, a cross section (Axial), a coronal section (Coronal), and a sagittal section (Sagital).
  • the schematic image is an image schematically showing the heart.
  • the first volume data is data reconstructed by the X-ray CT apparatus.
  • the first volume data is transmitted to and stored in the storage unit 12 via a network connected to the X-ray CT apparatus and an interface unit 10 described later.
  • the first cross-sectional image is generated by a cross-sectional image generator 20 described later based on the three orthogonal cross sections and the first volume data.
  • the plurality of first cross-sectional images are a cross-sectional image related to CT, a sagittal cross-sectional image, and a coronal cross-sectional image.
  • the second volume data is data reconstructed by the SPECT apparatus.
  • the second volume data may be volume data (ultrasonic volume data) generated by the ultrasonic diagnostic apparatus.
  • the imaging range in the ultrasonic volume data may not include the entire area of the predetermined imager.
  • the second volume data is transmitted to and stored in the storage unit 12 via the network connected to the SPECT apparatus and the interface unit 10 described later.
  • the second cross-sectional image is generated by a cross-sectional image generation unit 20 to be described later based on the three orthogonal cross sections and the second volume data.
  • the plurality of second cross-sectional images are a cross-sectional image related to SPECT, a sagittal cross-sectional image, and a coronal cross-sectional image.
  • the plurality of second cross-sectional images may be a plurality of ultrasonic images generated by the ultrasonic diagnostic apparatus.
  • the first volume data and the second volume data are volume data generated by different medical image diagnostic apparatuses, but may be volume data generated by the same medical image diagnostic apparatus.
  • the same medical image diagnostic apparatus is, for example, SPECT apparatuses.
  • the first cross-sectional image and the second cross-sectional image are cross-sectional images generated by the same medical image diagnostic apparatus.
  • the first rendered image and the second rendered image are rendered images generated by the same medical image diagnostic apparatus.
  • the above situation is, for example, a case where the same subject is photographed at different times (for example, before and after treatment) or a case where comparison is made with teacher data.
  • the storage unit 12 stores two different volume data or teacher data collected by the same medical image diagnostic apparatus at different times for the subject.
  • the medical image diagnostic apparatus that collects the first volume data and the second volume data may be any medical image diagnostic apparatus that generates volume data. That is, in the present embodiment, each process such as two volume data generated by an arbitrary medical image diagnostic apparatus, two cross-sectional images, two rendering images, two-axis adjustment alignment processing, and rendering processing described later is performed. It is possible to apply.
  • the axis determination unit 14 passes the first axis connecting the two points at the marked point and the other points different from the two points among the marked points. And a second axis that is orthogonal to.
  • the axis determination unit 14 includes a first axis that connects two of the three marker points input by the input unit 16 to be described later, and three markers in each of the first and second slice images. A second axis that passes through another point different from the above two points and is orthogonal to the first axis is determined.
  • the axis determination unit 14 includes two marker points (in the sagittal slice image out of the three slice images in each of the first slice image and the second slice image ( The axis connecting the mitral valve and the apex is determined as the first axis.
  • the axis determination unit 14 passes through one marker point (left ventricular outflow tract) input in the coronal slice image among the three slice images in each of the first slice image and the second slice image.
  • the axis perpendicular to is determined as the second axis.
  • the determined first axis and second axis are displayed on the display unit 26, which will be described later, together with the first slice image and the second slice image.
  • the first axis displayed on the display unit 26 may be associated with two marker points (mitral valve, apex).
  • the axis determination unit 14 responds to the moved marker point when at least one of the two marker points (mitral valve, apex) regarding the first axis is moved by an input operation by the input unit 16 described later. A new first axis may be determined.
  • the axis determination unit 14 is moved when at least one of one marker point (left ventricular outflow passage) and the first axis with respect to the second axis is moved by an input operation by the input unit 16 described later.
  • a new second axis may be determined according to the marker point.
  • the input unit 16 inputs various instructions, commands, information, selections, settings, and the like from an operator or the like to the control unit 28 described later.
  • the input unit 16 includes input devices such as a trackball, a switch button, a mouse, a mouse / wheel, and a keyboard for inputting the various instructions / commands / information / selections / settings.
  • the input device may be a touch panel that covers the display screen in the display unit 26.
  • the input unit 16 inputs at least three marker points according to an operator's instruction with respect to three orthogonal cross sections related to the heart displayed on the display unit 26 described later. Specifically, the input unit 16 inputs three marker points in each of the first and second cross-sectional images according to an instruction from the operator.
  • the three marker points are, for example, the mitral valve, the apex, and the left ventricular outflow tract (for example, the aortic valve).
  • the input unit 16 can also input an operation for adjusting the positions of the three input marker points (hereinafter, referred to as marker point movement operation). Specifically, first, the input unit 16 inputs an operation (for example, a click operation with a mouse) that specifies a cross-sectional image on which a marker point whose position adjustment is desired is displayed. At this time, the input unit 16 inputs an operation for moving the marker point on the designated cross-sectional image (for example, an operation for moving the mouse cursor over the marker point and clicking and then dragging the marker point). Also good.
  • an operation for example, a click operation with a mouse
  • an operation for moving the marker point on the designated cross-sectional image for example, an operation for moving the mouse cursor over the marker point and clicking and then dragging the marker point. Also good.
  • the input unit 16 inputs an operation for moving the specified cross-sectional image (for example, a browsing operation with a mouse).
  • the input unit 16 outputs position information regarding the position of the moved cross-sectional image to the cross-section specifying unit 18 described later.
  • the input unit 16 can also input a drag related to the marker point on the designated cross-sectional image after the cross-sectional image is moved. Note that the first axis and the second axis may be appropriately moved in accordance with the movement of the marker point.
  • the input unit 16 can also input an operation for moving the first axis and the second axis (hereinafter referred to as an axis movement operation). For example, the input unit 16 inputs an operation of moving and clicking the mouse cursor on the first axis or the second axis. Thereby, the axis to be moved is specified. Next, the input unit 16 inputs an operation for dragging the identified axis.
  • the moving object may be moved by translation, rotation, or the like.
  • the input unit 16 can also input an operation for moving the cross-sectional image (translation, rotation, etc.).
  • At least one cross-sectional image in the first cross-sectional image and the second cross-sectional image may be fixed and displayed independently of at least one of the marker point moving operation and the axis moving operation.
  • the coronal slice image in each of the first and second slice images is fixed and displayed independently of the movement operation of one marker point (left ventricular outflow tract) with respect to the second axis (for example, the short axis of the heart). Is done. That is, the coronal slice image in each of the first and second slice images is displayed in a non-rotated state independently of the operation of moving one marker point with respect to the second axis.
  • the cross-section specifying unit 18 receives the first volume based on the position information of the three marker points and the newly determined first and second axes when the marker point moving operation is input by the input unit 16.
  • a new orthogonal three section is specified for the data and the second volume data.
  • the new three orthogonal cross sections include, for example, a first cross section including three mark points, a second cross section orthogonal to the first axis and including another mark point (left ventricular outflow passage), and the first cross section and the second cross section. And a third cross section including the first axis.
  • the cross-section specifying unit 18 may specify a new three orthogonal cross sections according to the axis movement operation.
  • the cross-section specifying unit 18 outputs the specified cross-section to the cross-sectional image generating unit 20 described later.
  • the three cross sections specified by the cross section specifying unit 18 are not limited to being orthogonal.
  • the cross section specifying unit 18 can also specify any three cross sections by an input operation via the input unit 16 or the like.
  • two step surfaces of the three cross sections may be determined such that, for example, the first axis passes through the center of the cross section image (hereinafter referred to as the display center) and is parallel to the vertical axis of the display screen.
  • two of the three cross sections may be determined, for example, such that the second axis passes through the display center and is parallel to the vertical axis of the display screen.
  • the cross section specifying unit 18 may specify a cross section that is perpendicular to the first axis and has a point between two marker points (mitral valve and apex) on the first axis as a default second cross section.
  • the cross-section specifying unit 18 specifies a cross-section having a midpoint of a line segment perpendicular to the first axis and connecting two marker points (mitral valve and apex) related to the first axis as the default second cross-section. .
  • the first to third cross sections may have different anatomical features.
  • the first cross section when the predetermined organ is a heart, the first cross section includes four lumen regions (right atrium, right ventricle, left atrium, left ventricle: hereinafter referred to as 4ch (chamber)).
  • 4ch chamber
  • the second cross section is a cross section (hereinafter referred to as an SA image) having a short axis of the heart (hereinafter referred to as SA) when the predetermined organ is a heart. That is, the anatomical feature in the second cross section is SA.
  • the third cross section is a cross section (hereinafter referred to as a 2ch view) including two lumen areas (hereinafter referred to as 2ch (chamber)) among the four lumen areas when the predetermined organ is a heart. That is, the anatomical feature in the third cross section is 2ch.
  • the cross-sectional image generation unit 20 includes a plurality of first cross sections corresponding to the first to third cross sections based on the three orthogonal cross sections (first to third cross sections) specified by the cross section specifying section 18 and the first volume data. A three-section image is generated.
  • the cross-sectional image generation unit 20 includes a plurality of first cross sections corresponding to the first to third cross sections based on the three orthogonal cross sections (first to third cross sections) specified by the cross section specifying section 18 and the second volume data. A four-section image is generated.
  • the cross-sectional image generation unit 20 outputs the third cross-sectional image and the fourth cross-sectional image to the display unit 26.
  • the third cross-sectional image is displayed on the display unit 26, which will be described later, together with the three marker points, the first axis, and the second axis.
  • the fourth cross-sectional image is displayed on the display unit 26, which will be described later, along with the three marker points, the first axis, and the second axis.
  • the alignment unit 22 uses the first and second axes in the first slice image group and the first and second axes in the second slice image group, and a plurality of first slices belonging to the first slice image group.
  • the image and a plurality of second slice images belonging to the second slice image group are aligned.
  • the alignment unit 22 includes a first axis and a second axis (hereinafter referred to as a first axis set) in the first cross-sectional image, and a first axis and a second axis (hereinafter referred to as a first axis set) in the second cross-sectional image.
  • the second cross-sectional image is aligned with the first cross-sectional image.
  • the alignment unit 22 uses the first axis set in the third slice image and the second axis set in the fourth slice image generated in response to the marker point movement operation or the axis movement operation to generate the third slice image.
  • the fourth cross-sectional image may be aligned.
  • the alignment unit 22 has a first axis and a second axis in the first axis set, and an intersection between the first axis and the second axis (hereinafter referred to as a first axis intersection).
  • the amount of movement for making the first axis and the second axis in the axis set coincide with the intersection of the first axis and the second axis (hereinafter referred to as the second axis intersection) is determined.
  • the movement amount is, for example, a parallel movement amount and a rotation amount.
  • the alignment unit 22 uses a coordinate system (hereinafter referred to as a first coordinate system) related to the second cross-sectional image (or the fourth cross-sectional image) based on the parallel movement amount and the rotation amount as the first cross-sectional image (or the third cross-sectional image).
  • Parameters for conversion into a coordinate system (hereinafter referred to as a second coordinate system) relating to the cross-sectional image) are determined.
  • the parameter is, for example, a transformation matrix of the second coordinate system with respect to the first coordinate system.
  • the alignment unit 22 completes the alignment of the second slice image with respect to the first slice image by determining the transformation matrix.
  • the alignment unit 22 outputs the conversion matrix to the superimposed image generation unit 24 described later.
  • the superposed image generating unit 24 generates a plurality of superposed images obtained by superimposing the second cross-sectional image on the first cross-sectional image using the transformation matrix.
  • the superimposed image generation unit 24 may generate a plurality of superimposed images in which the fourth slice image is superimposed on the third slice image using the transformation matrix.
  • the plurality of superimposed images will be described as images in which the second slice image is superimposed on the first slice image.
  • the superimposed image generator 24 generates a cross-sectional superimposed image by superimposing the cross-sectional image in the second cross-sectional image on the cross-sectional image in the first cross-sectional image using the transformation matrix.
  • the superimposed image generation unit 24 generates a sagittal cross-sectional image by superimposing the sagittal cross-sectional image in the second cross-sectional image on the sagittal cross-sectional image in the first cross-sectional image using the transformation matrix.
  • the superimposed image generating unit 24 generates a coronal slice superimposed image by superimposing the coronal slice image in the second slice image on the coronal slice image in the first slice image using the transformation matrix.
  • the plurality of superimposed images are, for example, the transverse cross-sectional superimposed image, the sagittal cross-sectional superimposed image, and the coronal cross-sectional superimposed image.
  • the superimposing image generation unit 24 When a superimposition ratio indicating a ratio of superimposing each second cross-sectional image on each first cross-sectional image is input via the input unit 16, the superimposing image generation unit 24 generates a superimposition image corresponding to the superimposition ratio. May be.
  • the superimposed image generation unit 24 outputs the generated multiple superimposed images to the display unit 26.
  • the superimposition ratio is 0.5
  • the first cross-sectional image (or third cross-sectional image) and the second cross-sectional image (or fourth cross-sectional image) are superposed at 1: 1.
  • the superimposition ratio is 1
  • the second cross-sectional image is not superimposed on the first cross-sectional image, and the superimposed image matches the first cross-sectional image.
  • the superimposition rate is 0, the first cross-sectional image is not displayed and the superposed image matches the second cross-sectional image.
  • the superimposed image generation unit 24 generates a superimposed schematic image in which the position of the three marker points, the position of the first axis, and the position of the second axis are superimposed on the schematic image.
  • the superimposed image generation unit 24 when the input of three marker points, the marker point movement operation, or the axis movement operation is input via the input unit 16, the first axis and the first axis determined as the marker point position information.
  • a superimposed schematic image may be newly generated based on the two axes.
  • the superimposed image generator 24 outputs the generated superimposed schematic image to the display unit 26 together with the first slice image and the second slice image in a size smaller than the first slice image and the second slice image.
  • the superimposed schematic image may be displayed together with the first slice image and the second slice image before inputting the three marker points as a guide for inputting the three marker points or the first axis and the second axis. .
  • the display unit 26 displays the first cross-sectional image together with the three marker points, the first axis, and the second axis.
  • the display unit 26 displays the second cross-sectional image together with the three marker points, the first axis, and the second axis.
  • the display unit 26 displays the third slice image together with the three marker points, the first axis, and the second axis.
  • the display unit 26 displays the fourth cross-sectional image together with the three marker points, the first axis, and the second axis.
  • the display unit 26 may predetermine a display area for displaying each of the plurality of cross-sectional images in each of the first to fourth cross-sectional images according to the anatomical features related to the cross-sectional images.
  • the position of the display area corresponding to the anatomical feature can be changed as appropriate via the input unit 16.
  • the display unit 26 assigns and displays cross-sectional images respectively corresponding to a plurality of anatomical features to each of a plurality of partial regions obtained by dividing the display region into four parts vertically and horizontally.
  • the display unit 26 displays a cross-sectional image having an anatomical feature of 4ch in the lower left area of the display area.
  • the display unit 26 displays a cross-sectional image whose anatomical feature is SA in the upper left area of the display area.
  • the display unit 26 displays a cross-sectional image having an anatomical feature of 2ch in the upper right area of the display area.
  • the display unit 26 displays the rendered image in a lower right area of the display area.
  • the display unit 26 displays a plurality of cross-sectional images while maintaining the display position corresponding to the anatomical feature even if the marker point movement operation or the axis movement operation is input via the input unit 16.
  • the display unit 26 can display a plurality of cross-sectional images in a plurality of partial regions respectively associated with a plurality of anatomical features. That is, cross-sectional images having different anatomical features are displayed in each of the plurality of partial areas in the display unit 26.
  • FIG. 2 is a diagram showing three first slice images and a rendering image generated based on the first volume data.
  • the three first cross-sectional images are a first transverse cross-sectional image A, a first coronal cross-sectional image C, and a first sagittal cross-sectional image S.
  • a superimposed schematic image in which three marker points and the first axis and the second axis are superimposed on a schematic image schematically showing the heart is displayed.
  • a marker point M is input at the position of the mitral valve.
  • the sign point M is indicated by a circle having a vertical line.
  • a marker point Ao is input at the position of the left ventricular outflow passage (or aortic valve).
  • the mark point Ao is indicated by a circle having diagonal lines.
  • a marker point M is input at the position of the mitral valve.
  • the marker point Ap is input to the first sagittal slice image S at the position of the apex.
  • the mark point Ap is indicated by a circle having a horizontal line.
  • a marker point M is input at the position of the mitral valve.
  • a marker point Ap is input at the position of the apex.
  • a marker point Ao is input at the position of the left ventricular outflow passage (or aortic valve).
  • the display of the three marker points is shown by the difference in the texture inside the circle.
  • the three marker points are indicated by the color, line type (solid line, broken line, chain line, etc.), thickness, etc.
  • the difference between the two sign points may be displayed.
  • the first axis and the second axis are indicated by black solid lines. Actually, however, the two axes depend on the color, line type (solid line, broken line, chain line, etc.), thickness, etc. The difference may be displayed.
  • FIG. 3 is a diagram showing a superimposed schematic image together with one of the first cross-sectional images before inputting the three mark points. As shown in FIG. 3, the superimposed schematic image is displayed as navigation for inputting three marker points.
  • FIG. 4 is a diagram illustrating an example in which the superimposed schematic image is updated according to the input of each of the three marker points.
  • FIG. 4 a shows a superimposed schematic image (navigation display) before inputting the three marker points.
  • the mark point M (mitral valve position) is input to the first cross-sectional image or the second cross-sectional image
  • the mark point M is displayed superimposed on the navigation display as shown in FIG.
  • the sign point Ap (the position of the apex) is input to the first cross-sectional image or the second cross-sectional image
  • the sign point M and the sign point Ap are displayed superimposed on the navigation display as shown in FIG. Is done.
  • the marker point Ao the position of the left ventricular outflow tract (aortic valve)
  • the marker point M and the marker point Ap are displayed on the navigation display as shown in FIG. And are displayed superimposed.
  • FIG. 4 shows a plurality of superimposed schematic images corresponding to the order of inputting the position of the mitral valve, then inputting the position of the apex, and finally inputting the position of the left ventricular outflow tract (aortic valve). Yes.
  • the input order is not limited to the three sign points, and any input order may be used.
  • FIG. 5 is a diagram illustrating an example of three second cross-sectional images generated based on the second volume data.
  • a rendering image generated based on the second volume data is not shown.
  • the three second cross-sectional images are a second transverse cross-sectional image A, a second coronal cross-sectional image C, and a second sagittal cross-sectional image S.
  • a superimposed schematic image in which three marker points and the first axis and the second axis are superimposed on a schematic image schematically showing the heart is displayed.
  • a marker point M is input at the position of the mitral valve.
  • the sign point M is indicated by a circle having a vertical line.
  • a marker point Ao is input at the position of the left ventricular outflow passage (or aortic valve).
  • the mark point Ao is indicated by a circle having diagonal lines.
  • a marker point M is input at the position of the mitral valve.
  • the marker point Ap is input to the first sagittal slice image S at the position of the apex.
  • the mark point Ap is indicated by a circle having a horizontal line.
  • a marker point M is input at the position of the mitral valve.
  • a marker point Ap is input at the position of the apex.
  • a marker point Ao is input at the position of the left ventricular outflow passage (or aortic valve).
  • the display of the three marker points is shown by the difference in texture inside the circle.
  • the three marker points are indicated by the color, line type (solid line, broken line, chain line, etc.), thickness, etc.
  • the difference between the two sign points may be displayed.
  • the first axis and the second axis are indicated by black solid lines, but in reality, the two axes depend on the color, line type (solid line, broken line, chain line, etc.), thickness, etc.
  • the difference may be displayed.
  • FIG. 2 and FIG. 5 can be appropriately switched through the operation by the input unit 16.
  • FIG. 6 is a diagram illustrating an example of the expression of the direction of the central axis (first axis) in each first cross-sectional image.
  • the direction of the central axis is indicated by two marker points (a marker point M and a marker point Ap) at both ends of the first axis.
  • the marker point M and the marker point Ap may always be displayed, or may be displayed when the position of the cursor linked to the movement of the mouse approaches at least one of the two marker points.
  • FIG. 7 shows a superimposition ratio of 0.5 (CT cross-sectional image (first or third cross-sectional image) and SPECT cross-sectional image (second or fourth cross-sectional image)), and the first axis set
  • FIG. 4 is a diagram illustrating an example of alignment between a first axis intersection point and a first axis intersection point, and a second axis set (hereinafter referred to as a SPECT center axis) and a second intersection point in a SPECT cross-sectional image.
  • the second axis intersection point is designated (drag) by the cursor, and the cursor is moved so as to move the second axis intersection point to the first axis intersection point.
  • the second axis intersection is moved to the first axis intersection.
  • the first axis intersection and the second axis intersection coincide with each other, the first axis set and the second axis set are aligned. Note that the first axis intersection may be moved to the second axis intersection.
  • the control unit 28 includes a central processing unit (Central Processing Unit: hereinafter referred to as CPU), a memory, and the like not shown.
  • the control unit 28 functions as the center of the medical image processing apparatus 1. Specifically, the control unit 28 reads out a control program or the like from the storage unit 12 in accordance with an input operation input via the input unit 16 and expands it on its own memory.
  • the control unit 28 controls each unit of the medical image processing apparatus 1 by executing the developed control program.
  • FIG. 13 is a diagram showing an example in which a cross-sectional image is displayed in a partial region according to an anatomical feature.
  • the 4ch view coronal slice image
  • the SA image cross-sectional image
  • the 2ch view sagittal cross-sectional image
  • the display unit 26 maintains the display position of the 4ch view, the 2ch view, and the SA image even if the marker point movement operation or the axis movement operation is input via the input unit 16.
  • the biaxial adjustment alignment function is based on the first axis set determined based on the three marker points input on the first slice image and the three marker points input on the second slice image. This is a function of aligning the second slice image with the first slice image by adjusting and aligning the determined second axis set.
  • biaxial adjustment alignment processing processing related to the biaxial adjustment alignment function (hereinafter referred to as biaxial adjustment alignment processing) will be described.
  • FIG. 8 is a flowchart illustrating an example of a processing procedure of the biaxial adjustment alignment process.
  • the plurality of first slice images and the plurality of second slice images are aligned (step Sa1).
  • the alignment in step Sa1 is automatic alignment by, for example, pattern matching or correlation matching.
  • the first slice image and the second slice image are displayed on the display unit 26 (step Sa2).
  • Three marker points are input on the first cross-sectional image and the second cross-sectional image (step Sa3). Based on the three marker points, the first axis and the second axis are respectively determined (step Sa4).
  • the first to third cross sections are specified based on the first axis and the second axis (step Sa5).
  • a plurality of third slice images respectively corresponding to the first to third slices are generated (step Sa6).
  • a plurality of fourth slice images respectively corresponding to the first to third slices are generated (step Sa7).
  • the third slice image and the fourth slice image are displayed on the display unit 26 (step Sa8).
  • the fourth cross-sectional image is aligned with the third cross-sectional image by using the first axis set and the first axis intersection point regarding the third cross-sectional image and the second axis set and the second axis intersection point regarding the fourth cross-sectional image (Ste Sa9). By this alignment, a transformation matrix is determined.
  • a superimposition rate is input via the input unit 16.
  • a superimposed image is generated by superimposing the fourth cross-sectional image on the third cross-sectional image at the input superposition rate (step Sa10).
  • a superimposed image is displayed (step Sa11).
  • the difference from the present embodiment is to provide an input state in which the first axis set in the first cross-sectional image or the second axis set in the second cross-sectional image can be adjusted according to the value of the superposition ratio.
  • the display unit 26 displays a superposition ratio for superimposing the second cross-sectional image on the first cross-sectional image together with the superposed image. Specifically, the display unit 26 displays, for example, an overlay rate scroll bar that scrolls the overlay rate. The display unit 26 displays a knob indicating the superimposition ratio of the displayed superimposed image on the superimposition ratio scroll bar. The display unit 26 outputs a superimposition rate corresponding to the position of the knob on the superimposition rate scroll bar to the superimposed image generation unit 24 and the input unit 16.
  • the superimposed image generating unit 24 generates a superimposed image corresponding to the overlapping rate corresponding to the position of the knob on the overlapping rate scroll bar displayed on the display unit 26.
  • the storage unit 12 stores a predetermined value related to an input of adjustment of either the first axis set or the second axis set.
  • the predetermined value is, for example, 0.5 (a value in which the first cross-sectional image and the second cross-sectional image are superimposed on a one-to-one basis).
  • the predetermined value can be appropriately changed via the input unit 16.
  • the input unit 16 inputs the position of the knob on the overlay rate scroll bar. Specifically, the input unit 16 moves the position of the knob on the overlay rate scroll bar using, for example, a cursor. The input unit 16 is in a state in which input for adjusting the position of the first axis set or the second axis set is possible according to the position of the knob.
  • the input unit 16 adjusts the first axis and the second axis determined on the first axis set, that is, the first slice image. Is possible. That is, when the position (superimposition ratio) of the knob is equal to or greater than a predetermined value, the input unit 16 is in a state where the first axis and the second axis (such as the central axis in the CT image) on the first cross-sectional image can be edited.
  • the input unit 16 can adjust the position of the first axis and the second axis determined on the second axis set, that is, the second slice image. It becomes a state. That is, when the position (superimposition ratio) of the knob is less than a predetermined value, the input unit 16 can edit the first axis and the second axis (such as the central axis in the SPECT image) on the second cross-sectional image.
  • the first axis set and the second axis set to be adjusted can be respectively switched according to the position of the knob input by the input unit 16.
  • a superimposed image having a superimposition ratio corresponding to the position of the knob is displayed on the display unit 26 together with the axis set to be adjusted.
  • FIG. 9 is a diagram showing a superimposed image corresponding to a superimposition ratio together with a superimposition ratio scroll bar, a knob, and a cursor.
  • CT axis adjustment the input unit 16
  • the second axis set ( The first axis and the second axis) can be adjusted via the input unit 16 (SPECT axis adjustment).
  • FIG. 14 is a diagram showing an example in which a superimposition rate scroll bar and a knob are displayed on each cross-sectional image. As shown in FIG. 14, a superimposition rate scroll bar and a knob are displayed for each of the three cross-sectional images. Thereby, the superposition rate in the first and second slice images can be changed by moving the position of the knob in each slice image.
  • the axis adjustment input function is to provide a state in which an input related to the adjustment of the first axis set or the second axis set can be performed according to the input superposition ratio.
  • processing related to the axis adjustment input function hereinafter referred to as axis adjustment input processing
  • FIG. 10 is a flowchart showing an example of the procedure of the axis adjustment input process.
  • the flowchart in FIG. 10 corresponds to, for example, the processing after step Sa9 in the flowchart in FIG.
  • the flowchart in FIG. 10 may be used in place of, for example, the processing of steps Sa9 and Sa10 in the flowchart in FIG.
  • the superimposition ratio in the superimposition ratio scroll bar is input via the input unit 16 (step Sb1).
  • step Sb2 When the input superposition ratio is equal to or greater than a predetermined value (step Sb2), waiting for input for position adjustment of the first and second axes (first axis set) with respect to the first slice image (or third slice image)
  • step Sb3 When the input superposition ratio is less than the predetermined value (step Sb3), waiting for input for position adjustment of the first and second axes (second axis set) with respect to the second slice image (or fourth slice image)
  • step Sb4 When the input superposition ratio is less than the predetermined value (step Sb3), waiting for input for position adjustment of the first and second axes (second axis set) with respect to the second slice image (or fourth slice image)
  • step Sb4 When the input superposition ratio is less than the predetermined value (step Sb3), waiting for input for position adjustment of the first and second axes (second axis set) with respect
  • the first axis and the second axis in the first axis set or the second axis set are adjusted via the input unit 16 (step Sb5). If the position adjustment between the first axis and the second axis is not completed (step Sb6), the processing from step Sb1 to step Sb5 is repeated. If the position adjustment of the first axis and the second axis is completed (step Sb6), the first and second of the first slice image (or the third slice image) and the second slice image (or the fourth slice image) respectively. Using the two axes, the second slice image (or the fourth slice image) is aligned with the first slice image (or the third slice image) (step Sb7).
  • a superimposed image is generated by superimposing the first slice image (or the third slice image) on the second slice image (or the fourth slice image) (step Sb8).
  • the superimposition ratio related to the superimposed image may be newly input via the input unit 16, or the superimposition ratio finally input in step Sb1 may be used.
  • the generated superimposed image is displayed on the display unit 26 (step Sb9).
  • the storage unit 12 stores a first value and a second value related to input of any one of the first axis set, the second axis set, the first cross-sectional image, and the second cross-sectional image.
  • the first value is greater than the second value.
  • the first value is, for example, 0.6 (a superposition ratio at which the first cross-sectional image is superposed at a ratio of 0.6 and the second cross-sectional image is superposed at a ratio of 0.4).
  • the second value is, for example, 0.4 (superimposition rate at which the first cross-sectional image is superimposed at a ratio of 0.4 and the second cross-sectional image is superimposed at 0.6).
  • the first and second values can be appropriately changed via the input unit 16.
  • the input unit 16 inputs the position of the knob on the overlay rate scroll bar.
  • the input unit 16 is in a state where input for adjusting the positions of the first axis set, the second axis set, the first cross-sectional image, and the second cross-sectional image is possible according to the position of the knob.
  • the input unit 16 when the overlapping rate corresponding to the position of the knob exceeds the first value, the input unit 16 is in a state where the position adjustment of the first axis set is possible. That is, when the position (superimposition ratio) of the knob exceeds the first value, the input unit 16 can edit the first axis and the second axis (such as the central axis in the CT image) on the first cross-sectional image. Let me.
  • the input unit 16 can adjust the second axis set, that is, the first axis and the second axis determined on the second slice image. It becomes a state. That is, when the position (superimposition ratio) of the knob is less than the second value, the input unit 16 can edit the first axis and the second axis (such as the central axis in the SPECT image) on the second cross-sectional image. Let me.
  • the first axis set and the second axis set to be adjusted can be respectively switched according to the position of the knob input by the input unit 16.
  • a superimposed image having a superimposition ratio corresponding to the position of the knob is displayed on the display unit 26 together with the axis set to be adjusted.
  • the input unit 16 When the superposition ratio corresponding to the position of the knob is located between the first value and the second value, the input unit 16 is in a state where the position adjustment of the first slice image or the second slice image is possible. At this time, the input unit 16 makes the first slice image or the second slice image editable. Specifically, for example, when the superposition ratio corresponding to the position of the knob is located between the superposition ratio of 0.5 and the first value, the input unit 16 can adjust the position of the first slice image. It becomes a state. For example, when the superimposition ratio corresponding to the position of the knob is located between the superimposition ratio of 0.5 and the second value, the input unit 16 is in a state in which the position of the second slice image can be adjusted. .
  • FIG. 11 is a diagram showing a superimposed image corresponding to a superimposition ratio together with a superimposition ratio scroll bar, a knob, and a cursor.
  • the axis set (first axis and second axis) can be adjusted via the input unit 16.
  • the position adjustment input function is a state in which input relating to position adjustment of any one of the first axis set, the second axis set, the first cross-sectional image, and the second cross-sectional image is possible according to the input superposition ratio. It is to provide.
  • processing related to the position adjustment input function hereinafter referred to as position adjustment input processing
  • FIG. 12 is a flowchart showing an example of the procedure of the position adjustment input process.
  • the flowchart in FIG. 12 corresponds to, for example, the processing after step Sa9 in the flowchart in FIG. Further, for example, the flowchart in FIG. 12 may be used in place of, for example, the processing of steps Sa9 and Sa10 in the flowchart in FIG.
  • the superimposition rate in the superimposition rate scroll bar is input via the input unit 16 (step Sc1).
  • step Sc2 When the input superposition ratio exceeds the first value (step Sc2), waiting for input for position adjustment of the first and second axes (first axis set) with respect to the first slice image (or third slice image)
  • step Sc3 When the input superposition ratio exceeds the first value (step Sc2), waiting for input for position adjustment of the first and second axes (first axis set) with respect to the first slice image (or third slice image) The state is turned on (step Sc3).
  • step Sc2 and step Sc4 When the input superposition ratio is less than the second value (step Sc2 and step Sc4), the position adjustment of the first and second axes (second axis set) with respect to the second slice image (or the fourth slice image) is performed. For this reason, the input waiting state is turned ON (step Sc5). The first axis and the second axis in the first axis set or the second axis set are adjusted via the input unit 16 (step Sc6).
  • step Sc2 and step Sc4 When the input superposition ratio is located between the first value and the second value (step Sc2 and step Sc4), the first slice image (or the third slice image) or the second slice image (or the second slice image)
  • the input waiting state for position adjustment (fine adjustment) of (four cross-sectional images) is turned ON (step Sc7).
  • the position of the first slice image or the position of the second slice image is adjusted via the input unit 16 (step Sc8).
  • the following processing may be performed, for example.
  • the input superposition ratio is located between 0.5 and the first value
  • the input waiting state for position adjustment of the first slice image is turned ON.
  • the input waiting state for position adjustment of the second slice image is turned ON.
  • step Sc9 If the position adjustment of the first axis set, the second axis set, the first slice image (or the third slice image), and the second slice image (or the fourth slice image) has not been completed (step Sc9), step Sc1 Thru
  • step Sc9 If the position adjustment of the first axis set, the second axis set, the first cross-sectional image (or the third cross-sectional image), and the second cross-sectional image (or the fourth cross-sectional image) has been completed (step Sc9), the first Using the first and second axes of each of the cross-sectional image (or third cross-sectional image) and second cross-sectional image (or fourth cross-sectional image), the second cross-sectional image (or third cross-sectional image) is converted into the second cross-sectional image (or third cross-sectional image). Alternatively, the fourth cross-sectional image) is aligned (step Sc10).
  • a superimposed image is generated by superimposing the first cross-sectional image (or third cross-sectional image) on the second cross-sectional image (or fourth cross-sectional image) (step Sc11).
  • the superimposition rate regarding the superimposition image may be newly input via the input unit 16, or the superimposition rate finally input in step Sc1 may be used.
  • the generated superimposed image is displayed on the display unit 26 (step Sc12).
  • the medical image processing apparatus 1 of the present embodiment based on the three marker points input on a plurality of cross-sectional images (first cross-sectional image and second cross-sectional image) that the operator desires to align with each other, Two orthogonal axes can be determined for each of the plurality of cross-sectional images. A plurality of cross-sectional image alignments can then be performed based on the determined two axes and three landmarks.
  • it is suitable for observing the three marker points and the two axes in conjunction with the alignment process based on the three marker points and the two axes.
  • the determined cross section can be determined, and a cross-sectional image relating to the determined cross section can be displayed.
  • the medical image processing apparatus 1 in the present embodiment in the alignment adjustment by the operator's input operation, information regarding the alignment adjustment, the result of the alignment, and the like are simply displayed to the operator. be able to.
  • the operability of alignment adjustment can be simplified for the operator.
  • the alignment can be executed. it can.
  • the burden of the input operation by the operator can be reduced, and the alignment adjustment by the operator's input operation can be easily executed.
  • a superimposed schematic image can be displayed as navigation.
  • the major axis first axis connecting the mitral valve and apex
  • the minor axis perpendicular to the major axis axis perpendicular to the first axis and passing through the left ventricular outflow part
  • a long-axis image along the long-axis axis and a short-axis image along the short-axis axis (hereinafter, referred to as “long-axis image”) Can be displayed).
  • the display for confirming the certainty of the determined positions of these two axes at the position of the long axis of the central axis and the position of the short axis of the central axis (for example, display of the third and fourth cross-sectional images).
  • a cross-sectional image having an anatomical feature can be displayed at a position corresponding to the anatomical feature in each of a plurality of cross-sectional images.
  • the anatomical feature is 4ch, 2ch, SA, 4ch view, 2ch view, SA image
  • the marker point movement operation or axis movement operation is input
  • 4ch view, 2ch view, SA image The display position of is maintained.
  • the medical image processing apparatus 1 can specify the second cross section based on the first axis. Thereby, specification of a 2nd cross section can be performed simply.
  • the medical image processing apparatus 1 in the present embodiment fixes, for example, a cross-sectional image (SA image) related to the second cross section independently of the moving operation. Can be displayed. Thereby, even if an operation of moving the marker point related to the second axis is input, the cross-sectional image (SA image) related to the second cross-section does not move, and thus the operator can easily adjust the alignment. .
  • SA image cross-sectional image
  • the adjustment of the first axis set or the second axis set can be executed according to the input superposition rate value.
  • the operator can adjust the first axis and the second axis in the first axis set or the second axis set while confirming or visually checking the superimposed image. Therefore, according to the medical image processing apparatus 1 in the first modification of the present embodiment, it is possible to reduce the burden on the operator and improve the diagnostic efficiency in the adjustment of the alignment of the medical image.
  • the position of the first slice image (or the third slice image) or the position of the second slice image (or the fourth slice image) can be adjusted.
  • the operator can adjust the first axis and the second axis in the first axis set or the second axis set while confirming or visually checking the superimposed image. Therefore, according to the medical image processing apparatus 1 in the first modification of the present embodiment, it is possible to reduce the burden on the operator and improve the diagnostic efficiency in the adjustment of the alignment of the medical image.
  • this embodiment may be implemented in a server client system.
  • the client includes an input unit 16 and a display unit 26.
  • the server includes an interface unit 10, a storage unit 12, an axis determining unit 14, a cross-section specifying unit 18, a cross-sectional image generating unit 20, a positioning unit 22, a superimposed image generating unit 24, a control unit 28, and the like.
  • Processing related to each function according to the present embodiment is executed in the server in accordance with an instruction from the operator via the input unit 16 of the client. .
  • each function according to the embodiment can also be realized by installing a medical image processing program for executing the processing in a computer such as a workstation and developing the program on a memory.
  • a program capable of causing the computer to execute the technique is stored in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), or a semiconductor memory. It can also be distributed.
  • SYMBOLS 1 Medical image processing apparatus, 10 ... Interface part, 12 ... Memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

 本実施形態に係る医用画像処理装置1は、第1断面画像群と第2断面画像群とにおいて、少なくとも3つの標識点を入力する入力部16と、第1、第2断面画像群各々において、標識点における2点を結ぶ第1軸と、標識点のうち2点とは異なる他の点を通り第1軸に直交する第2軸とを決定する軸決定部14と、第1断面画像群における第1、第2軸と、第2断面画像群における第1、第2軸とを用いて、第1断面画像群に属する複数の第1断面画像と第2断面画像群に属する複数の第2断面画像とを位置合わせする位置合わせ部22と、を具備する。

Description

医用画像処理装置および医用画像処理方法
 本発明の実施形態は、医用画像を処理する医用画像処理装置と医用画像処理方法とに関する。
 従来、例えば心臓診断では、さまざまなモダリティを用いて、心筋および冠動脈に関する形態情報、動きおよび虚血状態に関する機能情報が取得される。これら形態情報および機能情報は画像化されて表示される。画像化された形態情報および機能情報は、心臓診断に用いられる。
 上記形態情報および機能情報は、被検体に対する1度の撮影または一つのモダリティによって取得することはできない。このため、被検体に対する総合的な診断および治療計画の検討のために、形態情報と機能情報とにそれぞれ対応する2つの画像間において、対応づけが必要となる。この対応付けは、複数の画像各々から読み取ることができる形態情報と機能情報とを照らし合わせることにより実施される。
 具体的には、上記心臓診断において、例えば、形態情報と機能情報とにそれぞれ対応する複数の画像を、同じ位置、同じ断面で表示させるために、複数の画像間の位置合わせが重要となる。この複数の画像の位置合わせは、例えば、教師データとの相関度等を用いることなどにより、自動的に実行される(以下、自動位置合わせ処理と呼ぶ)。
 上記自動位置合わせ処理が失敗した場合、または位置合わせの精度が不十分だった場合、操作者による位置合わせのための入力操作が必要となる。このとき、操作者に対して位置合わせの調整に関する情報および位置合わせの結果を表示する必要がある。
 しかしながら、操作者の入力操作による位置合わせの調整において、位置合わせの調整に関する情報および位置合わせの結果などを操作者に簡便に表示していない問題がある。加えて、位置合わせの調整の操作性が、操作者にとって簡便でない問題がある。これらのことから、操作者による入力操作の負担が大きくなり、操作者の入力操作による位置合わせの調整を簡便に実行できない問題がある。加えて、上記心臓診断において、超音波画像の走査領域には、被検体の心臓に関する領域が入りきらないことがある。このとき、自動位置合わせ処理の実行自体が不可能となる場合がある。
特開2011-67253号公報 特開2011-120825号公報
 目的は、医用画像の位置合わせにおいて、操作者への負担を軽減可能な医用画像処理装置および医用画像処理方法を提供することにある。
 本実施形態に係る医用画像処理装置は、第1断面画像群と第2断面画像群とにおいて、少なくとも3つの標識点を入力する入力部と、前記第1断面画像群および前記第2断面画像群各々において、前記標識点における2点を結ぶ第1軸と、前記標識点のうち前記2点とは異なる他の点を通り前記第1軸に直交する第2軸とを決定する軸決定部と、前記第1断面画像群における前記第1軸および前記第2軸と、前記第2断面画像群における前記第1軸および前記第2軸とを用いて、前記第1断面画像群に属する複数の第1断面画像と前記第2断面画像群に属する複数の第2断面画像とを位置合わせする位置合わせ部と、を具備する。
図1は、本実施形態に係る医用画像処理装置1の構成の一例を示す構成図である。 図2は、本実施形態に係り、第1ボリュームデータに基づいて発生された3つの第1断面画像とレンダリング画像とを示す図である。 図3は、本実施形態に係り、3つの標識点の入力前において、第1断面画像のうちの一つの断面画像とともに重畳模式画像を示す図である。 図4は、本実施形態に係り、3つの標識点各々の入力に応じて、重畳模式画像が更新される一例を示す図である。 図5は、本実施形態に係り、第2ボリュームデータに基づいて発生された3つの第2断面画像の一例を示す図である。 図6は、本実施形態に係り、第1断面画像各々において、心軸(第1軸)の方向の表現に関する一例を示す図である。 図7は、本実施形態に係り、重畳率が0.5であって、第1断面画像におけるCT心軸と第1軸交点と、第2断面画像におけるSPECT心軸と第2交点との位置合わせの一例を示す図である。 図8は、本実施形態に係り、2軸調整位置合わせ処理の処理手順一例を示すフローチャートである。 図9は、本実施形態の第1の変形例に係り、重畳率に対応する重畳画像を、重畳率スクロールバー、つまみ、カーソルとともに示す図である。 図10は、本実施形態の第1の変形例に係り、軸調整入力処理の手順の一例を示すフローチャートである。 図11は、本実施形態の第2の変形例に係り、重畳率に対応する重畳画像を、重畳率スクロールバー、つまみ、カーソルとともに示す図である。 図12は、本実施形態の第2の変形例に係り、位置調整入力処理の手順の一例を示すフローチャートである。 図13は、本実施形態に係り、解剖学的特徴に応じて、断面画像を部分領域に表示した一例を示す図である。 図14は、本実施形態に係り、断面画像各々に重畳率スクロールバーおよびつまみを表示した一例を示す図である。
 以下、図面を参照しながら本実施形態に係わる医用画像処理装置を説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。
 以下、図面を参照して、本実施形態を説明する。 
 図1は、本実施形態に係る医用画像処理装置1の構成の一例を示す構成図である。医用画像処理装置1は、インターフェース部10と、記憶部12と、軸決定部14と、入力部16と、断面特定部18と、断面画像発生部20と、位置合わせ部22と、重畳画像発生部24と、表示部26と、制御部28とを有する。
 インターフェース部10は、ネットワークを介して複数の医用画像診断装置(第1乃至第n医用画像診断装置)に接続される。複数の医用画像診断装置は、例えば、X線コンピュータ断層撮影(Computed Tomography:以下、CTと呼ぶ)装置、磁気共鳴イメージング(Magnetic Resonance Imaging:以下MRIと呼ぶ)装置、超音波診断装置、核医学診断装置(例えば、陽電子放出コンピュータ断層撮影(Positron Emission Coputed Tomography:以下、PETと呼ぶ)装置、単光子放出コンピュータ断層撮影(Single Photon Emission Coputed Tomography:以下、SPECTと呼ぶ)装置)、X線診断装置などである。
 記憶部12は、互いに異なる複数の断面にそれぞれ対応する複数の第1断面画像(第1断面画像群)と、これら複数の断面にそれぞれ対応する複数の第2断面画像(第2断面画像群)とを記憶する。記憶部12は、第1断面画像に関する第1ボリュームデータを記憶する。記憶部12は、第2断面画像に関する第2ボリュームデータを記憶する。記憶部12は、第1ボリュームデータに基づいて、図示していないレンダリング処理部によりレンダリング処理された第1レンダリング画像を記憶する。記憶部12は、第2ボリュームデータに基づいて、図示していないレンダリング処理部によりレンダリング処理された第2レンダリング画像を記憶する。記憶部12は、所定の臓器の領域を模式的に示す模式画像を記憶する。
 第1断面画像群と第2断面画像群とは、異なるモダリティにより発生された画像群であるとする。また、第1ボリュームデータと第2ボリュームデータとは、異なるモダリティにより発生されたボリュームデータであるとする。異なるモダリティとは、例えば、X線CT装置とSPECT装置、超音波診断装置とSPECT装置などである。
 以下、説明を簡単にするために、上記複数の断面は、被検体における所定の臓器に関する直交3断面であるとする。また、以下の説明を具体的にするために、所定の臓器は、例えば、心臓である。なお、所定の臓器は、心臓に限定されず、例えば、脳、肝臓などであってもよい。また、直交3断面は、例えば、心臓の重心を有する3つの断面であるとする。直交3断面は、例えば、横断面(Axial:アキシャル)、冠状断面(Coronal:コロナル)、矢状断面(Sagital:サジタル)である。所定の臓器が心臓である場合、模式画像は、心臓を模式的に示す画像となる。
 以下、説明を具体的にするために、第1ボリュームデータは、X線CT装置により再構成されたデータとする。第1ボリュームデータは、X線CT装置に接続されたネットワークと後述するインターフェース部10とを介して、記憶部12に伝送され、記憶される。第1断面画像は、直交3断面と第1ボリュームデータとに基づいて、後述する断面画像発生部20により発生される。複数の第1断面画像とは、CTに関する横断面画像と、矢状断面画像と、冠状断面画像である。
 以下、説明を具体的にするために、第2ボリュームデータは、SPECT装置により再構成されたデータとする。なお、第2ボリュームデータは、超音波診断装置により発生されたボリュームデータ(超音波ボリュームデータ)であってもよい。なお、超音波ボリュームデータにおける撮像範囲は、所定の像器の全領域を含んでいなくともよい。第2ボリュームデータは、SPECT装置に接続されたネットワークと後述するインターフェース部10とを介して、記憶部12に伝送され、記憶される。第2断面画像は、直交3断面と第2ボリュームデータとに基づいて、後述する断面画像発生部20により発生される。複数の第2断面画像とは、SPECTに関する横断面画像と、矢状断面画像と、冠状断面画像である。なお、複数の第2断面画像は、超音波診断装置により発生された複数の超音波画像であってもよい。
 なお、上記において、第1ボリュームデータと第2ボリュームデータとは異なる医用画像診断装置により発生されるボリュームデータとしているが、同じ医用画像診断装置により発生されたボリュームデータであってもよい。同じ医用画像診断装置とは、例えば、SPECT装置同士などである。このとき、第1断面画像と第2断面画像とは、同じ医用画像診断装置により発生された断面画像となる。加えて、第1レンダリング画像と第2レンダリング画像とは、同じ医用画像診断装置により発生されたレンダリング画像となる。上記状況は、例えば、同じ被検体を異なる時刻(例えば治療前後)で撮影した場合、または、教師データと比較する場合である。このとき、記憶部12は、被検体に対して異なる時刻で同じ医用画像診断装置で収集された異なる2つのボリュームデータ、または教師データを記憶する。
 また、第1ボリュームデータと第2ボリュームデータとを収集する医用画像診断装置は、ボリュームデータを発生する任意の医用画像診断装置であってもよい。すなわち、本実施形態は、任意の医用画像診断装置により発生された2つのボリュームデータ、2つの断面画像、2つのレンダリング画像に対して後述する2軸調整位置合わせ処理、レンダリング処理などの各処理を適用することが可能である。
 軸決定部14は、第1断面画像群および第2断面画像群各々において、標識点における2点を結ぶ第1軸と、標識点のうち上記2点とは異なる他の点を通り第1軸に直交する第2軸とを決定する。具体的には、軸決定部14は、第1断面画像、第2断面画像各々において、後述する入力部16により入力された3つの標識点のうち2点を結ぶ第1軸と、3つの標識点のうち上記2点とは異なる他の点を通り第1軸に直交する第2軸とを決定する。所定の臓器が心臓の場合、具体的には、軸決定部14は、第1断面画像、第2断面画像各々において、3つの断面画像のうち矢状断面画像において入力された2つの標識点(僧房弁、心尖部)を結ぶ軸を、第1軸として決定する。軸決定部14は、第1断面画像、第2断面画像各々において、3つの断面画像のうち冠状断面画像において入力された1つの標識点(左心室流出路)を通り、決定された第1軸に垂直な軸を第2軸として決定する。
 決定された第1軸、第2軸は、後述する表示部26に、第1断面画像および第2断面画像とともに表示される。なお、表示部26に表示される第1軸は、2つの標識点(僧房弁、心尖部)に関連付けられていてもよい。
 なお、軸決定部14は、後述する入力部16による入力操作により、第1軸に関する2つの標識点(僧房弁、心尖部)のうち少なくとも一方が移動されると、移動された標識点に応じて新たな第1軸を決定してもよい。また、軸決定部14は、後述する入力部16による入力操作により、第2軸に関する1つの標識点(左心室流出路)と第1軸とのうち少なくとも一方が移動されると、移動された標識点に応じて新たな第2軸を決定してもよい。
 入力部16は、操作者などからの各種指示・命令・情報・選択・設定などを後述する制御部28に入力する。具体的には、入力部16は、上記各種指示・命令・情報・選択・設定などを入力するためのトラックボール、スイッチボタン、マウス、マウス・ホイール、キーボード等の入力デバイスを有する。なお、入力デバイスは、表示部26における表示画面を覆うタッチパネルでもよい。
 入力部16は、後述する表示部26で表示された心臓に関する直交3断面に対して、少なくとも3つの標識点を、操作者の指示により入力する。具体的には、入力部16は、操作者の指示により、第1、第2断面画像各々に3つの標識点を入力する。所定の臓器が心臓である場合、3つの標識点とは、例えば、僧房弁、心尖部、左心室流出路(例えば、大動脈弁)である。
 なお、入力部16は、入力された3つの標識点の位置を調整するための操作を入力すること(以下、標識点移動操作と呼ぶ)も可能である。具体的には、まず、入力部16は、位置調整を所望する標識点が表示されている断面画像を指定する操作(例えば、マウスにおけるクリック操作)を入力する。このとき、入力部16は、指定された断面画像上における標識点を移動させる操作(例えば、マウスのカーソルを標識点上に移動させてクリックし、次いで標識点をドラッグさせる操作)を入力してもよい。
 入力部16は、指定された断面画像を移動させるための操作(例えば、マウスによるブラウズ操作)を入力する。ブラウズ操作により指定された断面画像が移動されると、入力部16は、移動された断面画像の位置に関する位置情報を、後述する断面特定部18に出力する。なお、入力部16は、断面画像の移動後、指定された断面画像上における標識点に関するドラッグを入力することも可能である。なお、第1軸および第2軸は、標識点の移動に合わせて、適宜移動されてもよい。
 また、入力部16は、第1軸及び第2軸を移動させる操作を入力すること(以下、軸移動操作と呼ぶ)も可能である。例えば、入力部16は、第1軸または第2軸上にマウスのカーソルを移動させてクリックする操作を入力する。これにより、移動される軸が特定される。次いで、入力部16は、特定された軸をドラッグさせる操作を入力する。
 なお、標識点移動操作および軸移動操作において、移動対象は、並進、回転などにより移動されてもよい。また、入力部16は、断面画像を移動させる(並進、回転など)操作を入力することも可能である。
 また、第1断面画像および第2断面画像における少なくとも一つの断面画像は、標識点移動操作と軸移動操作とのうち少なくとも一方の操作とは独立に固定されて表示されてもよい。例えば、第1、第2断面画像各々における冠状断面画像は、第2軸(例えば、心臓の短軸)に関する一つの標識点(左心室流出路)の移動操作とは独立に、固定して表示される。すなわち、第1、第2断面画像各々における冠状断面画像は、第2軸に関する一つの標識点の移動操作とは独立に、非回転状態で表示される。
 断面特定部18は、入力部16により標識点移動操作が入力されたとき、3つの標識点の位置情報と、新たに決定させられた第1軸および第2軸とに基づいて、第1ボリュームデータおよび第2ボリュームデータとに対して、新たな直交3断面を特定する。新たな直交3断面は、例えば、3つの標識点を含む第1断面と、第1軸に直交し他の標識点(左心室流出路)を含む第2断面と、第1断面および第2断面に直交し第1軸を含む第3断面とである。断面特定部18は、軸移動操作に応じて、新たな直交3断面を特定してもよい。断面特定部18は、特定した断面を後述する断面画像発生部20に出力する。なお、断面特定部18により特定される3つの断面は、直交に限定されない。断面特定部18は、入力部16を介した入力操作などにより、任意の3断面を特定することも可能である。
 なお、3断面のうち2つの段面は、例えば、第1軸が断面画像の中心(以下、表示中心と呼ぶ)を通りかつ表示画面の縦軸に平行となるように決定されてもよい。また、3断面のうち2つの断面は、例えば、第2軸が表示中心を通り表示画面の縦軸に平行となるように決定されてもよい。
 断面特定部18は、第1軸に直交し、第1軸に関する2つの標識点(僧房弁および心尖部)の間の点を有する断面を、デフォルトの第2断面として特定してもよい。例えば、断面特定部18は、第1軸に直交し、第1軸に関する2つの標識点(僧房弁および心尖部)を結ぶ線分の中点を有する断面を、デフォルトの第2断面として特定する。
 なお、第1乃至第3断面は、それぞれ異なる解剖学的特徴を有していてもよい。具体的には、第1断面は、所定の臓器が心臓である場合、4つの内腔領域(右心房、右心室、左心房、左心室:以下、4ch(chamber)と呼ぶ)を含む断面(以下、4chビューと呼ぶ)である。すなわち、第1断面における解剖学的特徴は、4chである。第2断面は、所定の臓器が心臓である場合、心臓の短軸(Short Axis:以下、SAと呼ぶ)を有する断面(以下、SA像と呼ぶ)である。すなわち、第2断面における解剖学的特徴は、SAである。第3断面は、所定の臓器が心臓である場合、4つの内腔領域のうち2つの内腔領域(以下、2ch(chamber)と呼ぶ)を含む断面(以下、2chビューと呼ぶ)である。すなわち、第3断面における解剖学的特徴は、2chである。
 断面画像発生部20は、断面特定部18により特定された直交3断面(第1乃至第3断面)と、第1ボリュームデータとに基づいて、第1乃至第3断面にそれぞれ対応する複数の第3断面画像を発生する。断面画像発生部20は、断面特定部18により特定された直交3断面(第1乃至第3断面)と、第2ボリュームデータとに基づいて、第1乃至第3断面にそれぞれ対応する複数の第4断面画像を発生する。断面画像発生部20は、第3断面画像と第4断面画像とを表示部26に出力する。第3断面画像は、3つの標識点、第1軸、第2軸とともに、後述する表示部26に表示される。第4断面画像は、3つの標識点、第1軸、第2軸とともに、後述する表示部26に表示される。
 位置合わせ部22は、第1断面画像群における第1、第2軸と、第2断面画像群における第1、第2軸とを用いて、前記第1断面画像群に属する複数の第1断面画像と前記第2断面画像群に属する複数の第2断面画像とを位置合わせする。具体的には、位置合わせ部22は、第1断面画像における第1軸及び第2軸(以下、第1軸セットと呼ぶ)と、第2断面画像における第1軸及び第2軸(以下、第2軸セットと呼ぶ)とを用いて、第1断面画像に第2断面画像を位置合わせする。位置合わせ部22は、標識点移動操作または軸移動操作に応じて発生された第3断面画像における第1軸セットと、第4断面画像における第2軸セットとを用いて、第3断面画像に第4断面画像を位置合わせしてもよい。
 具体的には、位置合わせ部22は、第1軸セットにおける第1軸と第2軸と、第1軸と第2軸との交点(以下、第1軸交点と呼ぶ)とに、第2軸セットにおける第1軸と第2軸と、第1軸と第2軸との交点(以下、第2軸交点と呼ぶ)とを、それぞれ一致させるための移動量を決定する。
 移動量とは、例えば、平行移動量および回転量などである。位置合わせ部22は、平行移動量と回転量とに基づいて、第2断面画像(または第4断面画像)に関する座標系(以下、第1座標系と呼ぶ)を第1断面画像(または第3断面画像)に関する座標系(以下、第2座標系と呼ぶ)に変換するためのパラメータを決定する。パラメータとは、例えば、第1座標系に対する第2座標系の変換行列である。位置合わせ部22は、変換行列の決定により、第1断面画像に対する第2断面画像の位置合わせを完了する。位置合わせ部22は、変換行列を後述する重畳画像発生部24に出力する。
 重畳画像発生部24は、変換行列を用いて、第2断面画像を第1断面画像にそれぞれ重畳した複数の重畳画像を発生する。なお、重畳画像発生部24は、変換行列を用いて、第4断面画像を第3断面画像にそれぞれ重畳した複数の重畳画像を発生してもよい。以下、複数の重畳画像は、第2断面画像を第1断面画像にそれぞれ重畳した画像として説明する。
 具体的には、重畳画像発生部24は、変換行列を用いて、第2断面画像における横断面画像を第1断面画像における横断面画像に重畳することにより、横断面重畳画像を発生する。重畳画像発生部24は、変換行列を用いて、第2断面画像における矢状断面画像を第1断面画像における矢状断面画像に重畳することにより、矢状断面重畳画像を発生する。重畳画像発生部24は、変換行列を用いて、第2断面画像における冠状断面画像を第1断面画像における冠状断面画像に重畳することにより、冠状断面重畳画像を発生する。複数の重畳画像は、例えば、上記横断面重畳画像、矢状断面重畳画像、冠状断面重畳画像である。
 なお、第1断面画像各々に第2断面画像各々を重畳する割合を示す重畳率が入力部16を介して入力されると、重畳画像発生部24は、重畳率に対応する重畳画像を発生してもよい。重畳画像発生部24は、発生した複数の重畳画像を、表示部26に出力する。例えば、重畳率が0.5の場合、第1断面画像(または第3断面画像)と第2断面画像(または第4断面画像)とは、1:1で重畳される。また、重畳率が1の場合、第1断面画像に第2断面画像が重畳されずに、重畳画像は、第1断面画像と一致する。また、重畳率が0の場合、第1断面画像は表示されずに、重畳画像は、第2断面画像と一致する。
 重畳画像発生部24は、模式画像に3つの標識点の位置と第1軸の位置と第2軸位置とを重畳した重畳模式画像を発生する。なお、重畳画像発生部24は、3つの標識点の入力、標識点移動操作または軸移動操作が入力部16を介して入力された場合、標識点の位置情報と決定された第1軸と第2軸とに基づいて、重畳模式画像を新たに発生してもよい。重畳画像発生部24は、発生した重畳模式画像を、第1断面画像および第2断面画像より小さいサイズで、第1断面画像および第2断面画像とともに表示部26に出力する。なお、重畳模式画像は、3つの標識点または第1軸、第2軸を入力するためのガイドとして、3つの標識点を入力前の第1断面画像および第2断面画像とともに表示されてもよい。
 表示部26は、第1断面画像を、3つの標識点と第1軸と第2軸とともに表示する。表示部26は、第2断面画像を、3つの標識点と第1軸と第2軸とともに表示する。入力部16を介して標識点移動操作または軸移動操作が入力されると、表示部26は、第3断面画像を、3つの標識点と第1軸と第2軸とともに表示する。加えて、表示部26は、第4断面画像を、3つの標識点と第1軸と第2軸とともに表示する。
 なお、表示部26は、第1乃至第4断面画像各々における複数の断面画像各々を表示する表示領域を、断面画像に関する解剖学的特徴に応じて、予め決定していてもよい。なお、解剖学的特徴に応じた表示領域の位置は、入力部16を介して、適宜変更可能である。表示部26は、例えば、表示領域を縦横に4分割した複数の部分領域各々に、複数の解剖学的特徴にそれぞれ対応する断面画像各々を割り当てて表示する。例えば、表示部26は、解剖学的特徴が4chである断面画像を、表示領域の左下の領域に表示する。表示部26は、解剖学的特徴がSAである断面画像を、表示領域の左上の領域に表示する。表示部26は、解剖学的特徴が2chである断面画像を、表示領域の右上の領域に表示する。表示部26は、レンダリング画像を、表示領域の右下の領域に表示する。また、表示部26は、入力部16を介して標識点移動操作または軸移動操作が入力されたとしても、解剖学的特徴に対応する表示位置を維持して、複数の断面画像を表示する。これにより、表示部26は、複数の解剖学的特徴にそれぞれ対応付けられた複数の部分領域に、複数の断面画像をそれぞれ表示することができる。すなわち、表示部26における複数の部分領域各々には、異なる解剖学的特徴を有する断面画像が表示される。
 図2は、第1ボリュームデータに基づいて発生された3つの第1断面画像とレンダリング画像とを示す図である。図2示すように、3つの第1断面画像は、第1横断面画像Aと、第1冠状断面画像Cと、第1矢状断面画像Sである。3つの断面画像各々には、心臓を模式的に示す模式画像に3つの標識点と第1軸第2軸とを重畳した重畳模式画像が表示される。
 図2における第1横断面画像Aには、僧房弁の位置に標識点Mが入力される。標識点Mは、縦線を有する円で示されている。加えて、第1横断面画像Aには、左室流出路(または大動脈弁)の位置に、標識点Aoが入力される。図2において、標識点Aoは、斜線を有する円で示されている。
 図2に示すように、第1矢状断面画像Sには、僧房弁の位置に標識点Mが入力される。加えて、図2に示すように、第1矢状断面画像Sには、心尖部の位置に、標識点Apが入力される。図2において、標識点Apは、横線を有する円で示されている。
 図2における第1冠状断面画像Cには、僧房弁の位置に標識点Mが入力される。加えて、図2に示すように、第1冠状断面画像Cには、心尖部の位置に、標識点Apが入力される。さらに、図2に示すように、第1冠状断面画像Cには、左室流出路(または大動脈弁)の位置に、標識点Aoが入力される。
 なお、図2において、3つの標識点の表示は、円の内部のテクスチャの違いで示しているが、実際には、色、線種(実線、破線、鎖線など)、太さなどにより、3つの標識点の違いを表示してもよい。また、図2において、第1軸及び第2軸は、黒色の実線で示しているが、実際には、色、線種(実線、破線、鎖線など)、太さなどにより、2つの軸の違いを表示してもよい。
 図3は、3つの標識点の入力前において、第1断面画像のうちの一つの断面画像とともに重畳模式画像を示す図である。図3に示すように、重畳模式画像は、3つの標識点を入力するためのナビゲーションとして表示される。
 図4は、3つの標識点各々の入力に応じて、重畳模式画像が更新される一例を示す図である。図4のaは、3つの標識点の入力前の重畳模式画像(ナビゲーション表示)を示している。
 第1断面画像または第2断面画像に標識点M(僧房弁の位置)が入力されると、図4のbに示すように、ナビゲーション表示に標識点Mが重畳して表示される。第1断面画像または第2断面画像に標識点Ap(心尖部の位置)が入力されると、図4のcに示すように、ナビゲーション表示に標識点Mと標識点Apとが重畳して表示される。第1断面画像または第2断面画像に標識点Ao(左室流出路(大動脈弁)の位置)が入力されると、図4のdに示すように、ナビゲーション表示に標識点Mと標識点Apとが重畳して表示される。
 なお、図4は、僧房弁の位置を入力し、次いで心尖部の位置を入力し、最後に左室流出路(大動脈弁)の位置を入力する順序に対応した複数の重畳模式画像を示している。本実施形態においては、3つの標識点の入力順序に限定されず、どのような入力順序であってもよい。
 図5は、第2ボリュームデータに基づいて発生された3つの第2断面画像の一例を示す図である。なお、図5において、第2ボリュームデータに基づいて発生されたレンダリング画像は示していない。図5示すように、3つの第2断面画像は、第2横断面画像Aと、第2冠状断面画像Cと、第2矢状断面画像Sである。3つの断面画像各々には、心臓を模式的に示す模式画像に3つの標識点と第1軸第2軸とを重畳した重畳模式画像が表示される。
 図5における第2横断面画像Aには、僧房弁の位置に標識点Mが入力される。標識点Mは、縦線を有する円で示されている。加えて、第2横断面画像Aには、左室流出路(または大動脈弁)の位置に、標識点Aoが入力される。図5において、標識点Aoは、斜線を有する円で示されている。
 図5に示すように、第2矢状断面画像Sには、僧房弁の位置に標識点Mが入力される。加えて、図5に示すように、第1矢状断面画像Sには、心尖部の位置に、標識点Apが入力される。図5において、標識点Apは、横線を有する円で示されている。
 図5における第2冠状断面画像Cには、僧房弁の位置に標識点Mが入力される。加えて、図5に示すように、第2冠状断面画像Cには、心尖部の位置に、標識点Apが入力される。さらに、図5に示すように、第1冠状断面画像Cには、左室流出路(または大動脈弁)の位置に、標識点Aoが入力される。
 なお、図5において、3つの標識点の表示は、円の内部のテクスチャの違いで示しているが、実際には、色、線種(実線、破線、鎖線など)、太さなどにより、3つの標識点の違いを表示してもよい。また、図5において、第1軸及び第2軸は、黒色の実線で示しているが、実際には、色、線種(実線、破線、鎖線など)、太さなどにより、2つの軸の違いを表示してもよい。
 なお、図2と図5との表示は、入力部16による操作を介して、適宜切り替え可能である。
 図6は、第1断面画像各々において、心軸(第1軸)の方向の表現に関する一例を示す図である。心軸の方向は、第1軸の両端における2つの標識点(標識点Mと標識点Ap)により示される。標識点Mと標識点Apとは、常に表示されてもよいし、マウスの動きに連動したカーソルの位置が、2つの標識点のうち少なくとも一方に近づくと表示されてもよい。
 図7は、重畳率が0.5(CT断面画像(第1または第3断面画像)とSPECT断面画像(第2または第4断面画像))であって、CT断面画像における第1軸セット(以下、CT心軸と呼ぶ)と第1軸交点と、SPECT断面画像における第2軸セット(以下、SPECT心軸と呼ぶ)と第2交点との位置合わせの一例を示す図である。図7に示すように、第2軸交点がカーソルにより指定(ドラッグ:Drag)され、第2軸交点を第1軸交点に移動させるように、カーソルが移動される。カーソルの移動とともに、第1軸交点に第2軸交点が移動される。第1軸交点と第2軸交点とが一致されると、第1軸セット第2軸セットとが位置合わせされる。なお、第1軸交点が第2軸交点に移動されてもよい。
 制御部28は、図示していない中央処理装置(Central Processing Unit:以下、CPUと呼ぶ)、メモリ等を有する。制御部28は、本医用画像処理装置1の中枢として機能する。具体的には、制御部28は、入力部16を介して入力された入力操作に応じて、記憶部12から制御プログラムなどを読み出して自身のメモリ上に展開する。制御部28は、展開した制御プログラムを実行することにより、本医用画像処理装置1の各部を制御する。
 図13は、解剖学的特徴に応じて、断面画像を部分領域に表示した一例を示す図である。図13に示すように、4chビュー(冠状断面画像)は、表示領域のうち左下の部分領域に表示される。図13に示すように、SA像(横断面画像)は、表示領域のうち左上の部分領域に表示される。図13に示すように、2chビュー(矢状断面画像)は、表示領域のうち右上の部分領域に表示される。表示部26は、入力部16を介して標識点移動操作または軸移動操作が入力されたとしても、4chビュー、2chビュー、SA像の表示位置は維持される。
 (2軸調整位置合わせ機能) 
 2軸調整位置合わせ機能とは、第1断面画像上に入力された3つ標識点に基づいて決定された第1軸セットと、第2断面画像上に入力された3つ標識点に基づいて決定された第2軸セットとを調整して位置合わせすることにより、第1断面画像に第2断面画像を位置合わせする機能である。以下、2軸調整位置合わせ機能に関する処理(以下、2軸調整位置合わせ処理と呼ぶ)について説明する。
 図8は、2軸調整位置合わせ処理の処理手順一例を示すフローチャートである。 
 複数の第1断面画像と複数の第2断面画像とが、位置合わせされる(ステップSa1)。ステップSa1における位置合わせは、例えば、パターンマッチング、相関マッチングなどによる自動位置合わせである。第1断面画像および第2断面画像が、表示部26に表示される(ステップSa2)。第1断面画像及び第2断面画像上に3つの標識点が入力される(ステップSa3)。3つの標識点に基づいて、第1軸と第2軸とがそれぞれ決定される(ステップSa4)。
 第1軸と第2軸とに基づいて、第1乃至第3断面が特定される(ステップSa5)。第1乃至第3断面と第1ボリュームデータとに基づいて、第1乃至第3断面にそれぞれ対応する複数の第3断面画像が発生される(ステップSa6)。第1乃至第3断面と第2ボリュームデータとに基づいて、第1乃至第3断面にそれぞれ対応する複数の第4断面画像が発生される(ステップSa7)。
 第3断面画像と第4断面画像とが表示部26に表示される(ステップSa8)。第3断面画像に関する第1軸セットと第1軸交点と、第4断面画像に関する第2軸セットと第2軸交点とを用いて、第3断面画像に第4断面画像が位置合わせされる(ステップSa9)。この位置合わせにより、変換行列が決定される。入力部16を介して、重畳率が入力される。第3断面画像に第4断面画像が入力された重畳率で重畳することにより、重畳画像が発生される(ステップSa10)。重畳画像が表示される(ステップSa11)。
 (第1の変形例) 
 本実施形態との相違は、重畳率の値に応じて、第1断面画像における第1軸セットまたは第2断面画像における第2軸セットを調整可能な入力状態を提供することにある。
 表示部26は、第1断面画像に第2断面画像を重畳する重畳率を、重畳画像とともに表示する。具体的には、表示部26は、例えば、重畳率をスクロールさせる重畳率スクロールバーを表示する。表示部26は、重畳率スクロールバー上に、表示されている重畳画像の重畳率を示すつまみを表示する。表示部26は、重畳率スクロールバーにおけるつまみの位置に応じた重畳率を重畳画像発生部24と入力部16とに出力する。
 重畳画像発生部24は、表示部26に表示された重畳率スクロールバーにおけるつまみの位置に対応する重畳率に対応する重畳画像を発生する。
 記憶部12は、第1軸セットと第2軸セットとのいずれか一方の調整の入力に関する所定の値を記憶する。所定の値は、例えば、0.5(第1断面画像と第2断面画像とが1対1で重畳される値)である。なお、所定の値は、入力部16を介して適宜変更可能である。
 入力部16は、重畳率スクロールバーにおけるつまみの位置を入力する。具体的には、入力部16は、重畳率スクロールバーにおけるつまみの位置を、例えばカーソルなどにより移動させる。入力部16は、つまみの位置に応じて、第1軸セットまたは第2軸セットの位置調整のための入力が可能な状態となる。
 具体的には、つまみの位置に対応する重畳率が所定の値以上の場合、入力部16は、第1軸セット、すなわち第1断面画像上に決定された第1軸および第2軸の調整が可能な状態となる。すなわち、つまみの位置(重畳率)が所定の値以上である場合、入力部16は、第1断面画像上における第1軸および第2軸(CT画像における心軸など)を編集可能な状態にさせる。
 また、つまみの位置に対応する重畳率が所定の値未満の場合、入力部16は、第2軸セット、すなわち第2断面画像上に決定された第1軸および第2軸の位置調整が可能な状態となる。すなわち、つまみの位置(重畳率)が所定の値未満である場合、入力部16は、第2断面画像上における第1軸および第2軸(SPECT画像における心軸など)を編集可能な状態にさせる。
 すなわち、入力部16による入力されたつまみの位置に応じて、調整される第1軸セットと第2軸セットとをそれぞれ切り替えることができる。このとき、表示部26には、つまみの位置に応じた重畳率を有する重畳画像が、調整対象の軸セットともに表示される。
 図9は、重畳率に対応する重畳画像を、重畳率スクロールバー、つまみ、カーソルとともに示す図である。図9に示すように、例えば、重畳率スクロールバーにおけるつまみが、所定の値(重畳率=0.5)と1の重畳率との間に位置するとき、第1断面画像上における第1軸セット(第1軸と第2軸)は、入力部16を介して調整可能(CT軸調整)となる。また、図9に示す重畳率スクロールバーにおいて、つまみが、所定の値(重畳率=0.5)と0の重畳率との間に位置するとき、第2断面画像上における第2軸セット(第1軸と第2軸)は、入力部16を介して調整可能(SPECT軸調整)となる。
 図14は、断面画像各々に重畳率スクロールバーおよびつまみを表示した一例を示す図である。図14に示すように、3つの断面画像各々に対して、重畳率スクロールバーおよびつまみが表示される。これにより、断面画像各々においてつまみの位置を移動させることにより、第1、第2断面画像における重畳率を変更することができる。
 (軸調整入力機能) 
 軸調整入力機能とは、入力された重畳率に応じて第1軸セットまたは第2軸セットの調整に関する入力が可能な状態を提供することにある。以下、軸調整入力機能に関する処理(以下、軸調整入力処理と呼ぶ)について説明する。
 図10は、軸調整入力処理の手順の一例を示すフローチャートである。図10におけるフローチャートは、例えば、図8におけるフローチャートのステップSa9の処理以降に対応する。例えば、図10におけるフローチャートは、例えば、図8におけるフローチャートのステップSa9、Sa10の処理に置換して用いてもよい。
 入力部16を介して、重畳率スクロールバーにおける重畳率が入力される(ステップSb1)。入力された重畳率が所定の値以上である場合(ステップSb2)、第1断面画像(または第3断面画像)に関する第1、第2軸(第1軸セット)の位置調整のための入力待ち状態がONとなる(ステップSb3)。入力された重畳率が所定の値未満である場合(ステップSb3)、第2断面画像(または第4断面画像)に関する第1、第2軸(第2軸セット)の位置調整のための入力待ち状態がONとなる(ステップSb4)。
 入力部16を介して、第1軸セットまたは第2軸セットにおける第1軸と第2軸とが調整される(ステップSb5)。第1軸と第2軸との位置調整が終了していなければ(ステップSb6)、ステップSb1乃至ステップSb5の処理が繰り返される。第1軸、第2軸の位置調整が終了していれば(ステップSb6)、第1断面画像(または第3断面画像)および第2断面画像(または第4断面画像)各々の第1、第2軸を用いて、第1断面画像(または第3断面画像)に第2断面画像(または第4断面画像)を位置合わせされる(ステップSb7)。
 第1断面画像(または第3断面画像)を第2断面画像(または第4断面画像)に重畳した重畳画像が発生される(ステップSb8)。このとき、重畳画像に関する重畳率は、入力部16を介して新たに入力されてもよいし、ステップSb1で最終的に入力された重畳率を用いてもよい。発生された重畳画像が、表示部26に表示される(ステップSb9)。
 (第2の変形例) 
 本実施形態および第1の変形例との相違は、重畳率の値に応じて、第1軸セット、第2軸セット、第1断面画像、第2断面画像のうちいずれか一つを調整可能な入力状態を提供することにある。
 記憶部12は、第1軸セット、第2軸セット、第1断面画像、第2断面画像のうちいずれか一つの調整の入力に関する第1の値と第2の値とを記憶する。第1の値は、第2の値より大きい。第1の値は、例えば、0.6(第1断面画像が0.6、第2断面画像が0.4の割合で重畳される重畳率)である。また、第2の値は、例えば、0.4(第1断面画像が0.4、第2断面画像が0.6の割合で重畳される重畳率)である。なお、第1、第2の値は、入力部16を介して適宜変更可能である。
 入力部16は、重畳率スクロールバーにおけるつまみの位置を入力する。入力部16は、つまみの位置に応じて、第1軸セット、第2軸セット、第1断面画像、第2断面画像の位置調整のための入力が可能な状態となる。
 具体的には、つまみの位置に対応する重畳率が第1の値を超える場合、入力部16は、第1軸セットの位置調整が可能な状態となる。すなわち、つまみの位置(重畳率)が第1の値を超えた場合、入力部16は、第1断面画像上における第1軸および第2軸(CT画像における心軸など)を編集可能な状態にさせる。
 また、つまみの位置に対応する重畳率が第2の値未満の場合、入力部16は、第2軸セット、すなわち第2断面画像上に決定された第1軸および第2軸の調整が可能な状態となる。すなわち、つまみの位置(重畳率)が第2の値未満である場合、入力部16は、第2断面画像上における第1軸および第2軸(SPECT画像における心軸など)を編集可能な状態にさせる。
 すなわち、入力部16により入力されたつまみの位置に応じて、調整される第1軸セットと第2軸セットとをそれぞれ切り替えることができる。このとき、表示部26には、つまみの位置に応じた重畳率を有する重畳画像が、調整対象の軸セットともに表示される。
 つまみの位置に対応する重畳率が第1の値と第2の値との間に位置する場合、入力部16は、第1断面画像または第2断面画像の位置調整が可能な状態となる。このとき、入力部16は、第1断面画像または第2断面画像を編集可能な状態にさせる。具体的には、例えば、0.5の重畳率と第1の値との間につまみの位置に対応する重畳率が位置する場合、入力部16は、第1断面画像の位置調整が可能な状態となる。また、例えば、0.5の重畳率と第2の値との間につまみの位置に対応する重畳率が位置する場合、入力部16は、第2断面画像の位置調整が可能な状態となる。
 図11は、重畳率に対応する重畳画像を、重畳率スクロールバー、つまみ、カーソルとともに示す図である。図11に示すように、例えば、重畳率スクロールバーにおけるつまみが、第1の値(重畳率=0.6)と1の重畳率との間に位置するとき、第1断面画像上における第1軸セット(第1軸と第2軸)は、入力部16を介して調整可能となる。また、図11に示す重畳率スクロールバーにおいて、つまみが、第2の値(重畳率=0.4)と0の重畳率との間に位置するとき、第2断面画像上における第2軸セット(第1軸と第2軸)は、入力部16を介して調整可能となる。
 さらに、図11に示す重畳率スクロールバーにおいて、つまみが、第1の値(重畳率=0.6)と0.5の重畳率との間に位置するとき、第1断面画像各々は、入力部16を介して調整可能となる。加えて、図11に示す重畳率スクロールバーにおいて、つまみが、第2の値(重畳率=0.4)と0.5の重畳率との間に位置するとき、第2断面画像各々は、入力部16を介して調整可能となる。
 (位置調整入力機能) 
 位置調整入力機能とは、入力された重畳率に応じて第1軸セットと第2軸セットと第1断面画像と第2断面画像とのうちいずれかひとつの位置調整に関する入力が可能な状態を提供することにある。以下、位置調整入力機能に関する処理(以下、位置調整入力処理と呼ぶ)について説明する。
 図12は、位置調整入力処理の手順の一例を示すフローチャートである。図12におけるフローチャートは、例えば、図8におけるフローチャートのステップSa9の処理以降に対応する。また、例えば、図12におけるフローチャートは、例えば、図8におけるフローチャートのステップSa9、Sa10の処理に置換して用いてもよい。
 入力部16を介して、重畳率スクロールバーにおける重畳率が入力される(ステップSc1)。入力された重畳率が第1の値を超える場合(ステップSc2)、第1断面画像(または第3断面画像)に関する第1、第2軸(第1軸セット)の位置調整のための入力待ち状態がONとなる(ステップSc3)。
 入力された重畳率が第2の値未満である場合(ステップSc2およびステップSc4)、第2断面画像(または第4断面画像)に関する第1、第2軸(第2軸セット)の位置調整のための入力待ち状態がONとなる(ステップSc5)。入力部16を介して、第1軸セットまたは第2軸セットにおける第1軸と第2軸とが調整される(ステップSc6)。
 入力された重畳率が第1の値と第2の値との間に位置する場合(ステップSc2およびステップSc4)、第1断面画像(または第3断面画像)または、第2断面画像(または第4断面画像)の位置調整(微調整)のための入力待ち状態がONとなる(ステップSc7)。入力部16を介して、第1断面画像の位置または第2断面画像の位置が調整される(ステップSc8)。
 なお、第1断面画像の位置調整と第2断面画像の位置調整とのうちいずれか一方が位置調整の対象として選択するときは、例えば、以下のように処理がなされてもよい。入力された重畳率が0.5と第1の値との間に位置する場合、第1断面画像(または第3断面画像)の位置調整のための入力待ち状態がONとなる。入力された重畳率が0.5と第2の値との間に位置する場合、第2断面画像(または第4断面画像)の位置調整のための入力待ち状態がONとなる。
 第1軸セットと第2軸セットと第1断面画像(または第3断面画像)と第2断面画像(または第4断面画像)との位置調整が終了していなければ(ステップSc9)、ステップSc1乃至ステップSc8の処理が繰り返される。第1軸セットと第2軸セットと第1断面画像(または第3断面画像)と第2断面画像(または第4断面画像)との位置調整が終了していれば(ステップSc9)、第1断面画像(または第3断面画像)および第2断面画像(または第4断面画像)各々の第1、第2軸を用いて、第1断面画像(または第3断面画像)に第2断面画像(または第4断面画像)を位置合わせされる(ステップSc10)。
 第1断面画像(または第3断面画像)を第2断面画像(または第4断面画像)に重畳した重畳画像が発生される(ステップSc11)。このとき、重畳画像に関する重畳率は、入力部16を介して新たに入力されてもよいし、ステップSc1で最終的に入力された重畳率を用いてもよい。発生された重畳画像が、表示部26に表示される(ステップSc12)。
 以上に述べた構成によれば、以下のような効果を得ることができる。 
 本実施形態における医用画像処理装置1によれば、操作者が所望する位置合わせしたい複数の断面画像(第1断面画像および第2断面画像)上に入力された3つの標識点に基づいて、互いに直交する2つの軸を、複数の断面画像各々について決定することができる。次いで、決定された2つの軸と3つの標識点とに基づいて、複数の断面画像の位置合わせを実行することができる。加えて、本実施形態における医用画像処理装置1によれば、3つの標識点と2つの軸とに基づいて、位置合わせの処理に連動して3つの標識点と2つの軸との観察に適した断面を決定し、決定された断面に関する断面画像を表示することができる。
 これらのことから、本実施形態における医用画像処理装置1によれば、操作者の入力操作による位置合わせの調整において、位置合わせの調整に関する情報および位置合わせの結果などを操作者に簡便に表示することができる。加えて、位置合わせの調整の操作性が、操作者にとって簡便にすることができる。また、例えば、第2断面画像群が複数の超音波画像であって、第2ボリュームデータが所定の臓器の全領域を有さない超音波ボリュームデータであっても、位置合わせを実行することができる。以上のことから、本実施形態によれば、操作者による入力操作の負担を軽減し、操作者の入力操作による位置合わせの調整を簡便に実行することができる。
 例えば、心臓に関する領域を含む複数断面にそれぞれ対応する複数の第1断面画像と複数の第2断面画像とを位置合わせするとき、3つの標識点である僧房弁、心尖部、左室流出路の入力において、ナビゲーションとして重畳模式画像を表示することができる。また、2軸として心軸長軸(僧房弁と心尖部とを結ぶ第1軸)と心軸長軸に直交する心軸短軸(第1軸に直交し左室流出部を通る軸)とを表示することができる。
 加えて、3つの標識点と心軸長軸および心軸短軸の調整に連動して、心軸長軸に沿った長軸像と、心軸短軸に沿った短軸像と(以下、心軸MPR像と呼ぶ)を表示することができる。これにより、心軸長軸の位置と心軸短軸の位置とにおいて、決定されたこれら2軸の位置の確かさの確認のための表示(例えば、第3、第4断面画像の表示)を実行することができる。
 また、本実施形態における医用画像処理装置1によれば、複数の断面画像各々における解剖学的特徴に応じた位置に、解剖学的特徴を有する断面画像を表示することができる。例えば、解剖学的特徴が、4ch、2ch、SAである場合、4chビュー、2chビュー、SA像を、標識点移動操作または軸移動操作が入力されたとしても、4chビュー、2chビュー、SA像の表示位置は維持される。これにより、標識点移動操作または軸移動操作の入力により表示される断面画像が変化したとしても、表示される断面画像における解剖学的特徴は維持されるため、操作者は、位置合わせの調整を簡便に実行することができる。
 加えて、本実施形態における医用画像処理装置1は、第1軸に基づいて、第2断面を特定することができる。これにより、第2断面の特定を簡便に実行することができる。また、本実施形態における医用画像処理装置1は、第2軸に関する標識点の移動操作が入力されたとき、例えば、第2断面に関する断面画像(SA像)を、移動操作とは独立に固定して表示することができる。これにより、第2軸に関する標識点の移動操作が入力されたとしても第2断面に関する断面画像(SA像)は不動であるため、操作者は、位置合わせの調整を簡便に実行することができる。
 また、本実施形態の第1の変形例によれば、入力された重畳率の値に応じて、第1軸セットまたは第2軸セットの調整を実行することができる。これにより、操作者は、重畳画像を確認または目視しながら、第1軸セットまたは第2軸セットにおける第1軸および第2軸を調整することができる。このことから、本実施形態の第1の変形例における医用画像処理装置1によれば、医用画像の位置合わせの調整において、操作者への負担を軽減し、診断効率を向上させることができる。
 また、本実施形態の第2の変形例によれば、入力された重畳率の値に応じて、第1軸セットまたは第2軸セットにおける第1軸の位置と第2軸の位置との調整、第1断面画像(または第3断面画像)の位置または第2断面画像(または第4断面画像)の位置の調整を実行することができる。これにより、操作者は、重畳画像を確認または目視しながら、第1軸セットまたは第2軸セットにおける第1軸および第2軸を調整することができる。このことから、本実施形態の第1の変形例における医用画像処理装置1によれば、医用画像の位置合わせの調整において、操作者への負担を軽減し、診断効率を向上させることができる。
 なお、本実施形態は、サーバクライアントシステムに実装されてもよい。サーバクライアントシステムにおいて、クライアントは、入力部16および表示部26などを有する。サーバクライアントシステムにおいて、サーバは、インターフェース部10、記憶部12、軸決定部14、断面特定部18、断面画像発生部20、位置合わせ部22、重畳画像発生部24、制御部28等を有する。本実施形態に係る各機能に関する処理(例えば、2軸調整位置合わせ処理、軸調整入力処理、位置調整入力等)は、クライアントの入力部16を介した操作者の指示により、サーバにおいて実行される。
 加えて、実施形態に係る各機能は、当該処理を実行する医用画像処理プログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD-ROM、DVDなど)、半導体メモリなどの記憶媒体に格納して頒布することも可能である。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 1…医用画像処理装置、10…インターフェース部、12…記憶部、14…軸決定部、16…入力部、18…断面特定部、20…断面画像発生部、22…位置合わせ部、24…重畳画像発生部、26…表示部、28…制御部

Claims (13)

  1.  第1断面画像群と第2断面画像群とにおいて、少なくとも3つの標識点を入力する入力部と、
     前記第1断面画像群および前記第2断面画像群各々において、前記標識点における2点を結ぶ第1軸と、前記標識点のうち前記2点とは異なる他の点を通り前記第1軸に直交する第2軸とを決定する軸決定部と、
     前記第1断面画像群における前記第1軸および前記第2軸と、前記第2断面画像群における前記第1軸および前記第2軸とを用いて、前記第1断面画像群に属する複数の第1断面画像と前記第2断面画像群に属する複数の第2断面画像とを位置合わせする位置合わせ部と、
     を具備する医用画像処理装置。
  2.  前記位置合わせ部は、
     前記第1断面画像における前記第1軸に前記第2断面画像における前記第1軸を移動させ、前記第1断面画像における前記第2軸に前記第2断面画像における前記第2軸を移動させることにより、前記第1断面画像に前記第2断面画像を位置合わせする請求項1に記載の医用画像処理装置。
  3.  前記入力部により前記標識点を移動させる移動操作が入力されたとき、前記3つの標識点の位置情報と前記第1軸と前記第2軸とに基づいて、前記3つの標識点を含む第1断面と、前記第1軸に直交し前記他の点を含む第2断面と、前記第1断面および前記第2断面に直交し前記第1軸を含む第3断面とを、前記第1断面画像に関する第1ボリュームデータおよび前記第2断面画像に関する第2ボリュームデータに対して特定する断面特定部と、
     前記特定された第1乃至第3断面と前記第1ボリュームデータとに基づいて前記第1乃至第3断面にそれぞれ対応する複数の第3断面画像を発生し、前記特定された第1乃至第3断面と前記第2ボリュームデータとに基づいて前記第1乃至第3断面にそれぞれ対応する複数の第4断面画像を発生する断面画像発生部と、
     前記第3断面画像と前記第4断面画像とを、前記3つの標識点と前記第1、第2軸とともに表示する表示部とをさらに具備し、
     前記位置合わせ部は、前記第3断面画像における前記第1軸および前記第2軸と、前記第4断面画像における前記第1軸および前記第2軸とを用いて、前記第3断面画像に前記第4断面画像を位置合わせする請求項1に記載の医用画像処理装置。
  4.  前記第1乃至第3断面は、被検体における所定の臓器の領域に関して、それぞれ異なる解剖学的特徴を有し、
     前記表示部は、前記第3断面画像および前記第4断面画像を、前記解剖学的特徴を維持して表示する請求項3に記載の医用画像処理装置。
  5.  前記所定の臓器の領域は、心臓の領域であって、
     前記第1断面における解剖学的特徴は、前記心臓の領域における4つの内腔領域であって、
     前記第2断面における解剖学的特徴は、前記心臓の領域における短軸であって、
     前記第3断面における解剖学的特徴は、前記心臓の領域における2つの内腔領域である請求項4に記載の医用画像処理装置。
  6.  前記入力部により前記標識点を移動させる移動操作が入力されたとき、前記3つの標識点の位置情報と前記第1軸と前記第2軸とに基づいて、前記3つの標識点を含む第1断面と、前記第1軸に直交し前記2点の間の点を有する第2断面と、前記第1断面および前記第2断面に直交し前記第1軸を含む第3断面とを、前記第1断面画像に関する第1ボリュームデータおよび前記第2断面画像に関する第2ボリュームデータに対して特定する断面特定部と、
     前記特定された第1乃至第3断面と前記第1ボリュームデータとに基づいて前記第1乃至第3断面にそれぞれ対応する複数の第3断面画像を発生し、前記特定された第1乃至第3断面と前記第2ボリュームデータとに基づいて前記第1乃至第3断面にそれぞれ対応する複数の第4断面画像を発生する断面画像発生部と、
     前記第3断面画像と前記第4断面画像とを、前記3つの標識点と前記第1、第2軸とともに表示する表示部とを更に具備し、
     前記位置合わせ部は、前記第3断面画像における前記第1軸および前記第2軸と、前記第4断面画像における前記第1軸および前記第2軸とを用いて、前記第3断面画像に前記第4断面画像を位置合わせする請求項1に記載の医用画像処理装置。
  7.  前記表示部は、前記他の点に対して前記移動操作が入力されたとき、前記第3断面画像と前記第4断面画像とにおける前記第2断面に関する断面画像を、前記移動操作とは独立に固定して表示する請求項3に記載の医用画像処理装置。
  8.  前記第1断面画像および前記第2断面画像上に、前記3つの標識点と前記第1軸と前記第2軸とを表示する表示部と、
     前記位置合わせされた前記第1断面画像に前記第2断面画像を重畳した重畳画像を発生する重畳画像発生部とをさらに具備し、
     前記入力部は、
     前記重畳画像において、前記第1断面画像に前記第2断面画像を重畳させる割合を示す重畳率を入力し、
     前記表示部は、
     前記入力された重畳率に応じた前記重畳画像を、前記第1軸と前記第2軸とともに表示する請求項1に記載の医用画像処理装置。
  9.  前記入力部は、
     前記重畳率が所定の値以上の場合、前記第1断面画像における前記第1、第2軸の位置調整のための入力が可能な状態となり、
     前記重畳率が前記所定の値未満の場合、前記第2断面画像に関する前記第1、第2軸の位置調整のための入力が可能な状態となる請求項8に記載の医用画像処理装置。
  10.  前記入力部は、
     前記重畳率が第1の値を超える場合、前記第1断面画像に関する前記第1、第2軸の位置調整のための入力が可能な状態となり、
     前記重畳率が前記第1の値より小さな第2の値未満の場合、前記第2断面画像に関する前記第1、第2軸の位置調整のための入力が可能な状態となり、
     前記重畳率が前記第1の値と第2の値との間に位置する場合、前記第1断面画像または前記第2断面画像の位置調整のための入力が可能な状態となる請求項8に記載の医用画像処理装置。
  11.  前記第1断面画像と前記第2断面画像とは、異なる医用画像診断装置各々により発生されたボリュームデータに関する断面画像である
    請求項1に記載の医用画像処理装置。
  12.  前記第1断面画像と前記第2断面画像との位置合わせにおいて、前記第1、第2断面画像にそれぞれ対応する断面を模式的に示す模式画像に前記標識点と前記第1軸と前記第2軸とを重畳した重畳模式画像を、前記第1断面画像および前記第2断面画像より小さいサイズで、前記第1断面画像または前記第2断面画像とともに表示する表示部をさらに具備する請求項1に記載の医用画像処理装置。
  13.  第1断面画像群と第2断面画像群とにおいて、少なくとも3つの標識点を入力し、
     前記第1断面画像群および前記第2断面画像群各々において、前記標識点における2点を結ぶ第1軸と、前記標識点のうち前記2点とは異なる他の点を通り前記第1軸に直交する第2軸とを決定し、
     前記第1断面画像群における前記第1軸および前記第2軸と、前記第2断面画像群における前記第1軸および前記第2軸とを用いて、前記第1断面画像群に属する複数の第1断面画像と前記第2断面画像群に属する複数の第2断面画像とを位置合わせする医用画像処理方法。
PCT/JP2014/064281 2013-05-30 2014-05-29 医用画像処理装置および医用画像処理方法 WO2014192875A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/924,190 US9679377B2 (en) 2013-05-30 2015-10-27 Medical image processing apparatus and a medical image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-114518 2013-05-30
JP2013114518 2013-05-30
JP2013-168262 2013-08-13
JP2013168262A JP6184244B2 (ja) 2013-05-30 2013-08-13 医用画像処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/924,190 Continuation US9679377B2 (en) 2013-05-30 2015-10-27 Medical image processing apparatus and a medical image processing method

Publications (1)

Publication Number Publication Date
WO2014192875A1 true WO2014192875A1 (ja) 2014-12-04

Family

ID=51988898

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/064281 WO2014192875A1 (ja) 2013-05-30 2014-05-29 医用画像処理装置および医用画像処理方法

Country Status (3)

Country Link
US (1) US9679377B2 (ja)
JP (1) JP6184244B2 (ja)
WO (1) WO2014192875A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016214650A (ja) * 2015-05-22 2016-12-22 株式会社日立製作所 超音波診断装置
US11216941B2 (en) * 2016-11-04 2022-01-04 Sony Corporation Medical image processing apparatus, medical image processing method, and program
JP6933489B2 (ja) * 2017-04-17 2021-09-08 キヤノンメディカルシステムズ株式会社 医用画像処理装置及びそれを含む超音波診断装置並びに医用画像処理プログラム
JP7120560B2 (ja) * 2017-07-03 2022-08-17 株式会社リコー 診断支援システム、診断支援方法及び診断支援プログラム
US11138746B2 (en) 2017-07-03 2021-10-05 Ricoh Company, Ltd. Diagnostic support system and diagnostic support method
KR102536267B1 (ko) * 2017-12-26 2023-05-25 삼성전자주식회사 슬라이더 트랙 및 슬라이더를 표시하기 위한 전자 장치 및 그의 동작 방법
US11200738B2 (en) * 2020-02-07 2021-12-14 Purdue Research Foundation Four-dimensional imaging system for cardiovascular dynamics
CN111754534B (zh) * 2020-07-01 2024-05-31 杭州脉流科技有限公司 基于深度神经网络的ct左心室短轴图像分割方法、装置、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529406A (ja) * 1999-07-26 2003-10-07 コンピュータライズド・メディカル・システムズ・インコーポレーテッド 画像の自動融合/整合システム及び方法
JP2009045284A (ja) * 2007-08-21 2009-03-05 Toshiba Corp X線診断システム
JP2011123045A (ja) * 2009-11-12 2011-06-23 Nippon Medical School 画像表示装置および画像表示プログラム並びに画像診断装置
US20130094738A1 (en) * 2011-10-14 2013-04-18 Sarah Bond Methods and apparatus for aligning sets of medical imaging data

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09218939A (ja) 1996-02-09 1997-08-19 Toshiba Corp 画像処理装置
JP4560643B2 (ja) * 2003-06-17 2010-10-13 株式会社Aze 呼吸気ct画像による換気分布計測方法
US7313430B2 (en) * 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
US7684604B2 (en) * 2004-04-26 2010-03-23 Koninklijke Philips Electronics N.V. Apparatus and method for planning magnetic resonance imaging
US7738683B2 (en) * 2005-07-22 2010-06-15 Carestream Health, Inc. Abnormality detection in medical images
JP5296543B2 (ja) * 2005-09-15 2013-09-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療用画像における面内及び面外動き補償方法及び装置
US8620051B2 (en) * 2006-12-22 2013-12-31 Salim Djerizi Registration of optical images of turbid media
CN101903909B (zh) * 2007-12-18 2013-05-29 皇家飞利浦电子股份有限公司 用于基于解剖学统计模型多模态融合成像数据的系统
JP5404277B2 (ja) 2009-09-24 2014-01-29 株式会社Aze 医用画像データ位置合せ装置、方法およびプログラム
US8498459B2 (en) * 2009-10-08 2013-07-30 Siemens Aktiengesellschaft System and method for verifying registration accuracy in digital medical images
JP5415245B2 (ja) 2009-12-14 2014-02-12 富士フイルム株式会社 医用画像表示装置および方法並びにプログラム
JP5479138B2 (ja) * 2010-02-09 2014-04-23 富士フイルム株式会社 医用画像表示装置、医用画像表示方法、及びそのプログラム
US8611692B2 (en) * 2011-09-26 2013-12-17 Northrop Grumman Systems Corporation Automated image registration with varied amounts of a priori information using a minimum entropy method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529406A (ja) * 1999-07-26 2003-10-07 コンピュータライズド・メディカル・システムズ・インコーポレーテッド 画像の自動融合/整合システム及び方法
JP2009045284A (ja) * 2007-08-21 2009-03-05 Toshiba Corp X線診断システム
JP2011123045A (ja) * 2009-11-12 2011-06-23 Nippon Medical School 画像表示装置および画像表示プログラム並びに画像診断装置
US20130094738A1 (en) * 2011-10-14 2013-04-18 Sarah Bond Methods and apparatus for aligning sets of medical imaging data

Also Published As

Publication number Publication date
JP2015006303A (ja) 2015-01-15
US9679377B2 (en) 2017-06-13
JP6184244B2 (ja) 2017-08-23
US20160063697A1 (en) 2016-03-03

Similar Documents

Publication Publication Date Title
JP6184244B2 (ja) 医用画像処理装置
JP4879901B2 (ja) 画像処理方法、画像処理プログラム、及び画像処理装置
JP5729907B2 (ja) X線診断装置
US7676072B2 (en) Image processing apparatus and image processing method
RU2711140C2 (ru) Редактирование медицинских изображений
JP6768862B2 (ja) 医用画像処理方法、医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
JP5355110B2 (ja) 診断支援装置及び診断支援方法
CN104853820B (zh) 位置确定装置
JP6711715B2 (ja) 画像処理装置および画像処理方法
JP2019521768A (ja) 光学的位置感知を使用する医療用ナビゲーション・システム及びその操作方法
JP5901930B2 (ja) 画像処理装置
US20170372473A1 (en) Medical imaging diagnosis apparatus and medical imaging processing apparatus
JP5121399B2 (ja) 画像表示装置
JP6840481B2 (ja) 画像処理装置および画像処理方法
JP5100041B2 (ja) 画像処理装置及び画像処理プログラム
JP6734111B2 (ja) 所見情報作成装置及びシステム
JP2014144156A (ja) 医用画像表示制御装置および方法並びにプログラム
JP6433190B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US9477900B2 (en) Medical image processing apparatus and medical image processing method
JP2018068640A (ja) 医用画像処理装置及び医用画像処理方法
Li et al. Generation of synthetic 4D cardiac CT images for guidance of minimally invasive beating heart interventions
JP5159195B2 (ja) 医用画像処理装置
JP6062215B2 (ja) 医用画像処理装置
Renner et al. Deformable image registration with a featurelet algorithm: implementation as a 3D-slicer extension and validation
EP4299029A2 (en) Cone beam computed tomography integration for creating a navigation pathway to a target in the lung and method of navigating to the target

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14804537

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14804537

Country of ref document: EP

Kind code of ref document: A1