WO2007043310A1 - 画像表示方法及び医用画像診断システム - Google Patents

画像表示方法及び医用画像診断システム Download PDF

Info

Publication number
WO2007043310A1
WO2007043310A1 PCT/JP2006/318841 JP2006318841W WO2007043310A1 WO 2007043310 A1 WO2007043310 A1 WO 2007043310A1 JP 2006318841 W JP2006318841 W JP 2006318841W WO 2007043310 A1 WO2007043310 A1 WO 2007043310A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
positional relationship
cut surface
display
relationship display
Prior art date
Application number
PCT/JP2006/318841
Other languages
English (en)
French (fr)
Inventor
Osamu Arai
Hiroko Satake
Akiko Sawaki
Original Assignee
Hitachi Medical Corporation
National University Corporation Nagoya University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corporation, National University Corporation Nagoya University filed Critical Hitachi Medical Corporation
Priority to EP06810454A priority Critical patent/EP1935344B1/en
Priority to JP2007539851A priority patent/JP5495357B2/ja
Priority to CN2006800372347A priority patent/CN101351156B/zh
Priority to US12/089,425 priority patent/US8747319B2/en
Publication of WO2007043310A1 publication Critical patent/WO2007043310A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition

Definitions

  • the present invention relates to an image display method and a medical image diagnosis system that three-dimensionally display an image obtained from a subject.
  • This application is a patent application claiming priority based on Japanese Patent Application No. 2005-295 108 based on the Japanese Patent Law, and an application that is incorporated by reference to enjoy the benefits of Japanese Patent Application No. 2005-295108 It is.
  • MIP maximum intensity projection
  • the examiner cannot grasp the depth relationship of the blood vessel with the MIP image displayed in a plane, so it is necessary to view a visualization image with a different gaze angle in order to grasp the depth relationship of the blood vessel.
  • the efficiency and operability are poor. Therefore, it is conceivable to display the 3D image with depth information.
  • An object of the present invention is to create and display a three-dimensional image with depth information added. Means for solving the problem
  • the present invention provides a three-dimensional image creation step for creating a three-dimensional image based on volume data, and a cutting for setting a cut section for cutting the three-dimensional image at an arbitrary position.
  • a positional relationship display image representing a mutual positional relationship between the three-dimensional image and the cut surface, wherein a portion of the three-dimensional image hidden by the cut surface is included in the positional relationship display image.
  • a positional relationship display image creating step for creating the positional relationship display image, wherein the opacity of the positional relationship display image of the cut surface is adjusted so as to be visible through the cut surface.
  • the positional relationship display includes a portion where the 3D image and the cut surface overlap and a portion where the 3D image and the cut surface do not overlap.
  • Opacity in the positional relationship display image of at least one of the three-dimensional image and the cut surface is adjusted so that the images are displayed differently.
  • the image display method further includes a body surface image creation step of creating a body surface image of the subject based on the volume data, and the positional relationship display image creation step includes Then, the positional relationship display image is created so as to represent the mutual positional relationship among the three-dimensional image, the cut surface, and the body surface image.
  • the present invention provides a volume data storage means for storing volume data relating to a subject, and a 3D image for creating a 3D image based on the volume data!
  • a creation unit a cutting plane setting unit that sets a cutting plane that cuts the three-dimensional image at an arbitrary position; and a positional relationship display image that represents a mutual positional relationship between the three-dimensional image and the cutting plane. The positional relationship is adjusted such that the portion of the three-dimensional image hidden by the cut surface is visible through the cut surface in the positional relationship display image.
  • the present invention relates to a medical image diagnostic system comprising a positional relationship display image creation means for creating a display image.
  • the medical image diagnostic system transmits and receives ultrasonic waves to and from the subject.
  • a probe, ultrasonic transmission / reception means for supplying a drive signal to the probe, processing a reception signal output from the probe and outputting received data, and ultrasonic transmission / reception means force output
  • an ultrasonic image creating means for reconstructing an ultrasonic image based on the received data
  • a display means for displaying at least one of the positional relationship display image and the ultrasonic image.
  • the medical image diagnostic system further includes reference image creation means for creating a reference image having the same cross section as the ultrasound image based on the volume data and the position information of the probe.
  • the display means displays the reference image.
  • depth can be expressed in a three-dimensional image including a MIP image.
  • FIG. 1 is a configuration diagram showing a first embodiment of the present invention.
  • Figure 2 is a diagram for explaining the MIP method.
  • FIGS. 3A, 3B and 3C are diagrams for explaining the display form of the first embodiment.
  • Fig.4 shows the operation procedure of MIP method
  • FIGS. 5A and 5B are diagrams for explaining an example of luminance value processing in the MIP method.
  • Figure 6 is a diagram showing another operation procedure of the MIP method.
  • FIGS. 7A and 7B are diagrams for explaining another example of luminance value processing in the MIP method.
  • FIG. 8 is a diagram showing an operation procedure for creating a positional relationship display image.
  • FIG. 9 is a block diagram showing a second embodiment of the present invention.
  • FIG. 10 is a diagram for explaining a display form of the second embodiment.
  • FIGS. 11A, 11B, and 11C are diagrams for explaining the shapes of ultrasonic images.
  • FIG. 1 is a system configuration diagram of the medical image diagnostic system according to the first embodiment.
  • This medical image diagnostic system includes a medical image diagnostic apparatus 10 that acquires three-dimensional volume data from a subject, a volume data storage unit 11 that stores volume data acquired by the medical image diagnostic apparatus 10, and a volume data storage unit 11 Based on the stored volume data, the MIP image creation unit 12 that creates a MIP image, the cut surface creation unit 13 that creates a cut surface in a three-dimensional space, and the mutual positional relationship between the MIP image and the cut surface
  • Each of the above components comprises a positional relationship display image creation unit 14 that creates a positional relationship display image, a display unit 15 that displays a positional relationship display image created by the positional relationship display image creation unit 14, and a CPU (Central Processing Unit). It includes a control unit 16 that controls the elements, and an operation unit 17 that includes a mouse, a trackball, a keyboard, and the like and that gives the examine
  • the medical image diagnostic apparatus 10 is, for example, any one of a CT (Computed Tomography) image diagnostic apparatus, an MR (Magnetic Resonance) image diagnostic apparatus, an ultrasonic image diagnostic apparatus, and the like, and obtains three-dimensional volume data of a subject.
  • This is an image diagnostic apparatus to be acquired.
  • volume data acquired by a CT image diagnostic device is data that also obtains CT value force calculated based on the X-ray absorption value of a certain part of the subject corresponding to the volume.
  • MR image diagnosis The volume data acquired by the apparatus is data obtained from a measured value force such as a proton density at a certain position of the subject corresponding to the volume.
  • the volume data storage unit 11 stores volume data acquired by the medical image diagnostic apparatus 10 together with its three-dimensional position coordinates in a memory or the like, and a plurality of types of volume data acquired by various image diagnostic apparatuses. Can also be stored.
  • the MIP image creation unit 12 creates a MIP image using the MIP method based on the volume data stored in the volume data storage unit 11.
  • a projection plane which is a two-dimensional structure, is arranged in a three-dimensional space with an arrangement relationship corresponding to the viewpoint and projection plane specified by the examiner for volume data. Then, as the projection value of the volume data on each projection surface, the value of the data having the largest value among the data on the projection line is obtained. The projection value obtained in this way is used as the value of each pixel, and the MIP image is displayed based on the plurality of pixels.
  • Volume data 23 is stored in the volume data storage unit 11 together with its three-dimensional coordinates.
  • the maximum luminance in the volume data row 25 on the line of sight 22 is set.
  • the brightness of the botel cell 26 is defined as the brightness of the pixel 27 on the projection surface 24 displayed on the display unit 15.
  • the projection plane 24 is expressed as the XY plane, and the line-of-sight direction is expressed as the Z-axis direction.
  • the line of sight 22 from the examiner's viewpoint 21 penetrates the volume data 23, and the line of sight 22 and the projection plane 24 intersect at a position (X, Y).
  • the volume data 23 on the line of sight 22 is a data string 25 of the 0th to Zmaxth botacell data.
  • the luminance values are compared from the viewpoint 21 side. Specifically, a comparison is made between the luminance value of the 0th button cell data and the luminance value of the 1st button cell data adjacent thereto, and the higher luminance value is set as the maximum luminance value. Then, the obtained maximum luminance value is compared with the luminance value of the second botacel data, and the higher luminance value is set as the maximum luminance value. This comparison operation is repeated up to Zmax.
  • the brightness value of the nth button cell data is expressed as a brightness value B (where n is an integer of 0 ⁇ n ⁇ Zmax—1), if B ⁇ B, then B is the maximum brightness value. , B ⁇ B
  • the maximum luminance value obtained by performing the comparison operation is used as the luminance value of pixel 27 on projection plane 24.
  • the luminance value of the Z-th button cell 26 is the maximum luminance value
  • the luminance value of the button cell 26 is set as the luminance value at the position (X, Y) on the projection plane 24.
  • the MIP image creation unit 12 obtains the maximum brightness value corresponding to the position (X, Y) over the entire projection plane 24, and creates a MIP image configured with the maximum brightness value of each point. .
  • the cut surface creation unit 13 creates a cut surface in an XYZ three-dimensional space in which the projection plane is the XY plane and the viewing direction is the Z axis. For example, if the cutting plane passes through the point (X, Y, Z),
  • the inversion component scale is
  • the examiner can change the position and angle of the cut surface in the three-dimensional space via the operation unit 17. For example, the examiner clicks the center of the cut surface displayed on the screen of the display unit 15 with the mouse to specify the cut surface and operates the trackball.
  • the shape of the cut surface is not limited to a quadrangle, and may be a circle or a sector, or a convex shape corresponding to the field of view and depth of an ultrasonic image.
  • the positional relationship display image creation unit 14 cuts off the MIP image created by the MIP image creation unit 12 and Based on the cut surface created by the cross-section creating unit 13, a positional relationship display image representing their mutual positional relationship is created. At this time, in the positional relationship display image, the cut surface is represented by green, for example, and the MIP image is represented by different hues, for example, black and white or red.
  • Z be the Z coordinate value of the position (X, Y) on the cutting plane created by the cross-section creation unit 13.
  • the Z coordinate value of the volume data 23 on the line of sight 22 that is closest to the viewpoint 21 is set to zero.
  • the positional relationship display image creation unit 14 compares the Z and Z to obtain the MIP image and the cut image.
  • the cross section that is closer to viewpoint 21 is determined, and hidden surface processing is performed.
  • position (X, Y) on the positional relationship display image it is determined that Z ⁇ Z and the MIP image is closer to viewpoint 21 than the cut surface
  • the luminance value of the MIP image is adopted as the luminance value of the positional relationship display image.
  • the opacity is set for each of the MIP image and the cut surface, and the higher the opacity, the higher the coefficient, and the luminance value is weighted and added in the Z order. It may be displayed semi-transparently so that the cut surface on the back side is displayed through the MIP image. As a result, the MIP image appears to be closer to the cut surface in the positional relationship display image. Also, Z> Z and the MIP image is farther from the viewpoint 21 than the cut surface.
  • the brightness value of the cut surface is adopted as the brightness value of the positional relationship display image.
  • the image creating unit 14 sets the luminance value to, for example, blue at the position (X, Y) on the display image.
  • the boundary line between the cut surface and the MIP image is expressed in blue and becomes clear.
  • the examiner can set the opacity of the cut surface and the opacity of the MIP image to arbitrary values.
  • the display unit 15 displays the mutual relationship between the MIP image created by the positional relationship display image creation unit 14 and the cut surface.
  • a positional relationship display image representing the positional relationship is displayed.
  • the cut surface in addition to the MIP image, it is possible to display the MIP image with depth information.
  • the depth relationship between the blood vessels can be expressed in the MIP image displaying the blood vessels. It can be expressed and understood by the examiner.
  • FIGS. 3A, 3B and 3C are diagrams for explaining a form in which a positional relationship display image representing the mutual positional relationship between the MIP image and the cut surface is displayed on the display unit 15.
  • FIG. Fig. 3A shows a MIP image 35 with no cutting plane 34 set
  • Fig. 3B shows a positional relationship display image created based on the cutting plane 34 and the MIP image 35 with the cutting plane 34 set. An example of this is shown in Figure 3C.
  • the depth relationship between the blood vessels 31, 32, and 33 is not expressed, so that the examiner locates which blood vessel is on the near side. I can't figure out which force the blood vessel is located on the back side.
  • the cut surface 34 is set on the MIP image 35, and in the positional relationship display image created based on the cut surface 34 and the MIP image 35, the examiner displays the blood vessels 31, 32.
  • the blood vessel 32 is located on the most front side
  • the blood vessel 31 is located on the farthest side
  • the blood vessel 33 is located between the blood vessel 32 and the blood vessel 31.
  • the depth relationship between the blood vessels 31, 32 and 33 can be grasped.
  • FIG. 3C shows an example of a positional relationship display image that displays the positional relationship between the cut surface 34 and the MIP image 35 by a method different from that in FIG. 3B.
  • FIG. 3C for example, focusing on the blood vessel 33, the display of the portion indicated by B and C in the figure where the blood vessel 33 and the cut surface 34 overlap and the portion where the blood vessel 33 and the cut surface 34 do not overlap are shown.
  • the display and power of the part indicated by A and D should be different from each other. That is, the display of the portion B where the blood vessel 33 is on the near side and the cut surface 34 is on the back side and the display of the portion A (or D) where the blood vessel 33 and the cut surface 34 do not overlap are different from each other.
  • the display of the part C where the cut surface 34 is on the near side and the blood vessel 33 is on the back side is different from the display of the heel part D (or A) where the blood vessel 33 and the cut surface 34 are overlapped.
  • the display is combined and displayed so that the near side can be seen more clearly than the far side.
  • the two sides are combined and displayed so that the back side is more clearly visible than the front side.
  • the blood vessel 33 Regarding the upper portion of the blood vessel 33 that is divided by the cut surface 34, the blood vessel 33 The display of the portion B where the cut surface 34 overlaps and the display of the portion A where the blood vessel 33 and the cut surface 34 do not overlap are different from each other. Regarding the lower part of the blood vessel 33 divided by the cut surface 34, the display of the part C where the blood vessel 33 and the cut surface 34 overlap is different from the display of the part D where the blood vessel 33 and the cut surface 34 do not overlap. To do. The display method is as described above.
  • the display of the portion B where the blood vessel 33 is on the near side and the cut surface 34 is on the back side and the display of the portion C where the cut surface 34 is on the near side and the blood vessel 33 is on the back side are mutually displayed. Make it different.
  • the display method is as described above.
  • the control unit 16 can instruct the volume data storage unit 11 to set the size of the volume data 23 and change the size of the volume data 23. For example, by setting the size of the volume data 23 so as to delete the bone and body surface data while leaving the blood vessel and region of interest data out of the volume data 23, only the blood vessels and the region of interest are displayed. Can be set to In addition, the control unit 16 instructs the MIP image creation unit 12 to set the position of the viewpoint 21, the angle of the line of sight 22, and the size of the projection plane 24. The Ml P image creation unit 12 arbitrarily sets the viewpoint 21 in the three-dimensional space, sets the angle of the line of sight 22 around the viewpoint 21, and sets the size of the projection plane 24 according to the command of the control unit 16. To do.
  • control unit 16 instructs the cut surface creation unit 13 to set the size, shape, position, and angle of the cut surface.
  • the cut surface creation unit 13 transforms the cut surface into a square shape, a circular shape, a fan shape, a convex shape corresponding to an ultrasonic image, etc. according to a command from the control unit 16, sets the size of the cut surface, and sets the three-dimensional cut surface. Set the position and angle in space.
  • control unit 16 issues a display mode setting command to the positional relationship display image creating unit 14 and the display unit 15.
  • the positional relationship display image creation unit 14 and the display unit 15 are configured so that the volume data force relating to the subject is the MIP image formed by the MIP image creation unit 12 and the cut surface formed by the cut surface creation unit 13 in response to a command from the control unit 16.
  • the positional relationship display image creation unit 14 and the display unit 15 are provided with a display area showing a cross section of the subject, a display area showing a short-axis cross section of the subject, if necessary, according to a command from the control unit 16.
  • the size and image arrangement of the display area indicating the horizontal cross section of the subject are additionally set.
  • the operation unit 17 includes a pointing device such as a mouse and a trackball, a keyboard, and the like, and the examiner instructs the numerical values and display ranges necessary for the various settings of the control unit 16 via the operation unit 17. Enter.
  • the operation unit 17 includes a magnetic sensor, which will be described later, and can set the position and angle of the cut surface according to the position of the magnetic sensor.
  • the MIP image creation unit 12 determines whether or not to perform computation on the pixels on the projection surface 24 (step Sl). If the MIP image creation unit 12 determines in step S1 that the calculation is to be performed, the MIP image creation unit 12 sets the noticed button cell to the 0th button cell. That is, the MIP image creation unit 12 sets the volume data 23 closest to the viewpoint 21 among the volume data 23 on the line of sight 22 as the button cell data of the target button cell (step S2). The MIP image creating unit 12 stores the luminance value of the 0th botacell set as the target button cell as an initial value of the maximum luminance value (step S3). Then, the MIP image creating unit 12 sets the Z coordinate of the 0th botacell as, for example, 0 as the initial value of the Z coordinate, and stores it with the initial value of the maximum luminance value (step S4).
  • the MIP image creation unit 12 sets the target button cell to the first button cell adjacent to the zeroth. In other words, the MIP image creating unit 12 moves the target button cell by one button cell toward the far side in the line-of-sight direction even for the 0th force (step S5). Then, the MIP image creating unit 12 determines whether or not the newly set target button cell is within the range of the volume data 23 (step S6). Then, if the MIP image creation unit 12 determines in step S6 that the newly set target button cell is within the range of the volume data 23, the brightness value of the stored zeroth button cell and the newly set first button cell The brightness value is compared (step S7). In step S7!
  • the MIP image creation unit 12 sets the luminance value of the attentioned botacell as the maximum luminance value. Store (step S8).
  • the MIP image creation unit 12 sets the Z coordinate of the noticed button cell having the stored maximum luminance value to 1, for example, and stores it together with the newly determined maximum luminance value (step S9). Then, the MIP image creating unit 12 also moves the target button cell by one button cell toward the back side in the line-of-sight direction as well as the first button cell force (step S10).
  • the MIP image creation unit 12 proceeds to step S10, and moves the target voxel by one botacell toward the back in the direction of the first botacel force line of sight.
  • step S10 the MIP image creating unit 12 repeatedly performs the steps from step S6 to step S10. If the MIP image creation unit 12 determines in step S6 that the target button cell is out of the range of the volume data 23, the process proceeds to step S1.
  • the MIP image creation unit 12 performs the calculation from step S2 to step S10 on all the pixels on the projection plane, and displays the calculated MIP image on the projection plane when the calculation is completed for all the pixels on the projection plane. (Step S11).
  • FIG. 5B schematically shows an example of a graph representing a change in luminance value for each of the gaze direction A, the gaze direction B, and the gaze direction C schematically shown in FIG. 5A.
  • the horizontal axis represents the Z coordinate of the botacell in each gaze direction
  • the vertical axis represents the luminance value of the botacell at each Z coordinate.
  • the line connecting the z-coordinates of the botacell having the maximum luminance value in each line-of-sight direction is shown in Figs. 5A and 5B. As shown, it may be difficult to recognize as a line that is bent in small increments.
  • the luminance value is processed using a threshold value.
  • FIG. 6 the same parts as those described in FIG. 4 are denoted by the same reference numerals, and the description thereof is omitted.
  • step S6 if the MIP image creation unit 12 determines in step S6 that the target button cell is also out of the range force of the volume data 23, the MIP image generator 12 moves the target button cell by one negative button cell in the line-of-sight direction (ie, (Return the attention button cell by one button cell toward the near side in the line of sight) (step S12). Then, the MIP image creating unit 12 compares the luminance value of the target button cell and a preset threshold value (step 13). In step S13, if the luminance value of the target button cell is larger than a preset threshold value, the MIP image creation unit 12 returns to step S12 and moves the target button cell further by minus one button cell in the line-of-sight direction.
  • step S13 if the luminance value of the target button cell is equal to or lower than a preset threshold value, the MIP image creation unit 12 sets the Z coordinate of the button cell having the threshold luminance value to the maximum luminance value. Store it as the Z coordinate of the button cell to be processed (step S14), and proceed to step SI.
  • the threshold value of the luminance value may be automatically set by a program, or may be manually input by the examiner.
  • a value obtained by multiplying the maximum brightness value stored in step S8 by a constant less than 1 may be used as a threshold value.
  • the gradient of the luminance value in the noticed button cell (ie, as shown in FIG. 7B).
  • the slope of each graph) is below a certain threshold may be used.
  • the gradient of the luminance value is calculated using 3 neighboring or 5 neighboring neighbors. The three neighbors are the one that has moved by minus 1 in the direction of the target button cell force line of sight (Z direction), the one that has moved by one in the direction of the target button cell force line of sight, and the target button cell itself.
  • Neighboring 9 Botacells are 9 Botacells within the range of plus or minus 1 in the X direction, Y direction, and Z direction (line-of-sight direction) centering on the target button cell.
  • the positional relationship display image creation unit 14 reads the MIP image created by the MIP image creation unit 12 (step S20). Then, the positional relationship display image creation unit 14 reads the cut surface created by the cut surface creation unit 13 in the three-dimensional space of the MIP image (step S21). Then, the positional relationship display image creation unit 14 determines whether or not to perform an image creation operation based on the mutual positional relationship between the MIP image and the cut surface with respect to the pixels on the positional relationship display image (step S22).
  • the positional relationship display image creation unit 14 includes the Z-coordinate value of the botacell having the maximum brightness value on the line of sight 22 of the MIP image, and the Z-coordinate value of the cut surface on the projection plane of the cut surface created by the cut surface creation unit 13. Is compared to determine whether the MIP image or the cut surface is closer to the viewpoint 21 (step S23). Then, the positional relationship display image creation unit 14 divides the MIP image and the cut surface in order from the image cover determined to be closer to the viewpoint 21. Transparent composition.
  • opacity is preset for each of the MIP image and the cut surface, and the luminance is added at a rate corresponding to the opacity (step S24).
  • step S24 the luminance of the positional relationship display image is calculated by the following equation (3) in step S24:
  • L is the brightness of the positional relationship display image
  • L is the brightness of the MIP image
  • L is the brightness of the MIP image
  • O is the opacity of the MIP image
  • O is the opacity of the cut surface
  • (l-O) corresponds to the transparency of the MIP image.
  • step S24 the luminance of the positional relationship display image is calculated by the following equation (4) in step S24:
  • (l—O) corresponds to the transparency of the cut surface.
  • the positional relationship display image creation unit 14 determines in step S22 that the image creation calculation based on the mutual positional relationship between the MIP image and the cut surface has been completed for all the pixels on the positional relationship display image. Then, the calculated positional relationship display image is displayed on the display unit 15 (step S25).
  • a positional relationship display image is created and displayed based on the mutual positional relationship between the MIP image and the cut surface. This allows the examiner to clearly grasp the mutual positional relationship between the MIP image and the cut surface.
  • RVS refers to the reference image (for example, CT tomographic image) force that matches the display section of the ultrasound image being imaged when an ultrasound image of the subject is captured by the ultrasound diagnostic device.
  • FIG. 9 is a system configuration diagram of the medical image diagnostic system of the second embodiment.
  • the ultrasonic diagnostic apparatus 57 includes an ultrasonic probe (hereinafter referred to as a probe) 50 that transmits and receives ultrasonic waves to and from a subject, and supplies a drive signal to the probe 50 and also uses the probe 50.
  • the ultrasonic transmission / reception unit 51 that processes the reception signal output from the receiver and outputs the reception data, and the ultrasonic image that reconstructs the ultrasonic image based on the reception data output from the ultrasonic transmission / reception unit 51!
  • a creation unit 52 and a display unit 56 for displaying the ultrasound image output from the ultrasound image creation unit 52 are included.
  • the ultrasonic diagnostic apparatus 57 further includes a volume data storage unit 11 that captures and stores volume data regarding the subject acquired by the medical image diagnostic apparatus 10.
  • the probe 50 converts the drive signal into an ultrasonic wave and emits it to the target part of the subject, and receives a reflected echo generated from the target part of the subject and converts it into a received signal.
  • Multiple diagnostic transducers are arranged.
  • a plurality of therapeutic transducers that emit therapeutic ultrasonic waves to the target region of the subject may be arranged on the probe 50.
  • the ultrasonic diagnostic apparatus 57 includes a magnetic position sensor system.
  • the magnetic position sensor system includes a magnetic field generator (not shown) attached to the bed on which the subject is placed, a magnetic signal detector (magnetic sensor) 53 attached to the probe 50, and a magnetic sensor 53. Based on the detection signal output from, data representing the three-dimensional position and inclination (twist) of the probe 50 (hereinafter referred to as position data) is calculated to calculate the ultrasonic tomographic plane coordinate calculation unit 54 and the cut surface creation unit.
  • position data A position data calculation unit 59 that outputs to FIG.
  • the ultrasonic tomographic plane coordinate calculation unit 54 acquires the position data of the probe 50 and outputs it to the reference image configuration unit 55.
  • the reference image construction unit 55 uses the ultrasonic tomographic plane coordinate calculation unit to obtain position data corresponding to the currently captured ultrasonic image. Get in real time from 54.
  • the volume data storage unit 11 stores volume data acquired by the medical image diagnostic apparatus 10 together with its three-dimensional position coordinates in a memory or the like, and a plurality of types of volume data acquired by various image diagnostic apparatuses. Can also be stored.
  • the reference image constructing unit 55 is based on the position data of the probe 50 output from the ultrasonic tomographic plane coordinate calculating unit 54, and the reference image data from the volume data stored in the volume data storage unit 11. To extract a reference image.
  • This reference image data corresponds to the scan plane of the ultrasonic image that is currently being imaged in real-time imaging.
  • the reference image is displayed on the display unit 56 as a tomographic image having the same cross section as the captured ultrasonic image.
  • the ultrasound diagnostic apparatus 57 As a means for creating guide information for the probe 50, the ultrasound diagnostic apparatus 57 generates MIP images and surface rendering (SR) images based on the volume data stored in the volume data storage unit 11. 3D image creation unit 58 that creates and combines them, cut surface creation unit 13 that creates a cut surface in a three-dimensional space, and a positional relationship display image that represents the mutual positional relationship between the MIP image and the cut surface And a positional relationship display image creation unit 14 for performing the processing.
  • the positional relationship display image created by the positional relationship display image creation unit 14 serves as guide information for the probe 50, and the examiner moves the probe 50 based on the guide information.
  • the ultrasonic diagnostic apparatus 57 includes a control unit and an operation unit (not shown) that control each component.
  • the 3D image generator 58 The MIP method described in the first embodiment is used to create a MIP image, and the surface rendering (SR) method and volume rendering are performed based on the volume data stored in the volume data storage unit 11.
  • An image representing the body surface of the subject (hereinafter referred to as an SR image) is created using the (VR) method.
  • the viewpoint and the projection plane are set by the examiner for the volume data, the surface boundary of the subject is extracted from the volume data by threshold processing, and each pixel (coordinate ( As a projection value to X, Y)), the shadow processing result based on the angle between the line-of-sight vector and the normal vector of the boundary surface is reflected in the projection value.
  • the Z coordinate of the surface boundary is used for the depth information (z coordinate).
  • the viewpoint and the projection plane are set by the examiner with respect to the volume data, and as a projection value to each pixel (coordinate (X, Y)) on the projection plane, The luminance of the ccell is added while being weighted by the opacity of each pixel.
  • the depth information Z coordinate
  • the Z coordinate of the location where the luminance value is greater than a certain threshold or the Z coordinate of the location where the brightness gradient is greater than the certain threshold is adopted.
  • the 3D image creation unit 58 creates a 3D image by creating an image of the blood vessel part using the MIP method and an image of the body surface of the subject using the surface rendering method or the volume rendering method.
  • the depth information (Z coordinate) of the MIP image and SR image in the original space is also calculated.
  • the three-dimensional image creation unit 58 synthesizes the MIP image created as described above and the SR image.
  • the 3D image creating unit 58 compares the Z coordinate of the MIP image with the Z coordinate of the SR image, thereby farther from the viewpoint 21 of the MIP image and the SR image.
  • Hidden surface treatment is performed on the other side that is not visible.
  • a blood vessel image MIP image
  • SR image body surface image
  • the opacity is set for each of the MIP image and the SR image, and the luminance value of the MIP image and the luminance value of the SR image are blended at a ratio according to the coefficient according to the opacity and the Z coordinate value.
  • the SR image on the near side is displayed translucently, and the MIP image on the far side is displayed through the SR image.
  • This synthesized 3D image expresses the positional relationship between the body surface of the subject and the blood vessels, so the power of which blood vessel is displayed in the subject and the direction from which position of the blood vessel. It is possible to make the examiner clearly grasp whether or not he / she is observing.
  • the cut surface creation unit 13 generates a three-dimensional space based on the position data (three-dimensional position and tilt (twist) of the probe 50) of the magnetic sensor 53 output from the position data calculation unit 59. Create a cutting plane at. Specifically, the cut surface creation unit 13 changes (X,,, Z) in the plane equation (Equation (2)) described in the first embodiment based on the three-dimensional position of the probe 50.
  • the cut surface creation unit 13 changes the rotation component R (formula (1)) described in the first embodiment based on the inclination (twist) of the probe 50 to change the cut surface into the cut surface. Rotate around the center of As a result, the cut surface is rotated about the normal of the cut surface passing through the center of the cut surface as the probe 50 rotates.
  • the positional relationship display image creating unit 14 includes a 3D image obtained by combining the MIP image created by the 3D image creating unit 58 and the SR image, and the cut surface created by the cut surface creating unit 13. Create a positional relationship display image showing the mutual positional relationship.
  • the Z coordinate values of the MIP image, the SR image, and the cut surface are compared to each other in the same manner as described in the first embodiment.
  • the images are sorted in order of images close to 21 (sorted in Z order), and hidden surface processing is performed.
  • the image closer to the viewpoint 21 is displayed on the near side.
  • opacity is set for each of the MIP image, the SR image, and the cut surface, and the higher the opacity, the higher the coefficient, and the luminance value in the Z order. Are weighted and added. Specifically, for example, at a certain position (X, Y) on the projection plane, the cut plane, SR image, and MIP image are arranged in this order from the viewpoint 21, and the opacity of the cut plane and SR image is reduced.
  • the cut surface and the SR image on the near side from the viewpoint are displayed in a translucent manner in the positional relationship display image, and the MIP image on the far side transmits the cut surface and the SR image. Displayed.
  • the luminance value is set to blue, for example, at the position (X, Y) on the positional relationship display image, and the Z coordinate of the SR image
  • the luminance value is set to, for example, yellow at the position (X, Y) on the positional relationship display image.
  • the display unit 56 includes a positional relationship display image 60 created by the positional relationship display image unit 14, an ultrasonic image 63 created by the ultrasonic image creation unit 52, and a reference image configuration.
  • the reference image 64 created in part 55 is displayed.
  • the cut surface 34 is displayed together with the images of the blood vessels 31, 32, and 33 displayed as the MIP images, so that the examiner cuts each of the blood vessels 31, 32, and 33.
  • the blood vessel 32 is located on the front side
  • the blood vessel 31 is located on the farthest side
  • the blood vessel 33 is located between the blood vessel 32 and the blood vessel 31.
  • Blood vessel 3 The depth relationship between 1, 32 and 33 can be grasped.
  • the SR image 36 representing the body surface of the subject is displayed together with the images of the blood vessels 31, 32, and 33 and the cut surface 34. The three-dimensional positional relationship with 31, 32 and 33 can be grasped.
  • the ultrasonic image 63 and the reference image 64 are tomographic images of the subject corresponding to the cut surface 34.
  • cross-sectional images 65, 66, and 67 respectively corresponding to the cross-sections of the blood vessels 31, 32, and 33 cut by the cut surface 34 are displayed. Therefore, the examiner can grasp the depth relationship between the blood vessels 31, 32, and 33 also from the ultrasonic image 63 and the reference image 64.
  • the display screen displayed on the display unit 56 includes a display area 61 that displays an ultrasonic image 63 being captured, and a display area that displays a reference image 64 having the same display cross section as the ultrasonic image 63. 62 and a display area in which guide information of the composite image 60 is displayed.
  • the display area 61 and the display area 62 may be arranged side by side, and the display area in which the guide information of the composite image 60 is displayed may be arranged below the display area 61 and the display area 62.
  • the display area is not limited to these display forms, and the position of the display area where the guide information of the composite image is displayed may be changed within a range that does not hinder the diagnosis. It is also desirable to display the position of the probe 50 that is picking up the ultrasonic image so as to overlap the body mark. Furthermore, the examiner may be able to move the position of each display area within the display screen via the operation unit.
  • FIGS. 11A, 11B, and 11C are diagrams illustrating the shape of the ultrasound image 63.
  • FIG. The ultrasonic image 63 of the embodiment shown in FIG. 10 is obtained by the convex ultrasonic probe 50.
  • the probe radius PR of the probe 50 and the ultrasonic image are obtained.
  • the field of view F and depth D of 63 are represented by the shape of the ultrasound image 63.
  • the shape force of the cut surface 34 and the reference image 64 is a convex shape, which is unified with the shape of the ultrasonic image 63.
  • FIG. 11B is a diagram for explaining an ultrasonic image 63 obtained by the linear ultrasonic probe 50
  • FIG. 11C is an ultrasonic image obtained by the sector-shaped ultrasonic probe 50
  • 63 is a diagram illustrating the field of view F and the depth D of the ultrasound image 63 by the shape of the ultrasound image 63, respectively.
  • the ultrasonic probe is a three-dimensional scan type. Good. It is desirable that the shape of the cut surface 34 and the reference image 64 be determined in accordance with the shape of the ultrasonic image 63.
  • the MinIP process is a process for obtaining a projection image by extracting the minimum value for each of the botasels on the line of sight 22.
  • the depth is expressed by adjusting the luminance of each pixel, that is, the opacity of the image. Adjust pixel hue and other image elements.
  • the magnetic sensor 53 is used to obtain the three-dimensional position information of the ultrasonic probe 50.
  • the sensor that obtains the three-dimensional position information by infrared rays, ultrasonic waves, or the like. May be used.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Generation (AREA)

Abstract

 本画像表示方法は、ボリュームデータに基づいて三次元画像を作成する三次元画像作成ステップと、前記三次元画像を任意の位置で切断する切断面を設定する切断面設定ステップと、前記三次元画像と前記切断面との相互位置関係を表す位置関係表示画像であって、前記三次元画像のうち前記切断面によって隠れる部分が前記位置関係表示画像において前記切断面越しに視認可能であるように前記切断面の前記位置関係表示画像における不透明度が調整される、前記位置関係表示画像を作成する位置関係表示画像作成ステップと、を含む。

Description

明 細 書
画像表示方法及び医用画像診断システム
技術分野
[0001] 本発明は、被検体から得た画像を三次元表示する画像表示方法及び医用画像診 断システムに関する。本出願は、日本国特許法に基づく特許出願特願 2005— 295 108号に基づくパリ優先権主張を伴う出願であり、特願 2005— 295108号の利益を 享受するために参照による援用を受ける出願である。
背景技術
[0002] 医用画像診断装置において三次元画像を表示する手法の一つとして、最大輝度 投影(Maximum Intensity Projection: MIP)法がある。 MIP法では、結果として得ようと する像 (MIP像)を構成する画素のそれぞれに対応する視線を考え、対象物のボリュ ームデータにおいて該視線上に存在する画素の持つ輝度のうちの最大値を MIP像 の対応画素の輝度値とすることより、対象物力 得た画像データを三次元的に表示 する MIP像を得る。
発明の開示
発明が解決しょうとする課題
[0003] MIP像は、視線方向の奥行き情報を失って!/、るので、平面的な画像となって!/、る。
したがって、検者は、平面的に表示された MIP像では血管の奥行き関係を把握する ことができないので、血管の奥行き関係を把握するために別の視線角度の可視化像 を合わせて見る必要があり、効率及び操作性が悪い。そこで、三次元画像に奥行き 情報を付加して表示することが考えられる。
[0004] 例えば、特開 2000— 245487号公報に開示された技術では、ボリュームレンダリン グによる三次元画像の投影画像とボリューム内に設定された断面位置のボタセル値 を表示した断面の画像とを合成した画像が表示されるが、その具体的な合成方法に つ!ヽては何らの開示も示唆もな!/、。
[0005] 本発明の目的は、奥行き情報を付与した三次元画像を作成して表示することであ る。 課題を解決するための手段
[0006] 上記課題を解決するために、本発明は、ボリュームデータに基づいて三次元画像 を作成する三次元画像作成ステップと、前記三次元画像を任意の位置で切断する切 断面を設定する切断面設定ステップと、前記三次元画像と前記切断面との相互位置 関係を表す位置関係表示画像であって、前記三次元画像のうち前記切断面によつ て隠れる部分が前記位置関係表示画像において前記切断面越しに視認可能である ように前記切断面の前記位置関係表示画像における不透明度が調整される、前記 位置関係表示画像を作成する位置関係表示画像作成ステップと、を含む画像表示 方法に係る。
[0007] 好ましくは、前記位置関係表示画像作成ステップにお!/ヽて、前記三次元画像及び 前記切断面が重なる部分と前記三次元画像及び前記切断面が重ならない部分とが 前記位置関係表示画像において異なって表示されるように、前記三次元画像及び 前記切断面の少なくとも一方の前記位置関係表示画像における不透明度が調整さ れる。
[0008] また好ましくは、前記画像表示方法は、前記ボリュームデータに基づ!/、て被検体の 体表画像を作成する体表画像作成ステップを更に含み、前記位置関係表示画像作 成ステップにお!/ヽて、前記三次元画像と前記切断面と前記体表画像との相互位置関 係を表すように前記位置関係表示画像が作成される。
[0009] また、上記課題を解決するために、本発明は、被検体に関するボリュームデータを 記憶するボリュームデータ記憶手段と、前記ボリュームデータに基づ!/、て三次元画像 を作成する三次元画像作成手段と、前記三次元画像を任意の位置で切断する切断 面を設定する切断面設定手段と、前記三次元画像と前記切断面との相互位置関係 を表す位置関係表示画像であって、前記三次元画像のうち前記切断面によって隠 れる部分が前記位置関係表示画像において前記切断面越しに視認可能であるよう に前記切断面の前記位置関係表示画像における不透明度が調整される、前記位置 関係表示画像を作成する位置関係表示画像作成手段と、を備える医用画像診断シ ステムに係る。
[0010] 好ましくは、前記医用画像診断システムは、前記被検体との間で超音波を送受する 探触子と、前記探触子に駆動信号を供給すると共に、前記探触子から出力される受 信信号を処理して受信データを出力する超音波送受信手段と、前記超音波送受信 手段力 出力された前記受信データに基づいて超音波画像を再構成する超音波画 像作成手段と、前記位置関係表示画像及び前記超音波画像の少なくとも一方を表 示する表示手段と、を更に備える。
[0011] 更に好ましくは、前記医用画像診断システムは、前記ボリュームデータ及び前記探 触子の前記位置情報に基づいて前記超音波画像と同一断面のリファレンス画像を 作成するリファレンス画像作成手段を更に備え、前記表示手段は、前記リファレンス 画像を表示する。
発明の効果
[0012] 本発明によれば、例えば MIP画像を含む三次元画像にお 、て、奥行きを表現する ことができる。
図面の簡単な説明
[0013] [図 1]図 1は、本発明の第 1の実施形態を示す構成図
[図 2]図 2は、 MIP法を説明するための図
[図 3]図 3A、 3B及び 3Cは、第 1の実施形態の表示形態を説明するための図
[図 4]図 4は、 MIP法の動作手順を示す図
[図 5]図 5A及び 5Bは、 MIP法における輝度値処理の例を説明するための図
[図 6]図 6は、 MIP法の他の動作手順を示す図
[図 7]図 7A及び 7Bは、 MIP法における輝度値処理の他の例を説明するための図
[図 8]図 8は、位置関係表示画像を作成する動作手順を示す図
[図 9]図 9は、本発明の第 2の実施形態を示す構成図
[図 10]図 10は、第 2の実施形態の表示形態を説明するための図
[図 11]図 11A、 11B及び 11Cは、超音波画像の形状を説明するための図 符号の説明
[0014] 10· ··医用画像診断装置、 11· ··ボリュームデータ記憶部、 12· ··ΜΙΡ画像作成部、 13· ··切断面作成部、 14…位置関係表示画像作成部、 15· ··表示部、 16· ··制御部、 17…操作部、 21· ··視点、 22· ··視線、 23· ··ボリュームデータ、 24· ··投影面、 25· ··ボ クセルデータのデータ列、 26…最大輝度値のボタセル、 27· ··投影面上の画素、 31 …血管の MIP像、 32…血管の MIP像、 33…血管の MIP像、 34…切断面、 35· "Ml P画像、 36…被検体の体表を表す SR画像、 50· ··超音波探触子、 51· ··超音波送受 信部、 52· ··超音波画像作成部、 53· ··磁気センサ、 54· ··超音波断層面座標算出部 、 55· ··リファレンス画像作成部、 56…表示部、 57· ··超音波診断装置、 58· "三次元 画像作成部、 59· ··位置データ算出部、 60…位置関係表示画像、 61· ··超音波画像 の表示エリア、 62· ··リファレンス画像の表示エリア、 63· ··超音波画像、 64· ··リファレ ンス画像、 65· ··血管の断面像、 66· ··血管の断面像、 67· ··血管の断面像、 D…超音 波画像の深度、 F…超音波画像の視野、 PR…プローブ半径
発明を実施するための最良の形態
[0015] 本発明の第 1の実施形態を、図 1〜5を用いて説明する。図 1は、第 1の実施形態の 医用画像診断システムのシステム構成図である。この医用画像診断システムは、被 検体から三次元ボリュームデータを取得する医用画像診断装置 10と、医用画像診断 装置 10が取得したボリュームデータを記憶するボリュームデータ記憶部 11と、ボリュ ームデータ記憶部 11が記憶したボリュームデータに基づ 、て MIP画像を作成する MIP画像作成部 12と、三次元空間の切断面を作成する切断面作成部 13と、 MIP画 像と切断面との相互位置関係を表す位置関係表示画像を作成する位置関係表示画 像作成部 14と、位置関係表示画像作成部 14が作成した位置関係表示画像を表示 する表示部 15と、 CPU (Central Processing Unit)からなり上記各構成要素の制御を 行う制御部 16と、マウス、トラックボール、キーボード等からなり、検者の指示を制御 部 16に与える操作部 17と、を含む。
[0016] 医用画像診断装置 10は、例えば、 CT (Computed Tomography)画像診断装置、 M R (Magnetic Resonance)画像診断装置、超音波画像診断装置等のいずれかであり、 被検体の三次元ボリュームデータを取得する画像診断装置である。例えば、 CT画像 診断装置で取得されるボリュームデータは、そのボリュームに対応する被検体の或る 箇所の X線吸収値に基づ 、て算出される CT値力も得られるデータであり、 MR画像 診断装置で取得されるボリュームデータは、そのボリュームに対応する被検体の或る 箇所のプロトン密度等の測定値力 得られるデータである。 [0017] ボリュームデータ記憶部 11は、医用画像診断装置 10が取得したボリュームデータ をその三次元位置座標とともにメモリなどに記憶するものであり、様々な画像診断装 置が取得した複数種類のボリュームデータを記憶することもできる。
[0018] MIP画像作成部 12は、ボリュームデータ記憶部 11に記憶されたボリュームデータ に基づいて MIP法を用いて MIP画像を作成する。 MIP法では、ボリュームデータに 対し、検者が指定した視点及び投影面に対応した配置関係で二次元構造体である 投影面を三次元空間に配置する。そして、ボリュームデータの投影面上の各画素へ の投影値として、投影線上にあるデータのうち値が最も大きなデータの値を求める。 このようにして求めた投影値を各画素の値として、これら複数の画素に基づいて MIP 画像を表示する。
[0019] この MIP法について、図 2を用いて具体的に説明する。ボリュームデータ記憶部 11 に、ボリュームデータ 23がその三次元座標とともに記憶されている。検者の視点 21か らボリュームデータ 23を貫通して投影面 24上の画素 27 (座標 (X, Y) )に至る視線 2 2を考え、視線 22上のボリュームデータ列 25のうち最大輝度を持つボタセル 26の輝 度を表示部 15に表示される投影面 24上の画素 27の輝度とする。なお、ここでは説 明のため、投影面 24を XY面として表現し、視線方向を Z軸方向として表現する。
[0020] 検者の視点 21からの視線 22はボリュームデータ 23を貫通するものであり、視線 22 と投影面 24とは位置 (X, Y)で交わる。視線 22上のボリュームデータ 23は、 0番目〜 Zmax番目までのボタセルデータのデータ列 25である。視線 22上のデータ列 25につ いて、視点 21側から輝度値の比較を行う。具体的には、 0番目のボタセルデータの 輝度値とそれと隣接する 1番目のボタセルデータの輝度値との比較を行 、、高い方 の輝度値を最大輝度値とする。そして、求められた最大輝度値と 2番目のボタセルデ ータの輝度値との比較を行い、高い方の輝度値を最大輝度値とする。この比較操作 を、 Zmax番目まで繰り返す。
[0021] 例えば、 n番目のボタセルデータの輝度値を輝度値 B (nは 0≤n≤Zmax— 1の整 数)として一般式で表現すると、 B≥B ならば Bを最大輝度値とし、 B < B
n (n+ 1) n n (n+ 1) ならば B を新たな最大輝度値とする。そして、 n=0から n=Zmax— 1まで輝度値
(n+ 1)
の比較操作を行って求められる最大輝度値を、投影面 24の画素 27の輝度値とする 。例えば Z番目のボタセル 26の輝度値が最大輝度値の場合、ボタセル 26の輝度値 を投影面 24の位置 (X, Y)の輝度値とする。 MIP画像作成部 12は、このようにして、 位置 (X, Y)に対応する最大輝度値を投影面 24全体において求め、各点の最大輝 度値で構成されるような MIP画像を作成する。
[0022] 切断面作成部 13は、投影面を XY平面とし視線方向を Z軸とする XYZ三次元空間 における切断面を作成する。例えば、切断面が点 (X , Y , Z )を通り、切断面の回
0 0 0
転成分尺が
[0023] [数 1] mi l ml/ ml3
R = m21 m/2 m23 ( 1 )
m31 m32 m33
[0024] であるとき、切断面座標系上の点 (X Y )の
2D 三次元空間内における座標 (X, Y,
Z)は、
[0025] [数 2]
Figure imgf000008_0001
[0026] となる。
[0027] 検者は、操作部 17を介して、切断面の三次元空間内における位置及び角度を変 えることができる。例えば、検者は、表示部 15の画面上に表示されている切断面の中 央部をマウスでクリックして切断面を指定し、トラックボールを操作すること〖こより、 (X
0
, Υ , Z )を変化させて切断面の三次元位置を移動させる。また、検者は、表示部 15
0 0
の画面上に表示されて 、る切断面の端部をマウスでクリックして切断面を指定し、トラ ックボールを操作することにより、回転成分 Rを変化させて切断面を切断面の中心を 支点として回転させる。なお、切断面の形状は、四角形に限らず、円形や扇形でもよ く、超音波画像の視野及び深度に対応したコンベックス形でもよ 、。
[0028] 位置関係表示画像作成部 14は、 MIP画像作成部 12で作成された MIP画像と切 断面作成部 13で作成された切断面とに基づいて、それらの相互位置関係を表す位 置関係表示画像を作成する。この際、位置関係表示画像において、切断面は例え ば緑色、 MIP画像は例えば白黒又は赤色として、互いに異なる色相で表される。
[0029] ここで、 MIP画像及び切断面に基づく位置関係表示画像の作成手法について詳 細に説明する。 MIP画像作成部 12で作成された MIP画像上の位置 (X, Y)に対応 する視線 22上で最大輝度値を持つと判定されたボタセルの Z座標値を Z とする。切
M
断面作成部 13で作成された切断面上の位置 (X, Y)の Z座標値を Zとする。なお、こ
S
こでは、視線 22上のボリュームデータ 23のうち最も視点 21に近いものの Z座標値を ゼロとする。
[0030] 位置関係表示画像作成部 14は、 Z と Zとを比較することにより、 MIP画像及び切
M S
断面のうち視点 21に近い方を判定し、陰面処理を施す。位置関係表示画像上の位 置 (X, Y)において、 Z <Zであって MIP画像が切断面よりも視点 21に近いと判定
M S
された場合、位置関係表示画像の輝度値には MIP画像の輝度値を採用する。もしく は、 MIP画像及び切断面に対してそれぞれ不透明度を設定しておき、不透明度が 高 、ほど係数を重くして Z順に輝度値を重み付け加算することによって、手前側の M IP画像が半透明に表示され、奥側の切断面が MIP画像を透過して表示されるよう〖こ してもよい。これにより、位置関係表示画像において、 MIP画像が切断面よりも手前 側にあるように見える。また、 Z >Zであって MIP画像が切断面より視点 21から遠い
M S
と判定された場合、位置関係表示画像の輝度値には切断面の輝度値を採用する。も しくは、不透明度が高いほど係数を重くして z順に輝度値を重み付け加算することに よって、手前側の切断面が半透明に表示され、奥側の MIP画像が切断面を透過して 表示されるようにしてもよい。これにより、位置関係表示画像において、切断面が MIP 画像よりも手前側にあるように見える。 Z =Zと判定された場合には、位置関係表示
M S
画像作成部 14は、表示画像上の位置 (X, Y)において輝度値を例えば青色に設定 する。これにより、位置関係表示画像において、切断面と MIP画像との境界線が青 色で表現されて明瞭になる。ここで、切断面の不透明度及び MIP画像の不透明度を 検者がそれぞれ任意の値に設定できるようにしておく。
[0031] 表示部 15は、位置関係表示画像作成部 14が作成した MIP画像と切断面との相互 位置関係を表す位置関係表示画像を表示する。このように、 MIP画像に加えて切断 面を表示することにより、 MIP画像に奥行き情報を付与して表示することができ、例え ば、血管を表示する MIP画像にぉ 、て血管の奥行き関係を表現して検者に把握さ せることができる。
[0032] 図 3A、 3B及び 3Cは、 MIP画像と切断面との相互位置関係を表す位置関係表示 画像が表示部 15に表示される形態を説明する図である。切断面 34が未設定の MIP 画像 35を図 3Aに、切断面 34が設定され切断面 34と MIP画像 35とに基づいて作成 された位置関係表示画像を図 3Bに、位置関係表示画像の他の例を図 3Cに示す。
[0033] 図 3Aに示すように、切断面 34が未設定の MIP画像 35では、血管 31、 32及び 33 の奥行き関係が表現されていないので、検者は、どの血管が手前側に位置し、どの 血管が奥側に位置しているの力、把握できない。それに対して、図 3Bに示すように、 MIP画像 35に切断面 34を設定し、切断面 34と MIP画像 35とに基づいて作成され た位置関係表示画像では、検者は、血管 31、 32及び 33のそれぞれと切断面 34との 位置関係から、血管 32が最も手前側に位置し、血管 31が最も奥側に位置し、血管 3 3が血管 32と血管 31との間に位置することを把握することができ、血管 31、 32及び 3 3の奥行き関係を把握することができる。
[0034] 図 3Cに、図 3Bとは異なる方法で切断面 34と MIP画像 35との位置関係を表示する 位置関係表示画像の例を示す。図 3Cにおいて、例えば血管 33に着目すると、血管 33及び切断面 34が重なる部分である図中 B及び Cで示す部分の表示と、血管 33及 び切断面 34が重ならな 、部分である図中 A及び Dで示す部分の表示と力 互いに 異なる様にする。つまり、血管 33が手前側で切断面 34が奥側となって重なる部分 B の表示と血管 33及び切断面 34が重ならない部分 A (又は D)の表示とが互いに異な る様にする。或いは、切断面 34が手前側で血管 33が奥側となって重なる部分 Cの表 示と血管 33及び切断面 34が重ならな ヽ部分 D (又は A)の表示とが互いに異なる様 にする。表示の異ならせ方としては、例えば手前側の方が奥側よりもより明瞭に視認 可能となるように双方を合成して表示する。逆に言えば、奥側の方が手前側よりもより 不明瞭に視認可能となるように双方を合成して表示する。
[0035] また、血管 33のうち、切断面 34によって分けられる上側の部分に関して、血管 33 及び切断面 34が重なる部分 Bの表示と血管 33及び切断面 34が重ならない部分 Aの 表示とが互いに異なる様にする。血管 33のうち、切断面 34によって分けられる下側 の部分に関しては、血管 33及び切断面 34が重なる部分 Cの表示と血管 33及び切 断面 34が重ならない部分 Dの表示とが互いに異なる様にする。表示の異ならせ方は 上述の通りである。
[0036] 更に、血管 33が手前側で切断面 34が奥側となって重なる部分 Bの表示と切断面 3 4が手前側で血管 33が奥側となって重なる部分 Cの表示とが互いに異なる様にする 。表示の異ならせ方は上述の通りである。
[0037] 制御部 16は、ボリュームデータ記憶部 11に対してボリュームデータ 23の大きさの 設定指令を行い、ボリュームデータ 23の大きさを変えることができる。例えば、ボリュ ームデータ 23のうち血管や関心部位のデータを残して骨や体表のデータを削除す るようにボリュームデータ 23の大きさを設定することにより、血管や関心部位だけが表 示されるように設定することができる。また、制御部 16は、 MIP画像作成部 12に対し て、視点 21の位置、視線 22の角度、及び投影面 24の大きさの設定指令を行う。 Ml P画像作成部 12は、制御部 16の指令により、視点 21を三次元空間内に任意に設定 し、視点 21を中心にして視線 22の角度を設定し、投影面 24の大きさを設定する。ま た、制御部 16は、切断面作成部 13に対して、切断面の大きさ、形状、位置及び角度 の設定指令を行う。切断面作成部 13は、制御部 16の指令により、切断面を四角形、 円形、扇形、超音波画像に対応したコンベックス形等に変形させ、切断面の大きさを 設定し、切断面の三次元空間内における位置及び角度を設定する。
[0038] また、制御部 16は、位置関係表示画像作成部 14及び表示部 15に対して、表示形 態の設定指令を行う。位置関係表示画像作成部 14及び表示部 15は、制御部 16の 指令により、被検体に関するボリュームデータ力も MIP画像作成部 12により構成され た MIP画像、及び切断面作成部 13により構成された切断面の、表示エリアの大きさ 及び画像配置を設定する。また、位置関係表示画像作成部 14及び表示部 15は、制 御部 16の指令により、必要があれば、被検体の輪切り断面を示す表示エリア、被検 体の短軸断面を示す表示エリア、及び被検体の横軸断面を示す表示エリアの、大き さ及び画像配置を追加して設定する。 [0039] 操作部 17は、マウスやトラックボール等のポインティングデバイス及びキーボード等 からなり、検者は、操作部 17を介して、制御部 16の上記各種設定に必要な数値や 表示範囲等の指示を入力する。操作部 17は、後述する磁気センサを含み、磁気セ ンサの位置により切断面の位置及び角度の設定を行うこともできる。
[0040] 次に、 MIP画像作成部 12の動作手順について図 4を用いて説明する。
[0041] まず、 MIP画像作成部 12は、投影面 24上の画素に対して演算を行うか否かを判 断する (ステップ Sl)。 MIP画像作成部 12は、ステップ S1において演算を行うと判定 した場合、注目ボタセルを 0番目のボタセルに設定する。すなわち、 MIP画像作成部 12は、視線 22上のボリュームデータ 23のうち最も視点 21に近いボリュームデータ 23 を注目ボタセルのボタセルデータとして設定する(ステップ S2)。 MIP画像作成部 12 は、この注目ボタセルに設定された 0番目のボタセルの輝度値を最大輝度値の初期 値として格納する (ステップ S3)。そして、 MIP画像作成部 12は、 0番目のボタセルの Z座標を Z座標の初期値として例えば 0とし、前記最大輝度値の初期値とともに格納 する(ステップ S4)。
[0042] 次に、 MIP画像作成部 12は、注目ボタセルを 0番目に隣接する 1番目のボタセル に設定する。すなわち、 MIP画像作成部 12は、注目ボタセルを 0番目力も視線方向 の奥側へ 1ボタセル分移動させる (ステップ S5)。そして、 MIP画像作成部 12は、新 たに設定した注目ボタセルがボリュームデータ 23の範囲内である力否かを判定する( ステップ S6)。そして、 MIP画像作成部 12は、新たに設定した注目ボタセルがボリュ ームデータ 23の範囲内であるとステップ S6において判定した場合、格納した 0番目 のボタセルの輝度値と新たに設定した 1番目のボタセルの輝度値との比較を行う(ス テツプ S7)。ステップ S7にお!/、て、注目ボタセルである 1番目のボタセルの輝度値が 0番目のボタセルの輝度値よりも大きい場合、 MIP画像作成部 12は、注目ボタセル の輝度値を最大輝度値として格納する (ステップ S8)。 MIP画像作成部 12は、この 格納した最大輝度値を有する注目ボタセルの Z座標を例えば 1とし、新たに求めた最 大輝度値とともに格納する (ステップ S9)。そして、 MIP画像作成部 12は、注目ボタ セルを 1番目のボタセル力も視線方向の奥側へ 1ボタセル分移動させる(ステップ S1 0)。ステップ S7にお!/、て、注目ボタセルである 1番目のボタセルの輝度値力 ^番目の ボタセルの輝度値以下の場合、 MIP画像作成部 12は、ステップ S10に進み、注目ボ クセルを 1番目のボタセル力 視線方向の奥側へ 1ボタセル分移動させる。
[0043] そして、 MIP画像作成部 12は、ステップ S10の後、ステップ S6〜ステップ S 10のス テツプを繰り返して行う。そして、 MIP画像作成部 12は、注目ボタセルがボリュームデ ータ 23の範囲から外れたとステップ S6において判定した場合、ステップ S1に進む。 MIP画像作成部 12は、投影面の全ピクセルに対してステップ S 2〜ステップ S 10の 演算を行い、投影面の全ピクセルにおいて演算が完了したら、演算された MIP画像 を投影面上に表示する (ステップ S 11)。
[0044] 以上のように演算された MIP画像について、図 5A及び 5Bを用いて説明する。
[0045] 図 5Aに模式的に示す視線方向 A、視線方向 B及び視線方向 Cのそれぞれについ て輝度値の変化を表すグラフの例を、図 5Bに模式的に示す。図 5Bのそれぞれのグ ラフにおいて、横軸は各視線方向のボタセルの Z座標を表し、縦軸は各 Z座標におけ るボタセルの輝度値を表す。図 4で説明したように各視線方向で最大輝度値を有す るボタセルの Z座標を求める場合、各視線方向で最大輝度値を有するボタセルの Z 座標を結ぶ線が、図 5 A及び 5Bに示すように小刻みに折れ曲がった線となって認識 しにくいことがある。
[0046] そこで、図 6に示す MIP画像作成部 12の動作手順の他の実施形態では、閾値を 用いて輝度値を処理する。図 6において、図 4で説明した部分と同様の部分には同 様の参照符号を付して、その説明を省略する。
[0047] 図 6において、 MIP画像作成部 12は、注目ボタセルがボリュームデータ 23の範囲 力も外れたとステップ S6にお 、て判定した場合、注目ボタセルを視線方向にマイナ ス 1ボタセル分移動させる(即ち、注目ボタセルを視線方向の手前側へ 1ボタセル分 戻す)(ステップ S12)。そして、 MIP画像作成部 12は、注目ボタセルの輝度値と予め 設定された閾値との比較を行う(ステップ 13)。ステップ S13において、注目ボタセル の輝度値が予め設定された閾値よりも大きい場合、 MIP画像作成部 12は、ステップ S12に戻り、注目ボタセルを視線方向に更にマイナス 1ボタセル分移動させる。ステツ プ S13において、注目ボタセルの輝度値が予め設定された閾値以下の場合、 MIP 画像作成部 12は、この閾値の輝度値を有するボタセルの Z座標を最大輝度値を有 するボタセルの Z座標とみなして格納し (ステップ S 14)、ステップ SIへ進む。
[0048] 輝度値の変化が図 5A及び 5Bと同一の例について、 MIP画像作成部 12が図 6に 示す動作を行った場合、図 7A及び 7Bに示すように、各視線方向で閾値の輝度値を 有するボタセルの Z座標を結ぶ線は、図 5A及び 5Bに示す最大輝度値を有するボタ セルの Z座標を結ぶ線に比べて滑らかであるので、 MIP画像の表示が認識しやす ヽ
[0049] ここで、輝度値の閾値は、プログラムで自動的に設定してもよいし、検者がマ-ユア ルで入力してもよい。プログラムで設定する場合は、ステップ S8で格納された最大輝 度値に 1未満のある定数を掛け合わせた値を閾値として用いればよい。
[0050] また、ステップ S 13での判定条件として、「注目ボタセルの輝度値が予め設定された 閾値よりも大きい」に代えて、「注目ボタセルにおける輝度値の勾配 (即ち、図 7Bに示 す各グラフの勾配)がある閾値以下である」を用いてもよい。この場合、注目ボタセル の近傍 3ボタセル又は近傍 9ボタセルを用いて輝度値の勾配を算出する。近傍 3ボタ セルとは、注目ボタセル力 視線方向(Z方向)にマイナス 1移動したボタセル、注目 ボタセル力 視線方向にプラス 1移動したボタセル、及び注目ボタセル自身である。 近傍 9ボタセルとは、注目ボタセルを中心として X方向、 Y方向、 Z方向(視線方向)に プラスマイナス 1の範囲内にある 9つのボタセルである。
[0051] 次に、位置関係表示画像作成部 14の動作手順について図 8を用いて説明する。
[0052] まず、位置関係表示画像作成部 14は、 MIP画像作成部 12で作成された MIP画像 を読み込む (ステップ S 20)。そして、位置関係表示画像作成部 14は、 MIP画像の 三次元空間上に切断面作成部 13で作成された切断面を読み込む (ステップ S21)。 そして、位置関係表示画像作成部 14は、位置関係表示画像上のピクセルに対して MIP画像と切断面との相互位置関係に基づく画像作成演算を行うか否かを判断す る (ステップ S22)。位置関係表示画像作成部 14は、 MIP画像の視線 22上で最大輝 度値を有するボタセルの Z座標値と、切断面作成部 13で作成された切断面の投影 面における切断面の Z座標値とを比較することにより、 MIP画像及び切断面のどちら が視点 21に近いかを判定する (ステップ S23)。そして、位置関係表示画像作成部 1 4は、 MIP画像及び切断面のうち視点 21により近いと判定された画像カゝら順番に半 透明合成する。ここで、 MIP画像及び切断面にはそれぞれ不透明度が予め設定さ れており、それらの不透明度に応じた割合で輝度が加算される (ステップ S24)。
[0053] 具体的には、 MIP画像が切断面よりも視点 21に近い場合には、ステップ S24にお いて、位置関係表示画像の輝度は次の式(3)により算出される:
[0054] (数 3)
L =L X O + (l -0 ) X L X O (3)
P M M M S S
ここで、 Lは位置関係表示画像の輝度であり、 L は MIP画像の輝度であり、 Lは切
P M S
断面の輝度であり、 O は MIP画像の不透明度であり、 Oは切断面の不透明度であ
M S
り、(l— O )は MIP画像の透明度に相当する。
M
[0055] 一方、切断面が MIP画像よりも視点 21に近い場合には、ステップ S24において、 位置関係表示画像の輝度は次の式 (4)により算出される:
[0056] (数 4)
L =L X O + (l -0 ) X L X O (4)
P S S S M M
ここで、(l— O )は切断面の透明度に相当する。
S
[0057] 次に、位置関係表示画像作成部 14は、位置関係表示画像上の全ピクセルに対し て MIP画像と切断面との相互位置関係に基づく画像作成演算が完了したとステップ S22において判断したら、演算した位置関係表示画像を表示部 15に表示させる (ス テツプ S25)。
[0058] 以上説明したように、本発明の第 1の実施形態によれば、 MIP画像と切断面との相 互位置関係に基づ!ヽて位置関係表示画像を作成して表示することにより、 MIP画像 と切断面との相互位置関係を検者に明確に把握させることができる。
[0059] 次に、本発明の第 2の実施形態を、図 9及び 10を用いて説明する。第 2の実施形態 が第 1の実施形態と異なる点は、表示画像として被検体の体表画像を加えて、 MIP 画像と切断面と体表画像との相互位置関係を表すように、位置関係表示画像が作成 され表示されることである。体表画像が加えられた位置関係表示画像は、リアルタイ ムバーチャルソノグラフィ(RVS)のガイド画像として用いることができる。 RVSとは、超 音波診断装置により被検体の超音波画像が撮像される際に、撮像中の超音波画像 の表示断面に一致するリファレンス画像 (例えば CT断層画像)力 種々の医用画像 診断装置 (例えば CT画像診断装置)により事前に取得された被検体に関する三次 元ボリュームデータ力 抽出され、抽出されたリファレンス画像が撮像中の超音波画 像と並列に表示画面に表示される技術である。これにより、超音波診断装置におい て、撮像中の超音波画像と同一断面のリファレンス画像をリアルタイムで描画すること ができる。
[0060] 図 9は、第 2の実施形態の医用画像診断システムのシステム構成図である。超音波 診断装置 57は、被検体との間で超音波を送受する超音波探触子 (以下、探触子とい う) 50と、探触子 50に駆動信号を供給する共に探触子 50から出力される受信信号を 処理して受信データを出力する超音波送受信部 51と、超音波送受信部 51から出力 された受信データに基づ!/ヽて超音波画像を再構成する超音波画像作成部 52と、超 音波画像作成部 52から出力された超音波画像を表示する表示部 56と、を含む。
[0061] 超音波診断装置 57は、更に、医用画像診断装置 10により取得された被検体に関 するボリュームデータを取り込んで記憶するボリュームデータ記憶部 11を備えている
[0062] 探触子 50には、駆動信号を超音波に変換して被検体の対象部位に射出すると共 に被検体の対象部位から発生した反射エコーを受波して受信信号に変換する、診 断用振動子が複数配列されている。診断用振動子に加えて、被検体の対象部位に 治療用超音波を射出する治療用振動子が、探触子 50に複数配列されていてもよい
[0063] 超音波診断装置 57は、磁気位置センサシステムを備えて ヽる。磁気位置センサシ ステムは、被検体が載置されるベッドなどに取り付けられた磁場発生器 (不図示)と、 探触子 50に取り付けられた磁気信号検出器 (磁気センサ) 53と、磁気センサ 53から 出力された検出信号に基づいて探触子 50の三次元位置や傾き(ねじれ)等を表す データ (以下、位置データという)を算出して超音波断層面座標算出部 54及び切断 面作成部 13に出力する位置データ算出部 59と、を有する。
[0064] 超音波断層面座標算出部 54は、探触子 50の位置データを取得してリファレンス画 像構成部 55に出力する。リアルタイム撮像のときは、リファレンス画像構成部 55は、 現に撮像されている超音波画像に対応する位置データを超音波断層面座標算出部 54からリアルタイムに取得する。
[0065] ボリュームデータ記憶部 11は、医用画像診断装置 10が取得したボリュームデータ をその三次元位置座標とともにメモリなどに記憶するものであり、様々な画像診断装 置が取得した複数種類のボリュームデータを記憶することもできる。
[0066] リファレンス画像構成部 55は、超音波断層面座標算出部 54から出力された探触子 50の位置データに基づき、ボリュームデータ記憶部 11に記憶されたボリュームデー タカゝらリファレンス画像用データを抽出してリファレンス画像を再構成する。このリファ レンス画像用データは、リアルタイム撮像のときは、現に撮像されている超音波画像 のスキャン面に対応する。リファレンス画像は、撮像されている超音波画像と同一断 面の断層像として表示部 56に表示される。
[0067] 超音波診断装置 57は、探触子 50のガイド情報を作成する手段として、ボリューム データ記憶部 11に記憶されたボリュームデータに基づ 、て MIP画像及びサーフェイ スレンダリング(SR)画像を作成してそれらを合成する三次元画像作成部 58と、三次 元空間の切断面を作成する切断面作成部 13と、 MIP画像と切断面との相互位置関 係を表す位置関係表示画像を作成する位置関係表示画像作成部 14と、を備えてい る。位置関係表示画像作成部 14で作成された位置関係表示画像が探触子 50のガ イド情報となり、検者はガイド情報に基づいて探触子 50を移動させる。なお、超音波 診断装置 57は、各構成要素を制御する制御部及び操作部 (不図示)を備えている。
[0068] ここで、ガイド情報の作成にっ 、て詳細に説明する。三次元画像作成部 58は、ボリ
Figure imgf000017_0001
、て第 1の実施形態で 説明した MIP法を用いて MIP画像を作成すると共に、ボリュームデータ記憶部 11に 記憶されたボリュームデータに基づ 、てサ一フェイスレンダリング(SR)法やボリユー ムレンダリング (VR)法を用いて被検体の体表を表す画像 (ここでは、 SR画像と称す ることとする)を作成する。
[0069] サーフェイスレンダリング法では、ボリュームデータに対して視点及び投影面が検者 により設定され、ボリュームデータから閾値処理などによって被検体の表面境界が抽 出され、投影面上の各画素 (座標 (X, Y) )への投影値として、視線ベクトルと境界面 の法線ベクトルとのなす角度をもととした陰影処理結果が投影値に反映される。この とき、奥行き情報 (z座標)には表面境界の Z座標が採用される。
[0070] ボリュームレンダリング法では、ボリュームデータに対して視点及び投影面が検者に より設定され、投影面上の各画素 (座標 (X, Y) )への投影値として、視線上にあるボ クセルの輝度が各画素の不透明度によって重み付けされながら加算される。このとき 、奥行き情報 (Z座標)には、輝度値がある閾値より大きくなつた個所の Z座標又は輝 度勾配がある閾値より大きくなつた個所の Z座標が採用される。
[0071] 三次元画像作成部 58は、血管部分の画像を MIP法で作成し被検体の体表の画 像をサーフェイスレンダリング法やボリュームレンダリング法で作成して三次元画像を 作成する際、三次元空間における MIP画像及び SR画像の奥行き情報 (Z座標)を併 せて算出する。
[0072] 三次元画像作成部 58は、上述の通り作成した MIP画像と SR画像とを合成する。
三次元画像作成部 58は、 MIP画像と SR画像とを合成する際、 MIP画像の Z座標と SR画像の Z座標とを比較することにより、 MIP画像及び SR画像のうち視点 21からよ り遠く他方の陰になって見えない一方に対して陰面処理を施す。通常、血管の画像( MIP画像)が体表の画像 (SR画像)より奥側に配置される。このとき、 MIP画像及び SR画像に対してそれぞれ不透明度を設定しておき、不透明度に応じた係数及び Z 座標値に応じた割合で MIP画像の輝度値と SR画像の輝度値とをブレンドすることで 、手前側の SR画像が半透明に表示され、奥側の MIP画像が SR画像を透過して表 示されるようにする。この合成された三次元画像は、被検体体表と血管との位置関係 を表現しているので、被検体内のどこの血管が表示されている力、また、血管のどの 位置からどの方向を観察しているかを、検者に明確に把握させることができる。
[0073] 切断面作成部 13は、位置データ算出部 59から出力された磁気センサ 53の位置デ ータ(探触子 50の三次元位置と傾き(ねじれ))に基づいて、三次元空間内における 切断面を作成する。具体的には、切断面作成部 13は、探触子 50の三次元位置に基 づいて第 1の実施形態で説明した平面式 (式 (2) )において (X , Υ , Z )を変化させ
0 0 0
ることにより、切断面の三次元位置を探触子 50の三次元位置に応じて移動させる。ま た、切断面作成部 13は、探触子 50の傾き(ねじれ)に基づいて第 1の実施形態で説 明した回転成分 R (式(1) )を変化させて、切断面を切断面の中心を支点として回転 させることにより、切断面を、探触子 50の回転に応じて、切断面の中心を通る切断面 の法線を軸として回転させる。
[0074] 位置関係表示画像作成部 14は、三次元画像作成部 58で作成された MIP画像と S R画像とが合成された三次元画像と、切断面作成部 13で作成された切断面との相互 位置関係を表す位置関係表示画像を作成する。
[0075] MIP画像と SR画像と切断面との関係については、第 1の実施形態で説明したのと 同様に、 MIP画像、 SR画像及び切断面について、それぞれの Z座標値が比較され 、視点 21に近い画像順に並べ替えられ (Z順に並べ替えられ)、陰面処理が施される 。そして、視点 21に近い方の画像ほど手前側に表示される。
[0076] ここで、位置関係表示画像の作成方法としては、 MIP画像、 SR画像及び切断面の それぞれに不透明度を設定しておき、不透明度が高いほど係数を重くして Z順に輝 度値を重み付け加算する。具体的には、例えば、投影面の或る位置 (X, Y)におい て、視点 21から切断面、 SR画像、 MIP画像という順序で並んでいて、切断面及び S R画像の不透明度を低ぐ MIP画像の不透明度を高く設定した場合、位置関係表示 画像において、視点から手前側の切断面及び SR画像が半透明で表示され、その奥 側にある MIP画像が切断面及び SR画像を透過して表示される。さら〖こ、 MIP画像の Z座標値と切断面の Z座標値とが等しい場合は、位置関係表示画像上の位置 (X, Y )において輝度値を例えば青色に設定し、 SR画像の Z座標値と切断面の Z座標値と が等しい場合は、位置関係表示画像上の位置 (X, Y)において輝度値を例えば黄 色に設定する。これにより、位置関係表示画像において、切断面と MIP画像との境 界線が青色、切断面と SR画像との境界線が黄色で表現され、明瞭になる。
[0077] 図 10に示すように、表示部 56は、位置関係表示画像部 14で作成された位置関係 表示画像 60、超音波画像作成部 52で作成された超音波画像 63、及びリファレンス 画像構成部 55で作成されたリファレンス画像 64を表示する。
[0078] 位置関係表示画像 60では、 MIP画像として表示された血管 31、 32、 33の画像と 共に切断面 34が表示されているので、検者は、血管 31、 32及び 33のそれぞれと切 断面 34との位置関係から、血管 32が最も手前側に位置し、血管 31が最も奥側に位 置し、血管 33が血管 32と血管 31との間に位置することを把握することができ、血管 3 1、 32及び 33の奥行き関係を把握することができる。更に、合成画像 60では、被検 体の体表を表す SR画像 36が血管 31、 32、 33の画像及び切断面 34と共に表示さ れているので、検者は、被検体の体表と血管 31、 32及び 33との立体的な位置関係 を把握することができる。
[0079] 超音波画像 63及びリファレンス画像 64は、切断面 34に対応する被検体の断層像 である。超音波画像 63及びリファレンス画像 64のそれぞれに、切断面 34によって切 断される血管 31、 32及び 33の断面にそれぞれ対応する断面像 65、 66及び 67が表 示される。したがって、検者は、超音波画像 63及びリファレンス画像 64からも、血管 3 1、 32及び 33の奥行き関係を把握することができる。
[0080] 表示部 56に表示される表示画面は、撮像中の超音波画像 63が表示される表示ェ リア 61と、超音波画像 63と表示断面が同一のリファレンス画像 64が表示される表示 エリア 62と、合成画像 60のガイド情報が表示される表示エリアと、を有している。表示 エリア 61及び表示エリア 62を横並びに配置し、合成画像 60のガイド情報が表示され る表示エリアを表示エリア 61及び表示エリア 62の下方に配置してもよい。これらの表 示形態に限られず、診断に支障のない範囲内で、合成画像のガイド情報が表示され る表示エリアの位置を変更してもよい。また、超音波画像を撮像している探触子 50の 位置をボディーマークに重ねて表示することが望ましい。更に、検者が操作部を介し て各表示エリアの表示画面内での位置を移動できるようにしてもよ 、。
[0081] 図 11A、 11B及び 11Cは、超音波画像 63の形状を説明する図である。図 10に示 す実施形態の超音波画像 63は、コンベックス形の超音波探触子 50により得られたも のであり、図 11Aに示すように、探触子 50のプローブ半径 PR並びに超音波画像 63 の視野 F及び深度 Dが超音波画像 63の形状によって表されている。図 10に示す実 施形態では、切断面 34及びリファレンス画像 64の形状力 コンベックス形とされ、超 音波画像 63の形状と統一されて 、る。
[0082] 図 11Bはリニア形の超音波探触子 50により得られた超音波画像 63を説明する図 であり、図 11Cはセクタ一形の超音波探触子 50により得られた超音波画像 63を説明 する図であり、それぞれにおいて、超音波画像 63の視野 F及び深度 Dが超音波画像 63の形状によって表されている。なお、超音波探触子は三次元スキャン形であっても よい。これらの超音波画像 63の形状に合わせて、切断面 34及びリファレンス画像 64 の形状が決められることが望まし 、。
[0083] 以上の実施の形態では、三次元画像の例として MIP画像が説明されている力 Ml
P画像の他にボリュームレンダリングによる三次元画像や MinIP (Minimum Intensity
Projection)画像を適用してもよい。 MinIP処理は、視線 22上のそれぞれのボタセル につ 、て最小値を取り出して投影画像を得る処理である。
[0084] 以上の実施の形態では、 MIP画像や SR画像に切断面を合成する際、それぞれの 画素の輝度すなわち画像の不透明度を調整して合成することにより奥行きが表現さ れて ヽるが、画素の色相やその他の画像要素を調整してもよ 、。
[0085] また、以上の実施の形態では、超音波探触子 50の三次元位置情報を得るために 磁気センサ 53が用いられているが、赤外線や超音波等により三次元位置情報を得る センサを用いてもよい。
産業上の利用可能性
[0086] 以上説明した画像表示方法及び医用画像診断システムによれば、奥行き情報を付 与した三次元画像を作成して表示することができる。

Claims

請求の範囲
[1] ボリュームデータに基づいて三次元画像を作成する三次元画像作成ステップと、 前記三次元画像を任意の位置で切断する切断面を設定する切断面設定ステップと 前記三次元画像と前記切断面との相互位置関係を表す位置関係表示画像であつ て、前記三次元画像のうち前記切断面によって隠れる部分が前記位置関係表示画 像にお 1、て前記切断面越しに視認可能であるように前記切断面の前記位置関係表 示画像における不透明度が調整される、前記位置関係表示画像を作成する位置関 係表示画像作成ステップと、
を含むことを特徴とする画像表示方法。
[2] 前記位置関係表示画像作成ステップにおいて、前記切断面のうち前記三次元画 像によって隠れる部分が前記位置関係表示画像において前記三次元画像越しに視 認可能であるように前記三次元画像の前記位置関係表示画像における不透明度が 調整されることを特徴とする請求項 1記載の画像表示方法。
[3] 前記位置関係表示画像作成ステップにお!ヽて、前記三次元画像及び前記切断面 が重なる部分と前記三次元画像及び前記切断面が重ならない部分とが前記位置関 係表示画像において異なって表示されるように、前記三次元画像及び前記切断面の 少なくとも一方の前記位置関係表示画像における不透明度が調整されることを特徴 とする請求項 1記載の画像表示方法。
[4] 前記位置関係表示画像作成ステップにお!ヽて、前記三次元画像の前記切断面に よって分けられる二つの部分の少なくとも一方において、前記三次元画像及び前記 切断面が重なる部分と前記三次元画像及び前記切断面が重ならない部分とが前記 位置関係表示画像において異なって表示されるように、前記三次元画像及び前記 切断面の少なくとも一方の前記位置関係表示画像における不透明度が調整されるこ とを特徴とする請求項 1記載の画像表示方法。
[5] 前記位置関係表示画像作成ステップにお!ヽて、前記三次元画像及び前記切断面 が重ならない部分と、前記三次元画像の前記切断面によって分けられる二つの部分 の一方にお 、て前記三次元画像及び前記切断面が重なる部分と、前記三次元画像 の前記切断面によって分けられる前記二つの部分の他方において前記三次元画像 及び前記切断面が重なる部分と、が前記位置関係表示画像にお!、て異なって表示 されるように、前記三次元画像及び前記切断面の少なくとも一方の前記位置関係表 示画像における不透明度が調整されることを特徴とする請求項 1記載の画像表示方 法。
[6] 前記位置関係表示画像作成ステップにお!、て、基準点が設定され、前記基準点と 前記三次元画像と前記切断面との相互位置関係に基づいて前記三次元画像及び 前記切断面の前記少なくとも一方の前記位置関係表示画像における不透明度が調 整されることを特徴とする請求項 5記載の画像表示方法。
[7] 前記位置関係表示画像作成ステップにお!ヽて、前記三次元画像及び前記切断面 のうち前記基準点に近い方がより明瞭に視認可能となるように前記三次元画像及び 前記切断面の前記少なくとも一方の前記位置関係表示画像における不透明度が調 整されることを特徴とする請求項 5記載の画像表示方法。
[8] 前記位置関係表示画像作成ステップにお!ヽて、前記三次元画像及び前記切断面 のうち前記基準点力 遠い方がより不明瞭に視認可能となるように前記三次元画像 及び前記切断面の前記少なくとも一方の前記位置関係表示画像における不透明度 が調整されることを特徴とする請求項 5記載の画像表示方法。
[9] 前記ボリュームデータに基づいて被検体の体表画像を作成する体表画像作成ステ ップを更に含み、
前記位置関係表示画像作成ステップにお!ヽて、前記三次元画像と前記切断面と前 記体表画像との相互位置関係を表すように前記位置関係表示画像が作成される、 ことを特徴とする請求項 1記載の画像表示方法。
[10] 前記位置関係表示画像作成ステップにおいて、前記三次元画像のうち前記体表 画像及び前記切断面の少なくとも一方によって隠れる部分が前記位置関係表示画 像において前記体表画像及び前記切断面の前記少なくとも一方越しに視認可能で あるように、前記三次元画像、前記切断面及び前記体表画像の少なくとも一つの前 記位置関係表示画像における不透明度が調整されることを特徴とする請求項 9記載 の画像表示方法。
[11] 前記位置関係表示画像作成ステップにおいて、前記切断面及び前記体表画像の 境界線の色と前記切断面及び前記三次元画像の境界線の色とが異なるように前記 位置関係表示画像が作成されることを特徴とする請求項 9記載の画像表示方法。
[12] 前記三次元画像作成ステップにおいて、最大輝度投影法により得られる最大輝度 を表す三次元画像として前記三次元画像が作成されることを特徴とする請求項 1記 載の画像表示方法。
[13] 前記三次元画像作成ステップにおいて、最大輝度投影法により得られる最大輝度 を有するボタセルを含む組織の外形を表す三次元画像として前記三次元画像が作 成されることを特徴とする請求項 1記載の画像表示方法。
[14] 前記三次元画像作成ステップにおいて、ボリュームレンダリング法により得られるボ リュームレンダリング画像として前記三次元画像が作成されることを特徴とする請求項
1記載の画像表示方法。
[15] 前記位置関係表示画像作成ステップにおいて、前記三次元画像の不透明度及び 前記切断面の不透明度が設定され、前記三次元画像及び前記切断面がそれぞれ の前記不透明度に応じた係数により重み付けされて加算されることにより、前記三次 元画像及び前記切断面の少なくとも一方が半透明化された画像として前記位置関係 表示画像が作成されることを特徴とする請求項 1記載の画像表示方法。
[16] 被検体に関するボリュームデータを記憶するボリュームデータ記憶手段と、
前記ボリュームデータに基づいて三次元画像を作成する三次元画像作成手段と、 前記三次元画像を任意の位置で切断する切断面を設定する切断面設定手段と、 前記三次元画像と前記切断面との相互位置関係を表す位置関係表示画像であつ て、前記三次元画像のうち前記切断面によって隠れる部分が前記位置関係表示画 像にお 1、て前記切断面越しに視認可能であるように前記切断面の前記位置関係表 示画像における不透明度が調整される、前記位置関係表示画像を作成する位置関 係表示画像作成手段と、
を備えることを特徴とする医用画像診断システム。
[17] 前記被検体との間で超音波を送受する探触子と、
前記探触子に駆動信号を供給すると共に、前記探触子から出力される受信信号を 処理して受信データを出力する超音波送受信手段と、
前記超音波送受信手段から出力された前記受信データに基づいて超音波画像を 再構成する超音波画像作成手段と、
前記位置関係表示画像及び前記超音波画像の少なくとも一方を表示する表示手 段と、
を更に備えることを特徴とする請求項 16記載の医用画像診断システム。
[18] 前記探触子の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記探触子の前記位置情報に基づいて 、前記切断面に前記三次元画像に対して移動及び回転の少なくとも一方をさせる切 断面移動手段と、
を更に備えることを特徴とする請求項 17記載の医用画像診断システム。
[19] 前記ボリュームデータ及び前記探触子の前記位置情報に基づいて前記超音波画 像と同一断面のリファレンス画像を作成するリファレンス画像作成手段を更に備え、 前記表示手段は、前記リファレンス画像を表示する、
ことを特徴とする請求項 18記載の医用画像診断システム。
[20] 前記切断面の形状、前記超音波画像の形状及び前記リファレンス画像の少なくとも 一つの形状は、リニア型、コンベックス型及びセクタ一型の一つであることを特徴とす る請求項 19記載の医用画像診断システム。
PCT/JP2006/318841 2005-10-07 2006-09-22 画像表示方法及び医用画像診断システム WO2007043310A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP06810454A EP1935344B1 (en) 2005-10-07 2006-09-22 Image displaying method and medical image diagnostic system
JP2007539851A JP5495357B2 (ja) 2005-10-07 2006-09-22 画像表示方法及び医用画像診断システム
CN2006800372347A CN101351156B (zh) 2005-10-07 2006-09-22 图像显示方法和医用图像诊断系统
US12/089,425 US8747319B2 (en) 2005-10-07 2006-09-22 Image displaying method and medical image diagnostic system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-295108 2005-10-07
JP2005295108 2005-10-07

Publications (1)

Publication Number Publication Date
WO2007043310A1 true WO2007043310A1 (ja) 2007-04-19

Family

ID=37942561

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/318841 WO2007043310A1 (ja) 2005-10-07 2006-09-22 画像表示方法及び医用画像診断システム

Country Status (5)

Country Link
US (1) US8747319B2 (ja)
EP (1) EP1935344B1 (ja)
JP (1) JP5495357B2 (ja)
CN (1) CN101351156B (ja)
WO (1) WO2007043310A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009247693A (ja) * 2008-04-08 2009-10-29 Toshiba Corp 超音波診断装置
JP2011055922A (ja) * 2009-09-08 2011-03-24 Hitachi Medical Corp 医療画像表示装置、医療画像表示方法及びそれを実行するプログラム
JPWO2013021711A1 (ja) * 2011-08-11 2015-03-05 株式会社日立メディコ 超音波診断装置及び超音波画像表示方法
JPWO2013035393A1 (ja) * 2011-09-08 2015-03-23 株式会社日立メディコ 超音波診断装置及び超音波画像表示方法
JP2016007502A (ja) * 2014-06-26 2016-01-18 株式会社東芝 医用画像処理装置及び医用画像処理方法
JP2017189460A (ja) * 2016-04-14 2017-10-19 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
CN112907517A (zh) * 2021-01-28 2021-06-04 上海商汤智能科技有限公司 一种图像处理方法、装置、计算机设备及存储介质

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008091583A2 (en) * 2007-01-23 2008-07-31 Dtherapeutics, Llc Image-based extraction for vascular trees
JP5226370B2 (ja) * 2008-04-18 2013-07-03 株式会社東芝 読影レポート作成支援システム
KR20100008217A (ko) * 2008-07-15 2010-01-25 주식회사 메디슨 초음파 영상과 외부 영상을 디스플레이하고 조작하는초음파 시스템 및 그 조작 방법
JP4466968B2 (ja) * 2008-11-10 2010-05-26 キヤノン株式会社 画像処理装置、画象処理方法、プログラム、及びプログラム記憶媒体
CN102458255B (zh) * 2009-06-10 2015-04-01 株式会社日立医疗器械 超声波诊断装置、超声波图像处理装置、超声波图像处理程序、以及超声波图像生成方法
CN102025814A (zh) * 2009-09-11 2011-04-20 深圳富泰宏精密工业有限公司 便携式电子装置
KR101182891B1 (ko) * 2009-12-09 2012-09-13 삼성메디슨 주식회사 2차원 초음파 영상과 3차원 초음파 영상의 합성영상을 제공하는 초음파 시스템 및 방법
JP5551955B2 (ja) * 2010-03-31 2014-07-16 富士フイルム株式会社 投影画像生成装置、方法、及びプログラム
US9514564B2 (en) * 2010-10-28 2016-12-06 Hitachi Medical Corporation Ultrasonic diagnostic apparatus and ultrasonic image display method
JP5717543B2 (ja) * 2011-05-30 2015-05-13 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置及びその制御プログラム
JP6147464B2 (ja) * 2011-06-27 2017-06-14 東芝メディカルシステムズ株式会社 画像処理システム、端末装置及び方法
JP6058290B2 (ja) * 2011-07-19 2017-01-11 東芝メディカルシステムズ株式会社 画像処理システム、装置、方法及び医用画像診断装置
JP5414906B2 (ja) * 2011-08-05 2014-02-12 株式会社東芝 画像処理装置、画像表示装置、画像処理方法およびプログラム
US20130150718A1 (en) * 2011-12-07 2013-06-13 General Electric Company Ultrasound imaging system and method for imaging an endometrium
CN104303184B (zh) * 2012-03-21 2018-05-15 皇家飞利浦有限公司 整合医疗成像和活检数据的临床工作站以及使用其的方法
WO2013142220A2 (en) 2012-03-22 2013-09-26 The Cleveland Clinic Foundation Augmented reconstruction for computed tomography
US9301733B2 (en) * 2012-12-31 2016-04-05 General Electric Company Systems and methods for ultrasound image rendering
WO2015048178A2 (en) * 2013-09-25 2015-04-02 Heartflow, Inc. Systems and methods for visualizing elongated structures and detecting branches therein
KR20150105149A (ko) * 2014-03-07 2015-09-16 삼성메디슨 주식회사 도움말 정보를 제공하는 의료 영상 장치 및 그 도움말 정보 제공 방법
CN106108944B (zh) * 2016-06-23 2019-07-09 飞依诺科技(苏州)有限公司 一种超声波三维图像的显示方法及装置
CN110087547A (zh) * 2016-12-22 2019-08-02 佳能株式会社 显示控制装置、显示控制方法和程序

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000000238A (ja) * 1998-06-15 2000-01-07 Toshiba Iyo System Engineering Kk 3次元超音波システム
JP2000245487A (ja) 1999-01-27 2000-09-12 Affymetrix Inc 遺伝子組成物および方法
JP2003180697A (ja) * 2001-12-18 2003-07-02 Olympus Optical Co Ltd 超音波診断装置
JP2005295108A (ja) 2004-03-31 2005-10-20 Japan Telecom Co Ltd モビリティ制御装置、複製転送装置、及びこれらを用いたモビリティ制御システム、モビリティ制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3187148B2 (ja) * 1991-08-26 2001-07-11 株式会社東芝 超音波診断装置
US5720291A (en) * 1996-03-22 1998-02-24 Advanced Technology Laboratories, Inc. Three dimensional medical ultrasonic diagnostic image of tissue texture and vasculature
JP3365929B2 (ja) * 1996-10-07 2003-01-14 ジーイー横河メディカルシステム株式会社 画像処理方法及び画像処理装置
JPH11164833A (ja) * 1997-09-30 1999-06-22 Toshiba Corp 医用画像診断装置
US6511426B1 (en) * 1998-06-02 2003-01-28 Acuson Corporation Medical diagnostic ultrasound system and method for versatile processing
JP4421016B2 (ja) * 1999-07-01 2010-02-24 東芝医用システムエンジニアリング株式会社 医用画像処理装置
JP4350226B2 (ja) 1999-09-13 2009-10-21 東芝医用システムエンジニアリング株式会社 三次元画像処理装置
US6254540B1 (en) * 1999-11-19 2001-07-03 Olympus Optical Co., Ltd. Ultrasonic image processing apparatus for constructing three-dimensional image using volume-rendering data and surface-rendering data simultaneously
JP3579320B2 (ja) 1999-11-25 2004-10-20 オリンパス株式会社 超音波画像処理装置
EP1308903B1 (en) * 2000-06-16 2010-04-14 Imagnosis Inc. Point inputting device and method for three-dimensional images
US7044913B2 (en) * 2001-06-15 2006-05-16 Kabushiki Kaisha Toshiba Ultrasonic diagnosis apparatus
US8102392B2 (en) * 2003-06-27 2012-01-24 Kabushiki Kaisha Toshiba Image processing/displaying apparatus having free moving control unit and limited moving control unit and method of controlling the same
FR2863085B1 (fr) * 2003-11-28 2006-05-05 Ge Med Sys Global Tech Co Llc Procede et outil d'analyse d'images radiologiques en vue de la detection de thrombus
US7604595B2 (en) * 2004-06-22 2009-10-20 General Electric Company Method and system for performing real time navigation of ultrasound volumetric data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000000238A (ja) * 1998-06-15 2000-01-07 Toshiba Iyo System Engineering Kk 3次元超音波システム
JP2000245487A (ja) 1999-01-27 2000-09-12 Affymetrix Inc 遺伝子組成物および方法
JP2003180697A (ja) * 2001-12-18 2003-07-02 Olympus Optical Co Ltd 超音波診断装置
JP2005295108A (ja) 2004-03-31 2005-10-20 Japan Telecom Co Ltd モビリティ制御装置、複製転送装置、及びこれらを用いたモビリティ制御システム、モビリティ制御方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IWASAKI T.: "Real-time Virtual sonography (RVS)", EIZO JOHO MEDICAL, 1 November 2004 (2004-11-01), pages 6 - 9, XP003011594 *
See also references of EP1935344A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009247693A (ja) * 2008-04-08 2009-10-29 Toshiba Corp 超音波診断装置
JP2011055922A (ja) * 2009-09-08 2011-03-24 Hitachi Medical Corp 医療画像表示装置、医療画像表示方法及びそれを実行するプログラム
JPWO2013021711A1 (ja) * 2011-08-11 2015-03-05 株式会社日立メディコ 超音波診断装置及び超音波画像表示方法
JPWO2013035393A1 (ja) * 2011-09-08 2015-03-23 株式会社日立メディコ 超音波診断装置及び超音波画像表示方法
JP2016007502A (ja) * 2014-06-26 2016-01-18 株式会社東芝 医用画像処理装置及び医用画像処理方法
JP2017189460A (ja) * 2016-04-14 2017-10-19 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
CN112907517A (zh) * 2021-01-28 2021-06-04 上海商汤智能科技有限公司 一种图像处理方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN101351156A (zh) 2009-01-21
CN101351156B (zh) 2010-12-01
JPWO2007043310A1 (ja) 2009-04-16
JP5495357B2 (ja) 2014-05-21
EP1935344B1 (en) 2013-03-13
US20090306504A1 (en) 2009-12-10
EP1935344A1 (en) 2008-06-25
EP1935344A4 (en) 2011-05-11
US8747319B2 (en) 2014-06-10

Similar Documents

Publication Publication Date Title
JP5495357B2 (ja) 画像表示方法及び医用画像診断システム
JP4847334B2 (ja) 超音波撮像装置及び投影像生成方法
US20230414201A1 (en) Ultrasonic diagnostic apparatus
JP5637653B2 (ja) 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
US8715189B2 (en) Ultrasonic diagnosis apparatus for setting a 3D ROI using voxel values and opacity
KR101466153B1 (ko) 의료 영상 장치 및 그 제어 방법
US20120245465A1 (en) Method and system for displaying intersection information on a volumetric ultrasound image
JP5848709B2 (ja) 超音波診断装置及び超音波画像表示方法
JP5774498B2 (ja) 超音波診断装置
KR20000069171A (ko) 3차원 이미징 시스템에 대한 향상된 이미지 처리
JP2011224362A (ja) 超音波データにおいて関心領域を決定するための方法及びシステム
JP2013536720A (ja) 2次元超音波画像の3次元表示
JP5525930B2 (ja) 三次元超音波画像を生成表示する超音波診断装置
CN102802537A (zh) 体积超声图像数据重新格式化为图像平面序列
KR20150029353A (ko) 영상 처리 장치 및 영상 처리 방법
JP2009018115A (ja) 3次元超音波診断装置
CN106030657B (zh) 医学4d成像中的运动自适应可视化
JP5942217B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2001276066A (ja) 三次元画像処理装置
JP4936281B2 (ja) 超音波診断装置
KR101014559B1 (ko) 3차원 초음파 영상 제공 초음파 시스템 및 방법
CN110574074B (zh) 链接到mpr视图十字线的3d体积中的嵌入式虚拟光源
JP2021102086A (ja) 最適な超音波式臓器セグメンテーション
US20230181165A1 (en) System and methods for image fusion
US20180214128A1 (en) Method and ultrasound imaging system for representing ultrasound data acquired with different imaging modes

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680037234.7

Country of ref document: CN

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2007539851

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2006810454

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12089425

Country of ref document: US