WO2006085571A1 - 超音波診断装置及び超音波撮像方法 - Google Patents

超音波診断装置及び超音波撮像方法 Download PDF

Info

Publication number
WO2006085571A1
WO2006085571A1 PCT/JP2006/302235 JP2006302235W WO2006085571A1 WO 2006085571 A1 WO2006085571 A1 WO 2006085571A1 JP 2006302235 W JP2006302235 W JP 2006302235W WO 2006085571 A1 WO2006085571 A1 WO 2006085571A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
image
dimensional
ultrasonic image
image data
Prior art date
Application number
PCT/JP2006/302235
Other languages
English (en)
French (fr)
Inventor
Takehiro Tsujita
Tetsuya Hayashi
Original Assignee
Hitachi Medical Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corporation filed Critical Hitachi Medical Corporation
Priority to CN2006800023261A priority Critical patent/CN101102721B/zh
Priority to JP2007502633A priority patent/JP4785149B2/ja
Priority to US11/815,657 priority patent/US8617075B2/en
Priority to EP06713378A priority patent/EP1847222B1/en
Priority to DE602006021274T priority patent/DE602006021274D1/de
Publication of WO2006085571A1 publication Critical patent/WO2006085571A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus and an ultrasonic imaging method for displaying a three-dimensional ultrasonic image by scanning ultrasonic waves.
  • An ultrasonic diagnostic apparatus that displays a three-dimensional ultrasonic image irradiates a subject with ultrasonic waves via an ultrasonic probe, and performs three-dimensional ultrasonic waves based on reflected echo signals generated by the subject force. Reconstruct the image and display it on the display.
  • Patent Document 1 a 3D ultrasound image viewed from an arbitrarily set viewpoint direction is changed by arbitrarily changing the viewpoint in 3D ultrasound image data acquired via an ultrasound probe. Configure and display.
  • the ultrasound image data obtained by scanning the ultrasound probe includes the obstacle.
  • Patent Document 1 if a three-dimensional ultrasonic image is constructed by installing an ultrasonic probe at that position, an image including an obstacle is obtained. Therefore, even if the viewpoint position for displaying the 3D ultrasound image is changed, the 3D ultrasound image data acquired by the ultrasound probe force does not change, and the 3D ultrasound image is affected by obstacles. There is a risk of losing.
  • Patent Document 1 Japanese Patent Laid-Open No. 2001-79003
  • An object of the present invention is to display a three-dimensional ultrasonic image with a stable display form when the inside of a subject is imaged using an ultrasonic diagnostic apparatus.
  • an ultrasonic probe that transmits / receives ultrasonic waves to / from a subject, and three-dimensional ultrasonic image data based on an ultrasonic signal received from the ultrasonic probe.
  • Three A position sensor for detecting a position of the ultrasonic probe in an ultrasonic diagnostic apparatus including an ultrasonic image forming unit that forms a three-dimensional ultrasonic image and a display unit that displays the three-dimensional ultrasonic image; A first position of the ultrasonic probe obtained from the position sensor; a position information analysis unit for analyzing a positional relationship between the first position and the second position;
  • the image construction unit converts the 3D ultrasound image data acquired at the second position to become a 3D ultrasound image at the first position based on the positional relationship, and at the first position.
  • the 3D ultrasonic image is constructed.
  • the position information analysis unit analyzes a positional relationship based on a change amount of a position between the first position and the second position of the ultrasonic probe and a change amount of a rotation solid angle.
  • a correction parameter for converting the three-dimensional ultrasonic image data is calculated from the conversion information indicating the first position of the ultrasonic probe and the conversion information indicating the second position of the ultrasonic probe. To do. Then, the image construction unit converts the three-dimensional ultrasonic image data based on the positional relationship or the correction parameter.
  • An ultrasonic imaging method comprising the step of constructing and displaying the converted three-dimensional ultrasonic image.
  • FIG. 1 is a block diagram of an ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 2 is a diagram showing details of a block diagram of an ultrasonic diagnostic apparatus according to the present invention.
  • FIG. 3 is a conceptual diagram of display processing according to the present invention and a diagram showing a fourth embodiment.
  • FIG. 4 is a diagram showing a flowchart of display processing in the present invention.
  • FIG. 5 is a diagram showing a second embodiment of the present invention.
  • FIG. 6 is a diagram showing a third embodiment of the present invention.
  • FIG. 7 is a diagram showing a fifth embodiment of the present invention.
  • This embodiment is an example in which a position sensor connected to an ultrasonic probe is used to display a target portion viewed from a certain direction without depending on the position of the ultrasonic probe.
  • FIG. 1 shows a block diagram of the ultrasonic diagnostic apparatus in the present embodiment.
  • the ultrasonic diagnostic apparatus 1 shown in FIG. 1 includes an ultrasonic probe 2 in which transducer elements for transmitting and receiving ultrasonic waves are arranged, and an ultrasonic signal to the subject 50 via the ultrasonic probe 2.
  • Ultrasonic transmitter / receiver 3 that performs processing such as phasing addition and log compression on the transmitted and received ultrasonic signal, position sensor (terminal) 4 attached to ultrasonic probe 2, magnetic signal
  • a source 5 that detects the position of the position sensor 4
  • a position information analysis unit 6 that analyzes the position information of the position sensor 4 from the source 5 and calculates correction parameters for correcting the 3D ultrasound image data.
  • Ultrasonic transmitter / receiver 3 Performs processing such as filtering and scan conversion on 3D ultrasound image data of 3 forces, and reconstructs 3D ultrasound image using correction parameters from position information analyzer 6
  • Ultrasonic image composition unit 7 and display 8 for displaying images Been connected all modules, a control unit 9 for controlling, it made the control panel 10 force structure that gives an instruction to the control unit 9.
  • the position information analysis unit 6 includes a memory 61 for storing the position of the ultrasonic probe 2, a position information force correction parameter stored in the memory 61, and the like.
  • the ultrasonic image composing unit 7 includes a memory 71 for storing a two-dimensional ultrasonic image or a three-dimensional ultrasonic image, and a three-dimensional ultrasonic wave using a correction parameter or the like.
  • An image processing calculation unit 72 that corrects image data and forms a three-dimensional ultrasound image is provided.
  • the ultrasonic probe 2 is oscillated by l to k channels along the short axis direction when transducer elements are arranged along the l to m channels along the long axis direction and cut into k pieces along the short axis direction. Child elements are arranged.
  • the ultrasonic probe 2 can focus the received wave when transmitting in the major axis direction and minor axis direction by changing the delay time given to each transducer element (l to k channels). .
  • the ultrasonic probe 2 is weighted by changing the amplitude of the ultrasonic transmission signal applied to each transducer element in the short axis direction, and receives ultrasonic waves from each transducer element in the short axis direction.
  • Receive weighting can be applied by changing the amplification or attenuation of the signal. Furthermore, each transducer element in the minor axis direction is turned on / off. Therefore, the aperture can be controlled.
  • the ultrasonic probe 2 may be a mechanical ultrasonic probe that scans ultrasonic waves and acquires 3D ultrasonic image data while mechanically reciprocating the vibrator in the short axis direction. ,.
  • the memory 71 in the ultrasound image construction unit 7 first scans the ultrasound and stores the two-dimensional ultrasound image data. . Then, the ultrasonic image constructing unit 7 reads the two-dimensional ultrasonic image data sequentially for each frame, and each frame is combined by an adder in the ultrasonic constructing unit 7 to construct a three-dimensional ultrasonic image. At this time, the two-dimensional ultrasound image data and the position data of the ultrasound probe 2 are matched.
  • a position sensor 4 is attached to the ultrasonic probe 2.
  • the position sensor 4 has a magnetic sensor that detects, for example, a magnetic signal generated from a source 5 attached to a bed or the like.
  • the position sensor 4 detects the three-dimensional position and inclination of the ultrasonic probe 2 in the source coordinate system S.
  • the source coordinate system S is a three-dimensional orthogonal coordinate system with the source 5 as the origin So, and the X axis is aligned with the short side of the bed where the subject lies, the Y axis is aligned with the longitudinal direction of the bed, and the Z axis is aligned with the vertical direction. ing.
  • the source coordinate system S is not limited to a three-dimensional orthogonal coordinate system, and any source coordinate system may be used as long as the position of the ultrasonic probe 2 can be specified. Further, the position sensor 4 is not limited to one using a magnetic field, and may be one using light, for example.
  • FIG. 3 (a) A conceptual diagram of image processing in the present embodiment is shown in FIG.
  • the position A (a, b, c) is the position where the frontal image of the target site 12 is imaged. It will be displayed on the 3D ultrasound image. Therefore, the ultrasonic probe 2 is installed at the position B (a ′, b ′, c), and the target portion 12 is scanned with ultrasonic waves. Since there is no obstacle 13 between the ultrasound probe 2 and the target portion 12, the 3D ultrasound image data 14 obtained by scanning does not include the obstacle 13. When the ultrasound probe 2 is thus placed at the position B (a ′, b ′, c ′) and reconstruction is performed, a side image of the target region 12 is displayed.
  • the memory 61 in the position information analysis unit 6 stores the position of the ultrasonic probe 2 obtained from the position sensor 4, and the calculation unit 62 in the position information analysis unit 6 stores in the memory 61.
  • the positional relationship between the position A (a, b, c) and the position B (a ', b', c ') is analyzed.
  • the image processing calculation unit 72 in the ultrasonic image constructing unit 7 calculates the three-dimensional ultrasonic wave obtained from the position B (a ′, b ′, c ′).
  • the image data is converted into the position A (a, b, c), and a three-dimensional ultrasound image is constructed.
  • the position B (a ′, b ′, c ′) may be stored in the memory 61.
  • the calculation unit 62 in the position information analysis unit 6 uses the position A (a, b, c) of the ultrasound probe 2 as a conversion matrix that becomes the display position of the three-dimensional ultrasound image. Set. Then, the calculation unit 62 sets the transformation matrix of the position B (a ′, b ′, c) after changing the direction of the ultrasonic probe 2. Then, the transformation matrix force of position A (a, b, c) and position B (a ', b', c) and the amount of change in the rotation solid angle (correction parameter) are calculated. Based on the correction parameters, the image processing calculation unit 72 performs coordinate conversion of the 3D ultrasound image and changes the display direction of the 3D ultrasound image.
  • Equation (1) the transformation matrix S indicating the position and direction of the ultrasound probe 2 at the position A (a, b, c) is expressed by Equation (1) and the position B (a ', b', c
  • the transformation matrix D indicating the position and direction of the ultrasound probe 2 in ') is expressed by equation (2).
  • This transformation matrix is stored in the memory 61.
  • the calculation unit 62 assumes that the rotation matrix V for the three-dimensional ultrasonic image data 14 at the position A (a, b, c) arbitrarily determined in the ultrasonic probe 2 is expressed by Equation (3).
  • Equation (7) The transformation matrix X from position A (a, b, c) to position B (a ', b', c ') is set as equation (6) from equation (5). Therefore, the relationship between the correction parameter M, the transformation matrix X, and the rotation matrix V expressed by Equation (4) is as shown in Equation (7).
  • the correction parameter M is calculated by the calculation unit 62 using the equation (8). That is, the 3D ultrasound image data 14 obtained at the position B (a ′, b ′, c ′) of the ultrasound probe 2 uses the coordinate transformation represented by the correction parameter M. Rotated around the center of the 3D ultrasound image. By reconstructing the rotated three-dimensional ultrasonic image, the image processing calculation unit 72 can obtain a three-dimensional ultrasonic image having a directional force at the position A (a, b, c).
  • Figure 4 shows the procedure for calculating position correction parameters.
  • the calculation unit 62 in the position information analysis unit 6 updates the transformation matrix D indicating the current position of the ultrasonic probe 2 (S100) !, from the control panel 10 Update the input rotation matrix V (S101).
  • the 3D ultrasound image obtained at position B (a ', b', c ') is corrected to position A (a, b, c), that is, when the display correction function is turned on ( S102), before moving (the transformation matrix S indicating the position of the ultrasound probe 2 at position A (a, b, c) is fixed and the transformation matrix D is set to be variable (S103 ').
  • the transformation matrix S indicating the position of the ultrasound probe 2 at the position A (a, b, c >> is updated. Therefore, the correction parameter M calculated in the processing (S 104) is calculated from the transformation matrix D representing the current position of the ultrasound probe 2 from the position A (a, b of the ultrasound probe 2 before the movement.
  • c) is a transformation matrix for performing the rotation matrix V input from the control panel 10 in addition to the movement to the transformation matrix S indicating that the correction parameter M is the current ultrasonic probe.
  • 3D ultrasound image data scanned at position B (a ', b', c ') in position 2 was scanned at the position of ultrasound probe 2 at position A (a, b, c).
  • the 3D The transformation matrix D representing the current position B (a ', b', c ') of the ultrasound probe 2 is updated for each scan, Since the transformation matrix S indicating the position A (a, b, c) of the ultrasound probe 2 is not updated while the display correction is on, the current position B ( Regardless of a ′, b ′, c ′), the display state when observed at the position A (a, b, c) of the ultrasonic probe 2 before the movement can always be maintained.
  • the calculation unit 62 in the position information analysis unit 6 uses the position information of the ultrasonic probe 2 at the position A (a, b, and position B (a ′, b ′, c ′),
  • the three-dimensional ultrasonic image data 14 is rotated, and correction parameters for obtaining the same image as the three-dimensional ultrasonic image at position A (a, b, c) are calculated.
  • the image processing calculation unit 72 automatically obtains a three-dimensional ultrasonic image by reconstructing the three-dimensional ultrasonic image data 14 using this correction parameter. [0025]
  • another mode in which the three-dimensional ultrasonic image data 14 is rotationally converted will be described.
  • the memory 61 in the position information analysis unit 6 displays a front image of the target portion 12 and stores a position A (a, b, c) as a display position.
  • the memory 61 stores a position B (a ′, b ′, c) where the obstacle 13 is not included in the ultrasonic image.
  • the position information is sent to the calculation unit 62 in the position information analysis unit 6.
  • the calculation unit 62 changes the position of the position B (a ', b', c ') with respect to the position A (a, b, c).
  • the amount of displacement and the rotational solid angle are calculated.
  • the image processing calculation unit 72 rotates the 3D ultrasound image by the changed position and angle of the ultrasound probe 2 so that the position A (a, b, becomes the display position. Display an image.
  • the normal vector of the planar image displayed at position A (a, b, c) and the normal vector of the planar image displayed at position B (a ', b', c ') Is the amount of displacement of the rotational solid angle around the intersection when intersecting on the 3D ultrasound image data.
  • This displacement is broken down into a rotation around the X axis, a rotation around the Y axis, and a rotation around the Z axis, and each rotation is represented by the rotation matrix shown below.
  • the 3D ultrasound image data 14 at the position B (a ', b', c ') is converted into a unit vector (1, 0, 0) in the X, Y, and ⁇ directions, and a unit vector (0, 0) in the ⁇ direction. 1, 0), ⁇ ⁇ direction unit vector (0, 0, 1) from position B (a ', b', c ') to position A (a, b, c) using the above rotation matrix 3
  • the dimensional ultrasonic image data 14 is rotationally converted.
  • the image processing calculation unit 72 converts the 3D ultrasound image data obtained from the position B (a ', b', c), so that the three-dimensional display in the display direction from the position A (a, b, c) An ultrasonic image can be displayed. That is, once a certain position of the ultrasound probe 2 is designated, a three-dimensional ultrasound image viewed from that position can be displayed even if the ultrasound probe 2 is moved.
  • the difference from the first embodiment is that the direction indication mark 30 indicating the display position is displayed three-dimensionally and the target part 12 corresponding to the direction indication mark 30 is displayed.
  • the display 8 displays a three-dimensional ultrasonic image and an auxiliary screen 81.
  • the auxiliary screen 81 displays a three-dimensional ultrasonic image viewed from the position B (a ′, b ′, c) where the ultrasonic probe 2 is in contact, and a direction indication mark 30 indicating the display direction.
  • the direction indicating mark 30 is moved around the target site 12 in a three-dimensional manner using the control panel 10.
  • the direction indication mark 30 faces the center point of the target part 12.
  • the position of the direction indicating mark 30 is the position C (a ", b", c "): display position.
  • the instruction mark 30 is a position where the target part 12 is imaged with a downward force.
  • the calculation unit 62 in the position information analysis unit 6 uses the same method as in the first embodiment, and the position B (a ', b', c ') with respect to the position C (a ", b", c ").
  • the image processing calculation unit 72 constructs a rotated three-dimensional ultrasound image, and calculates the position C (a ", b". , c "), that is, the direction indication mark 3D ultrasonic image from 30 directions is displayed on the display 8. Therefore, it is possible to observe a three-dimensional ultrasonic image from the set direction indication mark 30 direction.
  • the direction indication mark 30 is moved using the control panel 10 while the ultrasonic probe 2 is fixed to the subject 50.
  • the calculation unit 62 in the position information analysis unit 6 calculates the change amount of the position and the displacement amount of the rotation solid angle in real time. Based on the amount of change in position and the amount of displacement of the rotating solid angle, the rotated 3D ultrasound image is constructed in real time, so that the 3D ultrasound image of the direction indicator 30 is always displayed on the display 8. can do.
  • the three-dimensional ultrasonic image can be adjusted according to the direction of the direction indicating mark 30.
  • FIG. 1 a third embodiment is shown in FIG.
  • the difference from the first and second embodiments is that a three-dimensional ultrasonic image and a B-mode image are displayed simultaneously.
  • This B-mode image was taken from the scanning direction of the ultrasonic probe 2.
  • a broken line 15 is a slice surface of the B-mode image corresponding to the three-dimensional ultrasonic image displayed on the display 8.
  • the broken line 15 can be moved by the control panel 10, and the position information analysis unit 6 recognizes the position information of the broken line 15, and the image processing calculation unit 72 in the ultrasonic image construction unit 7 performs the three-dimensional ultrasonic image data 14.
  • the B-mode image of the cross section corresponding to the broken line 15 is selected from and displayed on the display 8. In this way, the outer peripheral surface and the inside of the subject 50 can be displayed simultaneously, and can be changed as appropriate when a B-mode image is desired to be observed.
  • the position B By converting the 3D ultrasound image data obtained from (a ', b', c), a 2D ultrasound image can be displayed in the display direction of the position A (a, b, c) force.
  • a certain position of the ultrasound probe 2 is designated, even if the ultrasound probe 2 is moved, a two-dimensional ultrasound image in which the position force is seen can be displayed.
  • the initial setting of the broken line 15 is the scanning plane of the ultrasound probe 2, but the position A (a, b, c), position B (a ', b', c '), position C ( a ", b", c ") or direction indicator mark 30.
  • the 3D ultrasound image data 14 obtained by scanning ultrasound from the position B (a ', b', c ') is sufficient for the 3D ultrasound image data on the ultrasound probe 2 side.
  • the 3D ultrasound image data on the right ear side where the ultrasound probe 2 is in contact is sufficient, but the 3D ultrasound image data on the left ear side of the target site 12 is insufficient. . Therefore, the 3D ultrasound image data 14 on the side lacking the 3D ultrasound image data is stored in the memory 71 in advance, and the image processing calculation unit 72 is connected to the 3D ultrasound image stored in the memory 71. Synthesizes 3D ultrasound images acquired in real time.
  • the image processing calculation unit 72 in the ultrasonic image constructing unit 7 has a function of synthesizing two or more three-dimensional ultrasonic images.
  • the subject 50 is scanned with ultrasonic waves to acquire a three-dimensional ultrasonic image and stored in the memory 71.
  • a reference point of the three-dimensional ultrasonic image is set from the position information of the position sensor 4, and the reference point is stored in the memory 71.
  • the position of the ultrasonic probe 2 is changed, the ultrasonic wave is applied to the subject 50, and a three-dimensional ultrasonic image is acquired in real time.
  • the image processing calculation unit 72 matches the reference point of the 3D ultrasound image stored in the memory 71 with the reference point of the 3D ultrasound image in real time, and stores the stored 3D ultrasound image.
  • the memory 71 stores the deficient 3D ultrasound image data in advance, and the image processing calculation unit 72 uses the 3D ultrasound image data to perform real-time 3D ultrasound image data. Correct. Therefore, according to the fourth embodiment, it is possible to display a three-dimensional ultrasonic image with uniform brightness at any angle.
  • a fifth embodiment will be described with reference to FIG. The difference from the first to fourth embodiments is that a precut line for partially deleting 3D ultrasound image data is set.
  • FIG. 31 on the left is a diagram related to the precut setting screen displayed on the display 8.
  • FIG. 32 on the right is an image diagram regarding 3D ultrasonic image data processing performed by the image processing calculation unit 72 in the ultrasonic image construction unit 7.
  • the 3D ultrasound image data acquired from the position A (a, b, c) of the ultrasound probe 2 is 3D ultrasound image data within the range specified by the set ROI 35. That is, this ROI 35 has a three-dimensional area.
  • the 3D ultrasound image data includes 3D ultrasound image data related to the fetus 36 and 3D ultrasound image data related to the placenta 33.
  • a pre-cut line 34 for deleting the 3D ultrasound image data relating to the placenta 33 is set in the ROI 35. As shown in the precut line setting screen 31, the precut line 34 is arranged between the placenta 33 and the fetus 36. This precut line 34 is set via the control panel 10.
  • the 3D ultrasound image data is divided into two regions with the precut line 34 as a boundary. Specifically, in the 3D ultrasound image data, regions are vertically divided in a direction perpendicular to the surface of the 3D ultrasound image data with the precut line 34 as an axis. One of the three-dimensional ultrasound image data is deleted from the two regions thus separated, and the other three-dimensional ultrasound image data remains. In the present embodiment, the 3D ultrasound image data area 38 on the placenta 33 side to which the horizontal line is given is deleted, and the 3D ultrasound image data area 37 on the fetus 36 side remains.
  • the area is manually selected via the control panel 10, set as the area 37 to leave the selected one, and the other as the area 38 to be deleted.
  • the image processing calculation unit 72 may be configured to automatically delete the 3D ultrasound image data having a smaller volume.
  • the image processing calculation unit 72 reconstructs a three-dimensional ultrasonic image by using a three-dimensional ultrasonic image data in the region 37 by a technique such as a Botacel method or a volume rendering method. Then, the three-dimensional ultrasonic image is displayed on the display 8.
  • the position A (a, b, c) of the ultrasound probe 2 is also applied to the 3D ultrasound image data acquired from the position D (A, B, C) of the ultrasound probe 2.
  • the placenta 33 side 3D ultrasound image data area 38 colored in gray is deleted,
  • the 3D ultrasound image data area 37 on the fetus 36 side is left, and the image processing calculation unit 72 displays the 3D ultrasound image in the 3D ultrasound image data area 37 on the display 8.
  • the image processing calculation unit 72 in the ultrasonic image constructing unit 7 exceeds the position of the precut line 34 set by the position A (a, b, c) of the ultrasonic probe 2.
  • the data is stored in the memory 71 in correspondence with the position A (a, b, c) of the acoustic probe 2.
  • the direction of the 3D ultrasonic image data deleted at the precut line 34 is stored in the memory 71.
  • the ultrasonic probe 2 is moved to the position D (A, B, C) to obtain 3D ultrasonic image data at the position D (A, B, C).
  • the position of precut line 34 set at position A (a, b, c) and the 3D image to be deleted at precut line 34 are deleted.
  • the direction of the sonic image data is read from the memory 71 to correspond. More specifically, the position of the precut line 34 at the position A (a, b, c) of the ultrasound probe 2 is read and set for the 3D ultrasound image data at the position D (A, B, C). . Since the position of the precut line 34 is stored in the memory 71, the 3D ultrasonic image data area to be deleted is on the placenta 33 side even if it corresponds to the movement amount and angle of the ultrasonic probe 2.
  • the direction in which the 3D ultrasound image data is deleted is determined, and the placenta 33 side 3 colored in gray is determined.
  • the dimension ultrasound image data area 38 is deleted, and the 3D ultrasound image data area 37 on the fetus 36 side remains.
  • the three-dimensional ultrasonic image data in the region 37 at the position D (A, B, C) is reconstructed into a three-dimensional ultrasonic image using a technique such as the Botacel method or the volume rendering method.
  • the three-dimensional ultrasonic image at the position D (A, B, C) is displayed on the display 8.
  • the 3D ultrasound image taken at position A (a, b, c) of the ultrasound probe 2 transmits and receives ultrasound through an obstacle such as the placenta 33, but the position D (A , B, C), there is no obstacle such as placenta 33 between the ultrasound probe 2 and the fetus.
  • the image is taken at the position D (A, B, C) rather than the three-dimensional ultrasonic image taken at the position A (a, b, c) of the ultrasonic probe 2. Since the 3D ultrasound image has no obstacles such as the placenta 33 in transmitting and receiving ultrasound, a clearer 3D ultrasound image can be displayed.
  • the ultrasonic image constructing unit 7 may construct a blood flow image using a Doppler signal force which is a kind of ultrasonic reception signal. Then, the 3D ultrasound image and the 3D image of the blood flow image may be reconstructed separately, and the B-mode image and the blood flow image may be synthesized on the 3D image or displayed in parallel. .

Abstract

 被検体に超音波を送受信する超音波探触子2と、超音波探触子2から受信される超音波信号からの3次元超音波画像データに基づいて3次元超音波画像を構成する超音波画像構成部7と、3次元超音波画像を表示する表示部8を備えた超音波診断装置において、超音波探触子の位置を検出する位置センサ4と、位置センサ4より得られる超音波探触子2の第1の位置を記憶し、第1の位置と第2の位置の位置関係を解析する位置情報解析部6とを備え、超音波画像構成部7は、第2の位置で取得する3次元超音波画像データを位置関係に基づいて第1の位置における3次元超音波画像となるように変換し、第1の位置における3次元超音波画像を構成する。

Description

明 細 書
超音波診断装置及び超音波撮像方法
技術分野
[0001] 本発明は、超音波を走査して、 3次元超音波画像を表示する超音波診断装置及び 超音波撮像方法に関する。
背景技術
[0002] 3次元超音波画像を表示する超音波診断装置は、超音波探触子を介して被検体に 超音波を照射するとともに、被検体力 発生する反射エコー信号に基づいて 3次元 超音波画像を再構成し、ディスプレイに表示する。
しかしながら、超音波診断装置を用いて被検体体内を描出する場合、目的部位を 描出する際、超音波探触子と目的部位との間に障害物 (例えば、胎盤、脂肪等)が存 在してしまうことがある。
[0003] そこで、特許文献 1では、超音波探触子を介して取得した 3次元超音波画像データ における視点を任意に変えることにより、任意に設定した視点方向から見た 3次元超 音波画像を構成して表示する。しかし、超音波探触子と目的部位の間に障害物が存 在する場合、超音波探触子の走査によって得られた超音波画像データは障害物を 含むことになる。特許文献 1を利用しても、超音波探触子をその位置に設置して 3次 元超音波画像を構成すると、障害物を含む画像が得られてしまう。よって 3次元超音 波画像を表示する視点位置を変えたとしても、超音波探触子力 取得される 3次元超 音波画像データは変わらないため、 3次元超音波画像に障害物による影響が出てし まうおそれがある。
特許文献 1:特開 2001-79003号公報
[0004] 本発明は、超音波診断装置を用いて被検体の体内を描出する際、表示形態を安 定させて 3次元超音波画像を表示させることを目的とする。
発明の開示
[0005] 本発明の目的を達成するため、被検体に超音波を送受信する超音波探触子と、前 記超音波探触子から受信される超音波信号に基づく 3次元超音波画像データから 3 次元超音波画像を構成する超音波画像構成部と、前記 3次元超音波画像を表示す る表示部を備えた超音波診断装置において、前記超音波探触子の位置を検出する 位置センサと、前記位置センサより得られる前記超音波探触子の第 1の位置を記憶し 、前記第 1の位置と第 2の位置との位置関係を解析する位置情報解析部とを備え、前 記超音波画像構成部は、前記第 2の位置で取得した 3次元超音波画像データを前記 位置関係に基づいて前記第 1の位置における 3次元超音波画像となるように変換し、 前記第 1の位置における前記 3次元超音波画像を構成する。
[0006] 前記位置情報解析部は、前記超音波探触子の前記第 1の位置と前記第 2との間の 位置の変化量及び回転立体角度の変化量に基づいて位置関係を解析したり、前記 超音波探触子の前記第 1の位置を示す変換情報と前記超音波探触子の前記第 2の 位置を示す変換情報とから前記 3次元超音波画像データを変換する補正パラメータ を算定する。そして、前記画像構成部は、位置関係或いは補正パラメータに基づい て 3次元超音波画像データを変換する。
[0007] また、超音波探触子を第 1の位置に設定して第 1の位置を記憶するステップと、超音 波探触子を第 2の位置に設定して 3次元超音波画像データを取得するステップと、第 1の位置と第 2の位置との位置関係に基づいて前記 3次元超音波画像データを前記 第 1の位置における 3次元超音波画像となるように変換するステップと、該変換した前 記 3次元超音波画像を構成して表示するステップとからなる超音波撮像方法である。 図面の簡単な説明
[0008] [図 1]本発明における超音波診断装置のブロック図である。
[図 2]本発明における超音波診断装置のブロック図の詳細を示す図である。
[図 3]本発明における表示処理の概念図及び第 4の実施形態を示す図である。
[図 4]本発明における表示処理のフローチャートを示す図である。
[図 5]本発明における第 2の実施形態を示す図である。
[図 6]本発明における第 3の実施形態を示す図である。
[図 7]本発明における第 5の実施形態を示す図である。
発明を実施するための最良の形態
[0009] 本発明を適用してなる超音波診断装置の第 1の実施形態について図面を参照して 説明する。この実施形態は、超音波探触子に接続した位置センサを用いて、超音波 探触子の位置に依存せず、一定の方向から見た目的部位の表示を行う例である。
[0010] 本実施形態における超音波診断装置のブロック図を図 1に示す。図 1に示される超 音波診断装置 1は、超音波を送受信する振動子素子が配列されている超音波探触 子 2と、超音波探触子 2を介して超音波信号を被検体 50に送波し、受信した超音波信 号に対して整相加算、 Log圧縮などの処理を行う超音波送受信部 3と、超音波探触子 2に取り付けられた位置センサ (端末) 4、磁気信号等を用いて位置センサ 4の位置を検 出するソース 5と、ソース 5から位置センサ 4の位置情報を解析し、 3次元超音波画像 データを補正する補正パラメータを算定する位置情報解析部 6と、超音波送受信部 3 力 の 3次元超音波画像データに対し、フィルタ処理、走査変換などの処理を行い、 位置情報解析部 6からの補正パラメータを用いて 3次元超音波画像の再構成を行う 超音波画像構成部 7と、画像の表示を行うディスプレイ 8と、すべてのモジュールに接 続され、制御を行う制御部 9と、制御部 9に指示を与えるコントロールパネル 10力 構 成される。
[0011] また、図 2に示されるように位置情報解析部 6には、超音波探触子 2の位置を記憶す るためのメモリ 61と、メモリ 61に記憶された位置情報力 補正パラメータ等を算定する 演算部 62が備えられており、超音波画像構成部 7には、 2次元超音波画像或いは 3次 元超音波画像を記憶するためのメモリ 71と、補正パラメータ等により 3次元超音波画 像データを補正し 3次元超音波画像を構成する画像処理演算部 72が備えられている
[0012] 超音波探触子 2は、長軸方向に l〜mチャンネル分、振動子素子が配列されると共 に、短軸方向にも k個に切断されて l〜kチャンネル分、振動子素子が配列されている 。超音波探触子 2は、各振動子素子 (l〜kチャンネル)に与える遅延時間を変えること により、長軸方向及び短軸方向に送波ゃ受波のフォーカスがかけられるようになって いる。また、超音波探触子 2は、短軸方向の各振動子素子に与える超音波送信信号 の振幅を変えることにより送波重み付けがかけられ、短軸方向の各振動子素子から の超音波受信信号の増幅度又は減衰度を変えることにより受波重み付けがかけられ るようになっている。さらに、短軸方向のそれぞれの振動子素子をオン、オフすること により、口径制御ができるようになつている。なお、超音波探触子 2は、機械的に振動 子を短軸方向に往復移動させながら、超音波を走査して 3次元超音波画像データを 取得する機械式の超音波探触子でもよ 、。
[0013] この超音波探触子 2を用いて 3次元超音波画像を得る場合、超音波画像構成部 7内 のメモリ 71は、まず超音波を走査して 2次元超音波画像データを記憶する。そして、 超音波画像構成部 7は 1フレームずつ順番に 2次元超音波画像データを読み出し、 各フレームが超音波構成部 7内の加算器で合わされて 3次元超音波画像を構成する 。この際、 2次元超音波画像データと超音波探触子 2の位置データの整合はとれてい る。
[0014] この超音波探触子 2には位置センサ 4が取り付けられている。位置センサ 4は、ベッド などに取り付けられたソース 5から発生する例えば磁気信号を検知する磁気センサを 有して構成されている。位置センサ 4により、ソース座標系 Sにおける超音波探触子 2 の 3次元的な位置及び傾きが検出される。ソース座標系 Sは、ソース 5を原点 Soとする 3 次元直交座標系であり、 X軸を被検体が横たわるベッドの短手方向、 Y軸をベッドの 長手方向、 Z軸を鉛直方向に合わせられている。なお、ソース座標系 Sは、 3次元直交 座標系に限らず、超音波探触子 2の位置を特定できるものであればよい。また、位置 センサ 4は、磁場を利用するものに限らず、例えば光を利用したものでもよい。
[0015] 本実施形態における画像処理の概念図を図 3に示す。図 3(a)に示すように、位置 A( a, b, c)は、目的部位 12の正面像を撮影する位置である力 位置 A(a, b, c)では、障 害物 13が 3次元超音波画像に表示されてしまう。そこで、超音波探触子 2を位置 B(a', b', c )に設置し、目的部位 12に対して超音波を走査する。超音波探触子 2と目的部 位 12の間には障害物 13が介在しないため、走査によって得られた 3次元超音波画像 データ 14は障害物 13を含まない。このように超音波探触子 2を位置 B(a', b', c')に設 置して再構成を行うと、目的部位 12の側面像が表示される。
[0016] そこで、位置情報解析部 6内のメモリ 61は、位置センサ 4より得られる超音波探触子 2 の位置を記憶し、位置情報解析部 6内の演算部 62は、メモリ 61に記憶された位置 A(a , b, c)と位置 B(a', b', c')の位置関係を解析する。超音波画像構成部 7内の画像処理 演算部 72は、この位置関係に基づいて、位置 B(a', b', c')から得られる 3次元超音波 画像データを位置 A(a, b, c)となるよう画像変換し、 3次元超音波画像を構成する。な お、位置 B(a', b', c')はメモリ 61に記憶されていてもよい。
[0017] 具体的には、位置情報解析部 6内の演算部 62は、超音波探触子 2の位置 A(a, b, c) を 3次元超音波画像の表示位置となる変換行列として設定する。そして、演算部 62は 、超音波探触子 2の方向を変化させた後の位置 B(a', b', c )の変換行列を設定する。 そして、位置 A(a, b, c)と位置 B(a', b', c )の変換行列力 回転立体角度の変化量 (補 正パラメータ)を算定する。画像処理演算部 72は補正パラメータに基づ 、て 3次元超 音波画像の座標変換を行 ヽ、 3次元超音波画像の表示方向を変える。
[0018] ここで、位置情報解析部 6における補正パラメータの算出方法について説明する。
位置センサ 4の基準軸より、位置 A(a, b, c)の超音波探触子 2の位置と方向を示す変 換行列 Sを式 (1)、位置 B(a', b', c')の超音波探触子 2の位置と方向を示す変換行列 D を式 (2)とする。この変換行列はメモリ 61に記憶されている。そして、演算部 62は、超音 波探触子 2において任意に決定された位置 A(a, b, c)において 3次元超音波画像デ ータ 14に対する回転行列 Vを式 (3)とすると、位置 A(a, b, c)から、位置 B(a', b', c')へ の変換行列 Xは、式 (5)より、式 (6)として設定する。したがって、式 (4)で表される補正 ノ ラメータ M,変換行列 X,回転行列 Vの関係は式 (7)の通りになる。
[0019] ここで、簡便化のため、回転成分力 表示角度補正のみを行う場合には、式 (1)中、 (dsl, ds2, ds3) = (0, 0, 0)、式 (2)中、 (dvl, dv2, dv3) = (0, 0, 0)、式 (3)中、 (ddl, dd2, dd3) = (0,0,0)とする。
[0020] したがって、補正パラメータ Mは式 (8)により演算部 62で算定される。すなわち、超音 波探触子 2の位置 B(a', b', c')で得られた 3次元超音波画像データ 14は、補正パラメ ータ Mで表される座標変換を用い、 3次元超音波画像の中央を原点として回転される 。画像処理演算部 72はこの回転した 3次元超音波画像を再構成することにより、位置 A(a, b, c)の方向力もの 3次元超音波画像を得ることができる。
[数 1]
Figure imgf000008_0001
剛 r ヽ
1 0 0 0 ίρρ ίρο ipq ίρϋ
a
Ζ ρ Ζ ο Zpq Ζρϋ lpp lpo lpq Χρυ
Figure imgf000008_0002
SCZZ0C/900Zdf/13d 9 SS80/900Z: O M 二
Figure imgf000009_0001
[数 5]
D = S * X...(5)
[数 6]
X = D * S- ..(6)
[数 7]
M = X~] · ¥...(!)
[数 8]
Μ = Ό~ · Ξ · ¥...( ) 図 4に位置補正パラメータの算定を行うための手順を示す。超音波検査が開始され た後、位置情報解析部 6内の演算部 62は、現在の超音波探触子 2の位置を示す変換 行列 Dの更新 (S100)を行!、、コントロールパネル 10より入力される回転行列 Vの更新( S101)を行う。そして、位置 A(a, b, c)に合わせて位置 B(a', b', c')で得られる 3次元超 音波画像を補正する、つまり表示補正機能がオンになっている場合 (S102)、移動前( 位置 A(a, b, c》の超音波探触子 2の位置を示す変換行列 Sを固定し、変換行列 Dを 可変するよう設定する (S103')。つまり変換行列 S≠変換行列 Dとなる。そして、超音波 画像構成部 7内の画像処理演算部 72において (S104)で算定した補正パラメータ Mに よる座標変換を用いて、 3次元超音波画像を作成し、ディスプレイ 8で表示する。制御 部 9において検査終了が選択されていなければ、処理 (S100)力 再び行い、検査終 了が選択されていれば処理を終了する (S106)。
[0022] なお、本発明を適用しない場合は、表示位置を位置 A(a, b, c)に合わせて 3次元超 音波画像を補正しな 、。すなわち表示補正機能がオンになって 、な 、場合 (S102)、 位置情報解析部 6内の演算部 62は、移動前 (位置 A(a, b, c))の超音波探触子 2の位 置を示す変換行列 Sに変換行列 Dを代入 (S103)し、補正パラメータ Mを上記式より算 定する (S104)。この時、変換行列 S =変換行列 Dであるため、補正パラメータ Mはコン トロールパネル 10より入力された回転行列 Vのみを行う変換行列となる。
[0023] コントロールパネル 10より表示補正機能がオンに操作された場合 (S102)、移動前 (位 置 A(a, b, c》の超音波探触子 2の位置を示す変換行列 Sが更新されないため、処理 (S 104)において算定される補正パラメータ Mは、現在の超音波探触子 2の位置を表す 変換行列 Dから、移動前の超音波探触子 2の位置 A(a, b, c)を示す変換行列 Sへの移 動に加え、コントロールパネル 10より入力された回転行列 Vを行う変換行列となる。す なわち、前述の補正パラメータ Mは、現在の超音波探触子 2の位置 B(a', b', c')にお いて走査した 3次元超音波画像データを、位置 A(a, b, c)の超音波探触子 2の位置に て走査した 3次元超音波画像データに対しコントロールパネル 10より入力された回転 行列 Vによる座標変換を行った場合の表示方向と同一の位置から、 3次元超音波画 像を再構成するものになる。現在の超音波探触子 2の位置 B(a', b', c')を表す変換行 列 Dは走査毎に更新されるが、移動前の超音波探触子 2の位置 A(a, b, c)を示す変 換行列 Sは、表示補正オンがなされている間は更新されないことから、現在の超音波 探触子 2の位置 B(a', b', c')に関わらず、常に移動前の超音波探触子 2の位置 A(a, b , c)にお 、て観察した場合の表示状態を保持することができる。
[0024] このように位置情報解析部 6内の演算部 62は、超音波探触子 2の位置 A(a, b, と 位置 B(a', b', c')における位置情報より、 3次元超音波画像データ 14を回転させ、位 置 A(a, b, c)における 3次元超音波画像と同じ画像を得るための補正パラメータを算 定する。そして、超音波画像構成部 7内の画像処理演算部 72は、 3次元超音波画像 データ 14に対し、この補正パラメータを用いて再構成を行うことで自動的に 3次元超 音波画像を得る。 [0025] ここで、 3次元超音波画像データ 14を回転変換する他の形態について説明する。ま ず、位置情報解析部 6内のメモリ 61は、目的部位 12の正面像を表示させ、表示位置と しての位置 A(a, b, c)を記憶する。そして、メモリ 61は、超音波画像に障害物 13が含ま ない位置 B(a', b', c )を記憶する。これらの位置情報は、位置情報解析部 6内の演算 部 62へ送られ、演算部 62は位置 A(a, b, c)に対する位置 B(a', b', c')の位置の変化量 及び回転立体角の変位量を算出する。そして、画像処理演算部 72は、その変化した 超音波探触子 2の位置と角度分だけ 3次元超音波画像を回転させ、位置 A(a, b, が 表示位置となるよう 3次元超音波画像を表示する。
[0026] 具体的には位置 A(a, b, c)で表示される平面画像の法線ベクトルと、位置 B(a', b', c')で表示される平面画像の法線ベクトルは、 3次元超音波画像データ上で交わって いる場合、交点を中心とした回転立体角の変位量である。この変位量は、 X軸の回り の回転と、 Y軸の回りの回転と、 Z軸の周りの回転に分解され、それぞれの回転は次 に表す回転行列で表現される。
[0027] 先ず、 X軸の周りの角度 θ 1の回転は、
[数 9]
Figure imgf000011_0001
V - sin θ\ cos< i八 で表され、 Y軸の回りの角度 Θ 2の回転は、
[数 10]
Figure imgf000011_0002
cos^八 で表され、 Z軸の回りの角度 Θ 3の回転は、 、
Figure imgf000012_0001
で表される。したがって、位置 B(a', b', c')の 3次元超音波画像データ 14を X方向、 Y 方向、 Ζ方向へ単位ベクトル (1, 0, 0)、 Υ方向の単位ベクトル (0, 1, 0)、 Ζ方向の単位 ベクトル (0, 0, 1)をそれぞれ上記回転行列を用いて、位置 B(a', b', c')から位置 A(a, b, c)へ 3次元超音波画像データ 14を回転変換させる。この回転した 3次元超音波画 像データ 14に基づいて 3次元超音波画像を再構成することにより、位置 A(a, b, c)から の表示方向で 3次元超音波画像を表示させることができる。
[0028] このように、第 1の実施形態によると、超音波探触子 2の位置 A(a, b, c)と位置 B(a', b ', c')の位置関係に基づいて、画像処理演算部 72が位置 B(a', b', c )から得られる 3 次元超音波画像データを変換することにより、位置 A(a, b, c)からの表示方向で 3次 元超音波画像を表示させることができる。つまり、一旦、超音波探触子 2の或る位置を 指定すれば、超音波探触子 2を移動させてもその位置から見た 3次元超音波画像を 表示させることができる。
[0029] また、超音波探触子 2を手ぶれ等があつたとしても、すなわち位置 B(a', b', c')から 得られる 3次元超音波画像データに変化があつたとしても、位置 A(a, b, c)は固定され ているため、位置 A(a, b, c)の位置力 安定して 3次元超音波画像を表示させることが できる。
[0030] 次に第 2の実施形態を図 5に示す。第 1の実施形態と異なる点は、表示位置を示す 方向指示マーク 30を 3次元的に表示させ、その方向指示マーク 30に対応した目的部 位 12を表示する点である。ディスプレイ 8には、 3次元超音波画像と補助画面 81が表 示される。補助画面 81は、超音波探触子 2を当接した位置 B(a', b', c )から見た 3次元 超音波画像と、表示方向を示す方向指示マーク 30が表示されている。この方向指示 マーク 30は、コントロールパネル 10を用いて、目的部位 12の周囲を 3次元的に移動さ れる。なお、方向指示マーク 30は、目的部位 12の中心点を向いている。
[0031] ここで、方向指示マーク 30の位置を位置 C(a", b", c") :表示位置とする。図 5の方向 指示マーク 30は、目的部位 12を下方力 撮影する位置である。位置情報解析部 6内 の演算部 62は、上記第 1の実施形態と同じ方式で、位置 C(a", b", c")に対する位置 B(a', b', c')の位置の補正パラメータを算出したり、変化量及び回転立体角の変位量 を算出する。そして、画像処理演算部 72は、回転した 3次元超音波画像を構成し、位 置 C(a", b", c")つまり方向指示マーク 30方向からの 3次元超音波画像をディスプレイ 8に表示させる。よって、設定した方向指示マーク 30方向からの 3次元超音波画像を 観察することができる。
[0032] また、超音波探触子 2を被検体 50に固定した状態で、コントロールパネル 10を用い て、方向指示マーク 30を移動させる。この方向指示マーク 30の移動に伴い、位置情 報解析部 6内の演算部 62はリアルタイムに位置の変化量及び回転立体角の変位量 を算出する。そして、位置の変化量及び回転立体角の変位量に基づいて、回転した 3次元超音波画像をリアルタイムに構成することにより、方向指示マーク 30の向きの 3 次元超音波画像を常にディスプレイ 8に表示することができる。第 2次実施形態による と、方向指示マーク 30の向きによる 3次元超音波画像の調整を行うことができる。
[0033] 次に第 3の実施形態を図 6に示す。第 1の実施形態及び第 2の実施形態と異なる点 は、 3次元超音波画像と Bモード像を同時に表示する点である。この Bモード像は超音 波探触子 2の走査方向から撮影したものである。
[0034] 破線 15は、ディスプレイ 8に表示される 3次元超音波画像に対応する Bモード像のス ライス面である。破線 15は、コントロールパネル 10により移動させることができ、破線 15 の位置情報を位置情報解析部 6が認識し、超音波画像構成部 7内の画像処理演算 部 72は 3次元超音波画像データ 14から破線 15に対応した断面の Bモード像を選択し てディスプレイ 8に表示する。このように、被検体 50の外周面と内部を同時に表示する ことができ、 Bモード像を観察したい時も適宜変更することができる。よって、第 3の実 施形態によると、超音波探触子 2の位置 A(a, b, c)と位置 B(a', b', c')の位置関係に基 づいて、位置 B(a', b', c )から得られる 3次元超音波画像データを変換することにより 、位置 A(a, b, c)力 の表示方向で 2次元超音波画像を表示させることができる。つま り、一旦、超音波探触子 2の或る位置を指定すれば、超音波探触子 2を移動させても その位置力 見た 2次元超音波画像を表示させることができる。 なお、破線 15の初期設定は、超音波探触子 2の走査面としているが、上記の位置 A( a, b, c)、位置 B(a', b', c')、位置 C(a", b", c")や方向指示マーク 30に追従させてもよ い。
[0035] 次に第 4の実施形態を図 3を用いて説明する。第 1〜第 3の実施形態と異なる点は、 2以上の 3次元超音波画像を合成する点である。
位置 B(a', b', c')から超音波を走査して得る 3次元超音波画像データ 14は、超音波 探触子 2側の 3次元超音波画像データは充分であるが、位置 B(a', b', c')の点対称で ある裏側の 3次元超音波画像データが不足している。図 3では、超音波探触子 2が当 接される右耳側の 3次元超音波画像データは充分であるが、目的部位 12の左耳側の 3次元超音波画像データが不足している。そこで、 3次元超音波画像データが不足し ている側の 3次元超音波画像データ 14を予めメモリ 71に記憶させておき、画像処理 演算部 72はメモリ 71に記憶された 3次元超音波画像とリアルタイムに取得される 3次元 超音波画像を合成する。
[0036] 具体的に、この合成する機能について説明する。超音波画像構成部 7内の画像処 理演算部 72は、 2つ以上の 3次元超音波画像を合成する機能を有している。まず、被 検体 50に超音波を走査し 3次元超音波画像を取得し、メモリ 71に記憶させる。この際 、位置センサ 4の位置情報から 3次元超音波画像の基準点を設定し、その基準点をメ モリ 71に記憶させる。そして、超音波探触子 2の位置を変え、被検体 50に超音波を走 查し、リアルタイムに 3次元超音波画像を取得する。次に、画像処理演算部 72は、メ モリ 71に記憶された 3次元超音波画像の基準点と、リアルタイムに 3次元超音波画像 の基準点を合わせて、記憶された 3次元超音波画像とリアルタイムの 3次元超音波画 像を重ね合わせる。 2つ以上の 3次元超音波画像を重ね合わせる際、輝度が大きい 3 次元超音波画像を優先的に表示させる。なお、重ね合わせる 3次元超音波画像は 3 つ以上でもよい。
[0037] このように、メモリ 71は、予め不足する側の 3次元超音波画像データを記憶させ、画 像処理演算部 72は、その 3次元超音波画像データを用いてリアルタイム 3次元超音波 画像を補正する。よって、第 4の実施形態によると、どの角度でも均一輝度の 3次元超 音波画像を表示させることができる。 [0038] 次に第 5の実施形態を図 7を用いて説明する。第 1〜第 4の実施形態と異なる点は、 3次元超音波画像データを部分的に削除するプリカットラインを設定する点である。
[0039] 左図 31は、ディスプレイ 8に表示されるプリカット設定画面に関する図である。右図 3 2は、超音波画像構成部 7内の画像処理演算部 72で行われる 3次元超音波画像デー タ処理に関するイメージ図である。超音波探触子 2の位置 A(a, b, c)から取得される 3 次元超音波画像データは、設定された ROI35で指定された範囲内の 3次元超音波画 像データである。つまり、この ROI35は立体的な領域を持っている。そして、 3次元超 音波画像データには、胎児 36に関する 3次元超音波画像データと、胎盤 33に関する 3次元超音波画像データを含まれている。 ROI35内に胎盤 33に関する 3次元超音波 画像データを削除するプリカットライン 34を設定する。プリカットライン設定画面 31に 示されるように、胎盤 33と胎児 36の間にプリカットライン 34が配置される。このプリカット ライン 34の設定は、コントロールパネル 10を介して行われる。
[0040] プリカットライン 34が設定されると、 3次元超音波画像データは、プリカットライン 34を 境界にして 2つの領域に区切られる。具体的に、 3次元超音波画像データは、プリカツ トライン 34を軸にして、 3次元超音波画像データの表面に対して垂直方向に領域が立 体的に区切られる。そして、このように区切られた 2つの領域のうち、一方の 3次元超 音波画像データが削除され、もう一方の 3次元超音波画像データが残る。本実施形 態の場合、横方向ラインが付与された胎盤 33側の 3次元超音波画像データ領域 38は 削除され、胎児 36側の 3次元超音波画像データ領域 37が残る。この 3次元超音波画 像データ領域 37の設定つ 、ては、コントロールパネル 10を介して手動で領域を選択 し、選択された方を残す領域 37と設定し、もう一方を削除する領域 38として設定する。 また、画像処理演算部 72は、体積が少ない 3次元超音波画像データの方を自動的に 削除すると 、う設定をしてもょ 、。画像処理演算部 72は領域 37内の 3次元超音波画 像データを用いて、ボタセル法又はボリュームレンダリング法などの手法によって 3次 元超音波画像を再構成する。そして、 3次元超音波画像をディスプレイ 8に表示する。
[0041] 超音波探触子 2の位置 D(A, B, C)から取得される 3次元超音波画像データに対して も、超音波探触子 2の位置 A(a, b, c)のプリカットライン 34の位置をメモリ 71に記憶させ ておき、灰色に色付けされた胎盤 33側の 3次元超音波画像データ領域 38を削除し、 胎児 36側の 3次元超音波画像データ領域 37を残させ、画像処理演算部 72は 3次元 超音波画像データ領域 37における 3次元超音波画像をディスプレイ 8に表示させる。
[0042] 具体的には、超音波画像構成部 7内の画像処理演算部 72は超音波探触子 2の位 置 A(a, b, c)で設定されるプリカットライン 34の位置を超音波探触子 2の位置 A(a, b, c) に対応させてメモリ 71に記憶させる。また、プリカットライン 34で削除される 3次元超音 波画像データの方向をメモリ 71に記憶させる。そして、超音波探触子 2を位置 D(A, B , C)に移動させて、位置 D(A, B, C)における 3次元超音波画像データを得る。この位 置 D(A, B, C)における 3次元超音波画像データに対し、位置 A(a, b, c)で設定したプ リカットライン 34の位置とプリカットライン 34で削除される 3次元超音波画像データの方 向をメモリ 71から読み出し対応させる。詳細に説明すると、位置 D(A, B, C)における 3 次元超音波画像データに対し、超音波探触子 2の位置 A(a, b, c)におけるプリカツトラ イン 34の位置を読み出し設定する。プリカットライン 34の位置はメモリ 71に記憶されて いるため、超音波探触子 2の移動量及び角度に対応させても、削除される 3次元超音 波画像データ領域は胎盤 33側である。
[0043] このように位置 D(A, B, C)において設定されたプリカットライン 34に基づいて 3次元 超音波画像データが削除される方向を定めて、灰色に色付けされた胎盤 33側の 3次 元超音波画像データ領域 38は削除され、胎児 36側の 3次元超音波画像データ領域 3 7が残る。そして、位置 D(A, B, C)における領域 37内の 3次元超音波画像データを用 V、て、ボタセル法又はボリュームレンダリング法などの手法によって 3次元超音波画像 に再構成する。そして、位置 D(A, B, C)における 3次元超音波画像がディスプレイ 8に 表示される。
[0044] 超音波探触子 2の位置 A(a, b, c)で撮影する 3次元超音波画像は、胎盤 33等の障害 物を通過して超音波を送受信するが、位置 D(A, B, C)で超音波を送受信する経路、 超音波探触子 2と胎児との間に胎盤 33等の障害物が無い。つまり、第 5の実施形態に よると、超音波探触子 2の位置 A(a, b, c)で撮影する 3次元超音波画像よりも、位置 D( A, B, C)で撮影する 3次元超音波画像の方が、超音波送受信における胎盤 33等の 障害物が無いため、よりクリアな 3次元超音波画像を表示させることができる。
[0045] なお、上記第 1〜5の実施形態は組み合わせて実施でき、操作者は任意に選択し て実施することもできる。また、超音波画像構成部 7は超音波受信信号の一種である ドプラ信号力ゝら血流画像を構成してもよい。そして、 3次元超音波画像と血流画像の 3 次元画像とを別個に再構成し、 Bモード画像と血流画像とを 3次元画像上で合成した り、あるいは並列表示したりしてもよい。

Claims

請求の範囲
[1] 被検体に超音波を送受信する超音波探触子と、前記超音波探触子から受信される 超音波信号に基づく 3次元超音波画像データから 3次元超音波画像を構成する超音 波画像構成部と、前記 3次元超音波画像を表示する表示部を備えた超音波診断装 ¾【こ; i l /、て、
前記超音波探触子の位置を検出する位置センサと、前記位置センサより得られる 前記超音波探触子の第 1の位置を記憶し、前記第 1の位置と第 2の位置との位置関係 を解析する位置情報解析部とを備え、
前記超音波画像構成部は、前記第 2の位置で取得した 3次元超音波画像データを 前記位置関係に基づいて前記第 1の位置における 3次元超音波画像となるように変 換し、前記第 1の位置における前記 3次元超音波画像を構成することを特徴とする超 音波診断装置。
[2] 前記位置情報解析部は、前記超音波探触子の前記第 1の位置と前記第 2の位置と の間の位置の変化量及び回転立体角度の変化量に基づいて位置関係を解析する ことを特徴とする請求項 1記載の超音波診断装置。
[3] 前記位置情報解析部は、前記超音波探触子の前記第 1の位置を示す変換情報と 前記超音波探触子の前記第 2の位置を示す変換情報とから前記 3次元超音波画像 データを変換する補正パラメータを算定することを特徴とする請求項 1記載の超音波 診断装置。
[4] 前記表示部に、前記第 2の位置が指示マークとして表示され、前記超音波画像構 成部は前記指示マークにより指定された位置における 3次元超音波画像データとな るように前記第 2の位置における 3次元超音波画像データを変換し、前記指示マーク 位置における 3次元超音波画像を構成することを特徴とする請求項 1記載の超音波 診断装置。
[5] 前記表示部は、前記 3次元超音波画像とともに前記指示マークを 3次元表示するこ とを特徴とする請求項 4記載の超音波診断装置。
[6] 前記超音波画像構成部は、前記 3次元超音波画像に対応する Bモード像のスライス 面を示すラインを前記 3次元超音波画像上に表示させ、前記ラインに対応した前記 B モード像を構成することを特徴とする請求項 1記載の超音波診断装置。
[7] 前記超音波画像構成部は、予め 3次元超音波画像を記憶する記憶手段を備え、該 記憶された 3次元超音波画像とリアルタイム 3次元超音波画像とを合成させることを特 徴とする請求項 1記載の超音波診断装置。
[8] 前記超音波画像構成部は、前記複数の 3次元超音波画像データの基準座標を一 致させて 3次元超音波画像を合成することを特徴とする請求項 7記載の超音波診断 装置。
[9] 前記超音波画像構成部は、前記複数の 3次元超音波画像データのうち輝度が大き い方の 3次元超音波画像データの 3次元超音波画像が優先され表示させることを特 徴とする請求項 7記載の超音波診断装置。
[10] 前記超音波画像構成部は、前記 3次元超音波画像データを部分的に削除させて 3 次元超音波画像を構成することを特徴とする請求項 1記載の超音波診断装置。
[11] 前記 3次元超音波画像データを前記部分的に削除させるプリカットラインを設定す る操作部を備え、前記超音波画像構成部は、前記プリカットラインで区切られた一方 の 3次元超音波画像データを削除し、残りの 3次元超音波画像を構成することを特徴 とする請求項 10記載の超音波診断装置。
[12] 前記表示部は、前記 3次元超音波画像を仮想的に表示し、前記操作部は、前記 3 次元超音波画像に対し前記プリカットラインを任意に設定することを特徴とする請求 項 11記載の超音波診断装置。
[13] 前記第 1の位置は前記被検体の正面像を撮影する位置であり、前記第 2の位置は 前記被検体の側面像を撮影する位置であることを特徴とする請求項 1記載の超音波 診断装置。
[14] 前記位置情報解析部は、前記超音波探触子の前記第 1の位置を 3次元超音波画 像の表示位置となる第 1の変換行列として設定し、前記第 2の位置を第 2の変換行列 として設定し、 3次元超音波画像データの補正パラメータを算定することを特徴とする 請求項記載の超音波診断装置。
[15] 前記超音波画像構成部は、前記補正パラメータに基づ 、て 3次元超音波画像の座 標変換を行い、 3次元超音波画像の表示方向を変えることを特徴とする請求項 1記載 の超音波診断装置。
[16] 前記位置情報解析部は、前記第 1の位置に対する前記第 2の位置の変化量及び回 転立体角の変位量を算出し、前記画像処理演算部は、前記位置及び角度の変化量 分、前記 3次元超音波画像を回転させることを特徴とする請求項記載の超音波診断 装置。
[17] 前記位置情報解析部内には、前記超音波探触子の前記第 1の位置を記憶するた めの記憶手段と、前記記憶手段に記憶された第 1の位置と前記第 2の位置との前記 位置関係を算定する演算部が備えられていることを特徴とする請求項 1記載の超音 波診断装置。
[18] 前記超音波画像構成部内には、 2次元超音波画像或いは 3次元超音波画像を記 憶するための記憶手段と、前記位置関係により 3次元超音波画像データを補正し 3次 元超音波画像を構成する画像処理演算部が備えられることを特徴とする請求項 1記 載の超音波診断装置。
[19] 超音波探触子を第 1の位置に設定して第 1の位置を記憶するステップと、超音波探 触子を第 2の位置に設定して 3次元超音波画像データを取得するステップと、第 1の 位置と第 2の位置との位置関係に基づいて前記 3次元超音波画像データを前記第 1 の位置における 3次元超音波画像となるように変換するステップと、該変換した前記 3 次元超音波画像を構成して表示するステップとからなる超音波撮像方法。
PCT/JP2006/302235 2005-02-09 2006-02-09 超音波診断装置及び超音波撮像方法 WO2006085571A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN2006800023261A CN101102721B (zh) 2005-02-09 2006-02-09 超声波诊断装置以及超声波摄像方法
JP2007502633A JP4785149B2 (ja) 2005-02-09 2006-02-09 超音波診断装置とその作動方法
US11/815,657 US8617075B2 (en) 2005-02-09 2006-02-09 Ultrasonic diagnostic apparatus and ultrasonic imaging method
EP06713378A EP1847222B1 (en) 2005-02-09 2006-02-09 Ultrasonographic device and ultrasonographic method
DE602006021274T DE602006021274D1 (de) 2005-02-09 2006-02-09 Ultraschallvorrichtung und ultraschallverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005032477 2005-02-09
JP2005-032477 2005-02-09

Publications (1)

Publication Number Publication Date
WO2006085571A1 true WO2006085571A1 (ja) 2006-08-17

Family

ID=36793142

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/302235 WO2006085571A1 (ja) 2005-02-09 2006-02-09 超音波診断装置及び超音波撮像方法

Country Status (6)

Country Link
US (1) US8617075B2 (ja)
EP (1) EP1847222B1 (ja)
JP (1) JP4785149B2 (ja)
CN (1) CN101102721B (ja)
DE (1) DE602006021274D1 (ja)
WO (1) WO2006085571A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007111532A (ja) * 2005-10-17 2007-05-10 Medison Co Ltd 多重断面映像を用いて3次元映像を形成するシステム及び方法
JP2010000142A (ja) * 2008-06-18 2010-01-07 National Center For Child Health & Development 超音波ボリュームデータ処理装置
WO2013027526A1 (ja) * 2011-08-19 2013-02-28 株式会社 日立メディコ 医用画像装置及び医用画像構成方法
JP2013119035A (ja) * 2011-12-08 2013-06-17 General Electric Co <Ge> 超音波画像形成システム及び方法
JP2013215561A (ja) * 2012-03-12 2013-10-24 Toshiba Corp 超音波診断装置
WO2014129425A1 (ja) * 2013-02-22 2014-08-28 株式会社東芝 超音波診断装置及び医用画像処理装置
JPWO2013035393A1 (ja) * 2011-09-08 2015-03-23 株式会社日立メディコ 超音波診断装置及び超音波画像表示方法
CN107102335A (zh) * 2017-06-20 2017-08-29 河北工业大学 一种超声波三维成像装置
CN112689478A (zh) * 2018-11-09 2021-04-20 深圳迈瑞生物医疗电子股份有限公司 一种超声图像获取方法、系统和计算机存储介质
CN112689478B (zh) * 2018-11-09 2024-04-26 深圳迈瑞生物医疗电子股份有限公司 一种超声图像获取方法、系统和计算机存储介质

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11627944B2 (en) 2004-11-30 2023-04-18 The Regents Of The University Of California Ultrasound case builder system and method
EP2217137A4 (en) * 2007-12-03 2011-09-07 Gripping Heart Ab VALIDATION AND USER INTERFACE SYSTEM OF STATE MACHINE
US8172753B2 (en) * 2008-07-11 2012-05-08 General Electric Company Systems and methods for visualization of an ultrasound probe relative to an object
JP5835903B2 (ja) * 2011-02-03 2015-12-24 株式会社東芝 超音波診断装置
JP2013111327A (ja) * 2011-11-30 2013-06-10 Sony Corp 信号処理装置および方法
CN103197000A (zh) * 2012-01-05 2013-07-10 西门子公司 用于超声探测的装置、监控设备和超声探测系统及方法
KR101386102B1 (ko) 2012-03-09 2014-04-16 삼성메디슨 주식회사 초음파 영상 제공 방법 및 그를 위한 초음파 장치
US11631342B1 (en) 2012-05-25 2023-04-18 The Regents Of University Of California Embedded motion sensing technology for integration within commercial ultrasound probes
US9958420B2 (en) * 2013-02-06 2018-05-01 Bwxt Technical Services Group, Inc. Synthetic data collection method for full matrix capture using an ultrasound array
JP6242025B2 (ja) * 2013-03-25 2017-12-06 株式会社日立製作所 超音波撮像装置及び超音波画像表示方法
US10380919B2 (en) 2013-11-21 2019-08-13 SonoSim, Inc. System and method for extended spectrum ultrasound training using animate and inanimate training objects
KR102329113B1 (ko) * 2014-10-13 2021-11-19 삼성전자주식회사 초음파 영상 장치 및 초음파 영상 장치의 제어 방법
CN104287777B (zh) * 2014-10-17 2017-09-26 苏州佳世达电通有限公司 超音波扫描方法及超音波扫描系统
KR102388130B1 (ko) 2015-01-12 2022-04-19 삼성메디슨 주식회사 의료 영상 표시 방법 및 장치
CN105982693A (zh) * 2015-01-27 2016-10-05 中慧医学成像有限公司 一种成像方法
US11600201B1 (en) * 2015-06-30 2023-03-07 The Regents Of The University Of California System and method for converting handheld diagnostic ultrasound systems into ultrasound training systems
CN106846445B (zh) * 2016-12-08 2019-08-27 华中科技大学 一种基于cpu的三维超声图像体绘制方法
US10896628B2 (en) 2017-01-26 2021-01-19 SonoSim, Inc. System and method for multisensory psychomotor skill training
WO2018205274A1 (zh) * 2017-05-12 2018-11-15 深圳迈瑞生物医疗电子股份有限公司 一种超声设备及其三维超声图像的显示变换方法、系统
CN107582098B (zh) * 2017-08-08 2019-12-06 南京大学 一种二维超声图像集合重构的三维超声成像方法
CN107578662A (zh) * 2017-09-01 2018-01-12 北京大学第医院 一种虚拟产科超声训练方法及系统
US11810473B2 (en) 2019-01-29 2023-11-07 The Regents Of The University Of California Optical surface tracking for medical simulation
US11495142B2 (en) 2019-01-30 2022-11-08 The Regents Of The University Of California Ultrasound trainer with internal optical tracking
CN111358492A (zh) * 2020-02-28 2020-07-03 深圳开立生物医疗科技股份有限公司 一种四维造影图像生成方法、装置、设备及存储介质
CN112617902A (zh) * 2020-12-31 2021-04-09 上海联影医疗科技股份有限公司 一种三维成像系统及成像方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04158855A (ja) * 1990-10-24 1992-06-01 Aloka Co Ltd 超音波画像表示装置
JP2000107185A (ja) * 1998-10-05 2000-04-18 Toshiba Corp 超音波診断装置
JP2001079003A (ja) 1999-09-14 2001-03-27 Aloka Co Ltd 超音波診断装置
JP2004016268A (ja) * 2002-06-12 2004-01-22 Toshiba Corp 超音波診断装置、超音波プローブ、及び超音波診断におけるナビゲーション情報提供方法
JP2004121488A (ja) * 2002-10-01 2004-04-22 Olympus Corp 超音波診断装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608849A (en) * 1991-08-27 1997-03-04 King, Jr.; Donald Method of visual guidance for positioning images or data in three-dimensional space
JP3303149B2 (ja) 1993-08-05 2002-07-15 株式会社日立メディコ 超音波診断装置
US5842473A (en) * 1993-11-29 1998-12-01 Life Imaging Systems Three-dimensional imaging system
DE69532916D1 (de) * 1994-01-28 2004-05-27 Schneider Medical Technologies Verfahren und vorrichtung zur bilddarstellung
JP3407169B2 (ja) * 1995-10-12 2003-05-19 富士写真光機株式会社 超音波画像立体表示装置及び超音波画像立体表示方法
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
DE69737720T2 (de) * 1996-11-29 2008-01-10 London Health Sciences Centre, London Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
US5810008A (en) * 1996-12-03 1998-09-22 Isg Technologies Inc. Apparatus and method for visualizing ultrasonic images
US6511426B1 (en) * 1998-06-02 2003-01-28 Acuson Corporation Medical diagnostic ultrasound system and method for versatile processing
JP4443672B2 (ja) * 1998-10-14 2010-03-31 株式会社東芝 超音波診断装置
US6174285B1 (en) * 1999-02-02 2001-01-16 Agilent Technologies, Inc. 3-D ultrasound imaging system with pre-set, user-selectable anatomical images
US6544178B1 (en) * 1999-11-05 2003-04-08 Volumetrics Medical Imaging Methods and systems for volume rendering using ultrasound data
KR20020071377A (ko) 2001-03-06 2002-09-12 마이크로소노 테크놀로지스 인코포레이티드 위치센서를 이용한 3차원 영상 검출 장치
US7270634B2 (en) * 2003-03-27 2007-09-18 Koninklijke Philips Electronics N.V. Guidance of invasive medical devices by high resolution three dimensional ultrasonic imaging
JP4855926B2 (ja) * 2003-06-03 2012-01-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 旋回3次元超音波表示の振動対象との同期化
US7717849B2 (en) * 2004-07-06 2010-05-18 Gerneral Electric Company Method and apparatus for controlling ultrasound system display
JP2008515517A (ja) * 2004-10-08 2008-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像の左右反転および上下倒立のある三次元診断超音波撮像システム
US7452357B2 (en) * 2004-10-22 2008-11-18 Ethicon Endo-Surgery, Inc. System and method for planning treatment of tissue
US8057394B2 (en) * 2007-06-30 2011-11-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Ultrasound image processing to render three-dimensional images from two-dimensional images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04158855A (ja) * 1990-10-24 1992-06-01 Aloka Co Ltd 超音波画像表示装置
JP2000107185A (ja) * 1998-10-05 2000-04-18 Toshiba Corp 超音波診断装置
JP2001079003A (ja) 1999-09-14 2001-03-27 Aloka Co Ltd 超音波診断装置
JP2004016268A (ja) * 2002-06-12 2004-01-22 Toshiba Corp 超音波診断装置、超音波プローブ、及び超音波診断におけるナビゲーション情報提供方法
JP2004121488A (ja) * 2002-10-01 2004-04-22 Olympus Corp 超音波診断装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1847222A4 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007111532A (ja) * 2005-10-17 2007-05-10 Medison Co Ltd 多重断面映像を用いて3次元映像を形成するシステム及び方法
JP2010000142A (ja) * 2008-06-18 2010-01-07 National Center For Child Health & Development 超音波ボリュームデータ処理装置
US9342922B2 (en) 2011-08-19 2016-05-17 Hitachi Medical Corporation Medical imaging apparatus and method of constructing medical images
WO2013027526A1 (ja) * 2011-08-19 2013-02-28 株式会社 日立メディコ 医用画像装置及び医用画像構成方法
CN103732151A (zh) * 2011-08-19 2014-04-16 株式会社日立医疗器械 医用图像装置以及医用图像构成方法
JPWO2013035393A1 (ja) * 2011-09-08 2015-03-23 株式会社日立メディコ 超音波診断装置及び超音波画像表示方法
JP2013119035A (ja) * 2011-12-08 2013-06-17 General Electric Co <Ge> 超音波画像形成システム及び方法
JP2013215561A (ja) * 2012-03-12 2013-10-24 Toshiba Corp 超音波診断装置
WO2014129425A1 (ja) * 2013-02-22 2014-08-28 株式会社東芝 超音波診断装置及び医用画像処理装置
CN107102335A (zh) * 2017-06-20 2017-08-29 河北工业大学 一种超声波三维成像装置
CN107102335B (zh) * 2017-06-20 2023-09-05 河北工业大学 一种超声波三维成像装置
CN112689478A (zh) * 2018-11-09 2021-04-20 深圳迈瑞生物医疗电子股份有限公司 一种超声图像获取方法、系统和计算机存储介质
CN112689478B (zh) * 2018-11-09 2024-04-26 深圳迈瑞生物医疗电子股份有限公司 一种超声图像获取方法、系统和计算机存储介质

Also Published As

Publication number Publication date
CN101102721B (zh) 2010-04-14
EP1847222B1 (en) 2011-04-13
JPWO2006085571A1 (ja) 2008-06-26
EP1847222A1 (en) 2007-10-24
DE602006021274D1 (de) 2011-05-26
US20090209859A1 (en) 2009-08-20
CN101102721A (zh) 2008-01-09
EP1847222A4 (en) 2010-03-03
US8617075B2 (en) 2013-12-31
JP4785149B2 (ja) 2011-10-05

Similar Documents

Publication Publication Date Title
WO2006085571A1 (ja) 超音波診断装置及び超音波撮像方法
JP5357684B2 (ja) 超音波撮像装置および超音波撮像方法
US20080255452A1 (en) Methods and Apparatus For Performing Enhanced Ultrasound Diagnostic Breast Imaging
JP6288996B2 (ja) 超音波診断装置及び超音波イメージングプログラム
JP4632807B2 (ja) 超音波診断装置
RU2659021C2 (ru) Система ультразвуковой визуализации и способ ультразвуковой визуализации
JP2006051360A (ja) 超音波撮像域を拡張するための方法及び装置
JP5525930B2 (ja) 三次元超音波画像を生成表示する超音波診断装置
CN106456112B (zh) 用于以期望的取向定位3d超声体积的成像系统和方法
JP2006218210A (ja) 超音波診断装置、超音波画像生成プログラム及び超音波画像生成方法
JP2008307087A (ja) 超音波診断装置
JP2006271523A (ja) 超音波診断装置
JP2011182933A (ja) 超音波診断装置及び関心領域設定用制御プログラム
KR101121267B1 (ko) 스티어링 각도를 고려하여 합성영상을 제공하는 초음파 시스템 및 방법
JP4297561B2 (ja) オパシティ設定方法、3次元像形成方法および装置並びに超音波撮像装置
JPH0622966A (ja) 超音波診断装置
JP2001079003A (ja) 超音波診断装置
KR20080020237A (ko) 3차원 초음파 영상 처리 장치 및 방법
KR101055528B1 (ko) Oh를 제공하는 초음파 시스템 및 방법
JP5182932B2 (ja) 超音波ボリュームデータ処理装置
JP2000333947A (ja) 超音波診断装置
JP2011024827A (ja) 超音波診断装置
JP5383253B2 (ja) 超音波診断装置及び画像データ生成装置
JP2010158473A (ja) 超音波画像診断装置
JP5292959B2 (ja) 超音波診断装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 200680002326.1

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2006713378

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007502633

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11815657

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2006713378

Country of ref document: EP