WO2014200099A1 - 超音波診断装置 - Google Patents

超音波診断装置 Download PDF

Info

Publication number
WO2014200099A1
WO2014200099A1 PCT/JP2014/065799 JP2014065799W WO2014200099A1 WO 2014200099 A1 WO2014200099 A1 WO 2014200099A1 JP 2014065799 W JP2014065799 W JP 2014065799W WO 2014200099 A1 WO2014200099 A1 WO 2014200099A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
collection
ultrasonic
position information
dimensional
Prior art date
Application number
PCT/JP2014/065799
Other languages
English (en)
French (fr)
Inventor
田中 豪
和哉 赤木
後藤 英二
康一郎 栗田
悠 五十嵐
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Publication of WO2014200099A1 publication Critical patent/WO2014200099A1/ja
Priority to US14/966,429 priority Critical patent/US20160095573A1/en
Priority to US16/162,840 priority patent/US20190046153A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane

Definitions

  • Embodiments of the present invention relate to an ultrasonic diagnostic apparatus.
  • a Doppler spectrum (Doppler waveform) indicating blood flow velocity information is generated and displayed using Doppler information (Doppler signal) extracted from an ultrasonic reflected wave.
  • Doppler waveform is a waveform obtained by plotting the blood flow velocity in a range set by the operator as an observation site along a time series. Such a range is set by an operator who refers to a two-dimensional ultrasonic image (a two-dimensional B-mode image or a two-dimensional color Doppler image).
  • the operator samples at a specific site in the blood vessel according to the running of the blood vessel drawn in the two-dimensional ultrasound image. Arrange the gate. In the PW mode, a Doppler waveform indicating blood flow velocity information in the sampling gate is displayed.
  • the operator places a line-shaped sampling marker so as to pass through the blood vessel depicted in the two-dimensional ultrasound image. To do. In the CW mode, a Doppler waveform indicating all blood flow velocity information on the scanning line (beam line) set at the same position as the sampling marker is displayed.
  • the operator refers to the two-dimensional ultrasonic image, adjusts the contact position and contact angle of the ultrasonic probe to the optimum position and angle, and sets the sampling gate or the sampling marker to the optimum position. Must be placed in position.
  • the above operation is not an easy operation because it is difficult for the operator to grasp the traveling of the blood vessel in the three-dimensional space even with reference to the two-dimensional ultrasonic image.
  • the problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus that can facilitate an operation performed by an operator in order to display optimal blood flow velocity information.
  • the ultrasonic diagnostic apparatus includes an ultrasonic probe, an image generation unit, an acquisition unit, a calculation unit, a guide image generation unit, and a control unit.
  • the ultrasonic probe transmits an ultrasonic wave into the subject and receives a reflected wave generated by the reflection of the ultrasonic wave within the subject.
  • the image generation unit generates cross-sectional image data corresponding to a two-dimensional area in the subject based on the reflected wave received by the ultrasonic probe.
  • the acquisition unit acquires cross-sectional position information, which is position information corresponding to a cross-sectional position of the cross-sectional image data, in volume data corresponding to a three-dimensional region including a blood vessel in the subject.
  • the calculation unit calculates collection position information, which is position information in the volume data corresponding to a position where blood flow velocity information is collected, based on the traveling direction of the blood vessel included in the volume data.
  • the guide image generation unit generates guide image data based on the cross-sectional position information and the collection position information.
  • the control unit causes the display unit to display the guide image data.
  • FIG. 1 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the present embodiment.
  • FIG. 2 is a diagram (1) for explaining the acquisition unit.
  • FIG. 3 is a diagram (2) for explaining the acquisition unit.
  • FIG. 4 is a diagram illustrating an example of a setting that has been conventionally performed in the PW mode Doppler waveform acquisition.
  • FIG. 5 is a diagram illustrating an example of acquisition processing of a three-dimensional range.
  • FIG. 6 is a diagram illustrating another example of the acquisition process of the three-dimensional range.
  • FIG. 7 is a diagram (1) for explaining the navigation process performed by the calculation unit and the guide image generation unit.
  • FIG. 8 is a diagram (2) for explaining the navigation process performed by the calculation unit and the guide image generation unit.
  • FIG. 1 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the present embodiment.
  • FIG. 2 is a diagram (1) for explaining the acquisition unit.
  • FIG. 3 is a diagram (2) for explaining the
  • FIG. 9 is a diagram (3) for explaining the navigation process performed by the calculation unit and the guide image generation unit.
  • FIG. 10 is a diagram (4) for explaining the navigation process performed by the calculation unit and the guide image generation unit.
  • FIG. 11 is a diagram (5) for explaining the navigation process performed by the calculation unit and the guide image generation unit.
  • FIG. 12 is a diagram (6) for explaining the navigation processing performed by the calculation unit and the guide image generation unit.
  • FIG. 13 is a diagram (7) for explaining the navigation process performed by the calculation unit and the guide image generation unit.
  • FIG. 14 is a diagram for explaining a display format when navigation is completed.
  • FIG. 15 is a diagram (1) for explaining the display format of the Doppler waveform according to the present embodiment.
  • FIG. 15 is a diagram (1) for explaining the display format of the Doppler waveform according to the present embodiment.
  • FIG. 16 is a diagram (2) for explaining the display format of the Doppler waveform according to the present embodiment.
  • FIG. 17 is a diagram (3) for explaining the display format of the Doppler waveform according to the present embodiment.
  • FIG. 18 is a diagram (4) for explaining the display format of the Doppler waveform according to the present embodiment.
  • FIG. 19 is a flowchart for explaining an example of processing of the ultrasonic diagnostic apparatus according to the present embodiment.
  • FIG. 20A is a diagram (1) for explaining the first modification.
  • FIG. 20B is a diagram (2) for explaining the first modified example.
  • FIG. 21 is a diagram for explaining the second modification.
  • FIG. 22 is a diagram for explaining the third modification.
  • FIG. 1 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the present embodiment.
  • the ultrasonic diagnostic apparatus according to the present embodiment includes an ultrasonic probe 1, a monitor 2, an input device 3, and an apparatus main body 10.
  • a position sensor 4 is attached to the ultrasonic probe 1, and a transmitter 5 is installed in the vicinity of the apparatus main body 10.
  • the device body 10 is connected to the external device 6 via a network.
  • the ultrasonic probe 1 transmits an ultrasonic wave into the subject P and receives a reflected wave generated by the reflection of the ultrasonic wave within the subject P.
  • the ultrasonic probe 1 includes, for example, a plurality of piezoelectric vibrators, and the plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission / reception unit 11 included in the apparatus main body 10 described later.
  • the ultrasonic probe 1 receives a reflected wave from the subject P and converts it into an electrical signal.
  • the ultrasonic probe 1 includes a matching layer provided in the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like.
  • the ultrasonic probe 1 is detachably connected to the apparatus main body 10.
  • the transmitted ultrasonic waves are transmitted from the ultrasonic probe 1 to the subject P
  • the transmitted ultrasonic waves are reflected one after another on the discontinuous surface of the acoustic impedance in the body tissue of the subject P
  • the ultrasonic probe 1 is reflected as a reflected wave.
  • the reflected wave is converted into a reflected wave signal that is an electric signal by the piezoelectric vibrator that has received the reflected wave.
  • the amplitude of the reflected wave signal generated by each transducer depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic waves are reflected. Note that the reflected wave signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving object in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift.
  • the ultrasonic probe 1 connected to the apparatus main body 10 is, for example, a one-dimensional ultrasonic probe in which a plurality of piezoelectric vibrators are arranged in a row.
  • Examples of the one-dimensional ultrasonic probe include sector type, linear type and convex type ultrasonic probes.
  • the ultrasonic probe 1 connected to the apparatus main body 10 scans the subject P two-dimensionally with a plurality of piezoelectric vibrators arranged in a line, for example, and moves the plurality of piezoelectric vibrators at a predetermined angle ( It is a mechanical 4D probe that scans the subject P in three dimensions by rocking at a rocking angle.
  • the ultrasonic probe 1 connected to the apparatus main body 10 is a 2D probe capable of ultrasonically scanning the subject P in three dimensions by arranging a plurality of piezoelectric vibrators in a matrix, for example. is there.
  • the 2D probe can also scan the subject P in two dimensions by focusing and transmitting ultrasonic waves.
  • the ultrasonic diagnostic apparatus collects Doppler waveforms by a pulsed wave (PW) pulsed Doppler method or a continuous wave (CW) Doppler method.
  • the ultrasonic probe 1 connected to the apparatus main body 10 has a PW mode based on the PW Doppler method or a CW based on the CW Doppler method together with ultrasonic transmission / reception for photographing B-mode image data and color Doppler image data. It is an ultrasonic probe capable of performing ultrasonic transmission / reception for collecting a mode Doppler waveform.
  • the position sensor 4 is attached to the ultrasonic probe 1. Further, as described above, the transmitter 5 is disposed at an arbitrary position in the vicinity of the apparatus main body 10.
  • the position sensor 4 and the transmitter 5 are position detection systems for detecting position information (coordinates and angles) of the ultrasonic probe 1.
  • the position sensor 4 is a magnetic sensor attached to the ultrasonic probe 1.
  • the position sensor 4 is attached to the end of the main body of the ultrasonic probe 1, for example.
  • the transmitter 5 is a device that forms a magnetic field toward the outside centering on the own device.
  • the position sensor 4 detects the strength and inclination of the three-dimensional magnetic field formed by the transmitter 5. Then, the position sensor 4 calculates the position (coordinates and angle) of the device itself in the space with the transmitter 5 as the origin, based on the detected magnetic field information, and transmits the calculated position to the device body 10. Here, the position sensor 4 transmits the three-dimensional coordinates and angle at which the device itself is located to the apparatus body 10 as the three-dimensional position information of the ultrasonic probe 1.
  • the present embodiment is applicable even when the position information of the ultrasonic probe 1 is acquired by a system other than the position detection system described above.
  • this embodiment may be a case where the position information of the ultrasonic probe 1 is acquired using a gyro sensor, an acceleration sensor, or the like.
  • the input device 3 is connected to the device main body 10 via an interface unit 19 described later.
  • the input device 3 includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, a joystick, etc., receives various setting requests from an operator of the ultrasonic diagnostic apparatus, The various setting requests received are transferred.
  • the monitor 2 displays a GUI (Graphical User Interface) for an operator of the ultrasonic diagnostic apparatus to input various setting requests using the input device 3, and displays various image data generated in the apparatus main body 10. To do.
  • GUI Graphic User Interface
  • the external device 6 is a device connected to the device main body 10 via an interface unit 19 and a network which will be described later.
  • the external device 6 is a PACS (Picture Archiving and Communication System) database that is a system for managing various medical image data, and an electronic medical record system database that manages an electronic medical record to which medical images are attached.
  • the external apparatus 6 is various medical image diagnostic apparatuses other than the ultrasonic diagnostic apparatus according to the present embodiment, such as an X-ray CT (Computed Tomography) apparatus and an MRI (Magnetic Resonance Imaging) apparatus.
  • the apparatus main body 10 acquires various medical image data unified in an image format conforming to DICOM (Digital Imaging and Communications in Medicine) from the external apparatus 6 via the interface unit 19, for example. Can do.
  • the apparatus main body 10 receives volume data (X-ray CT volume data, MRI volume data, etc.) to be compared with ultrasonic image data generated by the own apparatus via the interface unit 19 described later. Via the external device 6.
  • the apparatus main body 10 is an apparatus that generates ultrasonic image data based on a reflected wave signal received by the ultrasonic probe 1.
  • the apparatus main body 10 according to the present embodiment is an apparatus that can generate two-dimensional ultrasonic image data based on two-dimensional reflected wave data.
  • the apparatus main body 10 according to the present embodiment is an apparatus that can generate three-dimensional ultrasonic image data based on three-dimensional reflected wave data.
  • the three-dimensional ultrasonic image data is referred to as “ultrasonic volume data”.
  • the apparatus main body 10 includes a transmission / reception unit 11, a B-mode processing unit 12, a Doppler processing unit 13, an image generation unit 14, an image memory 15, an image processing unit 16, and an internal storage unit. 17, a control unit 18, and an interface unit 19.
  • the transmission / reception unit 11 includes a pulse generator, a transmission delay unit, a pulser, and the like, and supplies a drive signal to the ultrasonic probe 1.
  • the pulse generator repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency.
  • the transmission delay unit generates a delay time for each piezoelectric vibrator necessary for focusing the ultrasonic wave generated from the ultrasonic probe 1 into a beam and determining transmission directivity. Give for each rate pulse.
  • the pulser applies a drive signal (drive pulse) to the ultrasonic probe 1 at a timing based on the rate pulse. That is, the transmission delay unit arbitrarily adjusts the transmission direction of the ultrasonic wave transmitted from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.
  • the transmission / reception unit 11 has a function capable of instantaneously changing a transmission frequency, a transmission drive voltage, and the like in order to execute a predetermined scan sequence based on an instruction from the control unit 18 described later.
  • the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit capable of instantaneously switching the value or a mechanism for electrically switching a plurality of power supply units.
  • the transmission / reception unit 11 includes a preamplifier, an A / D (Analog / Digital) converter, a reception delay unit, an adder, and the like.
  • the transmission / reception unit 11 performs various processing on the reflected wave signal received by the ultrasonic probe 1 and reflects it. Generate wave data.
  • the preamplifier amplifies the reflected wave signal for each channel.
  • the A / D converter A / D converts the amplified reflected wave signal.
  • the reception delay unit gives a delay time necessary for determining the reception directivity.
  • the adder performs an addition process on the reflected wave signal processed by the reception delay unit to generate reflected wave data. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized, and a comprehensive beam for ultrasonic transmission / reception is formed by the reception directivity and the transmission directivity.
  • the transmission / reception unit 11 causes the ultrasonic probe 1 to transmit an ultrasonic beam for scanning the two-dimensional region when scanning the two-dimensional region in the subject P.
  • the transmitter / receiver 11 according to the present embodiment generates two-dimensional reflected wave data from the two-dimensional reflected wave signal received by the ultrasonic probe 1.
  • the transmission / reception unit 11 transmits an ultrasonic beam for scanning the three-dimensional region from the ultrasonic probe 1.
  • the transmission / reception unit 11 according to the present embodiment generates three-dimensional reflected wave data from the three-dimensional reflected wave signal received by the ultrasonic probe 1.
  • the ultrasonic diagnostic apparatus can generate three-dimensional reflected wave data using the position detection system described above even if the ultrasonic probe 1 is a one-dimensional ultrasonic probe. It is.
  • the operator changes the position and angle of the ultrasonic probe 1 in a state where the ultrasonic probe 1 is in contact with the body surface of the subject P, and scans a plurality of cross sections two-dimensionally. P is three-dimensionally scanned.
  • the transmission / reception unit 11 generates two-dimensional reflected wave data of a plurality of cross sections.
  • the control unit 18, which will be described later arranges two-dimensional reflected wave data of a plurality of cross sections in three dimensions from the three-dimensional position information of the ultrasonic probe 1 obtained from the position detection system. Data can be reconstructed.
  • the form of the output signal from the transmitter / receiver 11 can be selected from various forms such as a signal including phase information called an RF (Radio Frequency) signal or amplitude information after envelope detection processing. Is possible.
  • RF Radio Frequency
  • the B-mode processing unit 12 receives the reflected wave data from the transmission / reception unit 11, performs logarithmic amplification, envelope detection processing, and the like, and generates data (B-mode data) in which the signal intensity is expressed by brightness. .
  • the Doppler processing unit 13 performs frequency analysis on velocity information from the reflected wave data received from the transmission / reception unit 11, extracts blood flow, tissue, and contrast agent echo components due to the Doppler effect, and obtains moving body information such as velocity, dispersion, and power. Data extracted for multiple points (Doppler data) is generated.
  • the moving body of this embodiment is blood that flows in a blood vessel.
  • the B-mode processing unit 12 and the Doppler processing unit 13 can process both two-dimensional reflected wave data and three-dimensional reflected wave data.
  • the image generation unit 14 generates ultrasonic image data from the data generated by the B mode processing unit 12 and the Doppler processing unit 13. That is, the image generation unit 14 generates B-mode image data in which the intensity of the reflected wave is expressed by luminance from the B-mode data generated by the B-mode processing unit 12.
  • the image generation unit 14 includes average velocity image data, distributed image data, power image data, or the like representing moving body information (blood flow information or tissue movement information) from the Doppler data generated by the Doppler processing unit 13. Color Doppler image data as a combined image is generated.
  • the image generation unit 14 generally converts (scan converts) a scanning line signal sequence of ultrasonic scanning into a scanning line signal sequence of a video format represented by a television or the like, and displays ultrasonic waves for display. Generate image data. Specifically, the image generation unit 14 generates ultrasonic image data for display by performing coordinate conversion in accordance with the ultrasonic scanning mode of the ultrasonic probe 1. In addition to the scan conversion, the image generation unit 14 performs various image processing, such as image processing (smoothing processing) for regenerating an average luminance image using a plurality of image frames after scan conversion, Image processing (edge enhancement processing) using a differential filter is performed in the image. In addition, the image generation unit 14 synthesizes character information, scales, body marks, and the like of various parameters with the ultrasound image data.
  • image processing smoothing processing
  • Image processing edge enhancement processing
  • the B-mode data and the Doppler data are ultrasonic image data before the scan conversion process, and the data generated by the image generation unit 14 is ultrasonic image data for display after the scan conversion process.
  • the B-mode data and Doppler data are also called raw data.
  • the image generation unit 14 can generate M-mode image data from time-series data of B-mode data on one scanning line generated by the B-mode processing unit 12. Further, the image generation unit 14 can generate a Doppler waveform in which blood velocity information is plotted along a time series from the Doppler data generated by the Doppler processing unit 13.
  • the image generation unit 14 performs coordinate conversion on the three-dimensional B-mode data generated by the B-mode processing unit 12 to generate three-dimensional B-mode image data.
  • the image generation unit 14 generates three-dimensional Doppler image data by performing coordinate conversion on the three-dimensional Doppler data generated by the Doppler processing unit 13.
  • the three-dimensional B-mode data and the three-dimensional Doppler data are volume data before the scan conversion process. In other words, the image generation unit 14 generates “three-dimensional B-mode image data or three-dimensional Doppler image data” as “ultrasonic volume data”.
  • the image generation unit 14 performs a rendering process on the ultrasonic volume data in order to generate various two-dimensional image data for displaying the ultrasonic volume data on the monitor 2.
  • the rendering process performed by the image generation unit 14 includes a process of generating MPR image data from ultrasonic volume data by performing a cross-section reconstruction method (MPR: Multi Planer Reconstruction).
  • MPR Multi Planer Reconstruction
  • the rendering process performed by the image generation unit 14 includes a process of performing “Curved MPR” on the ultrasound volume data and a process of performing “Maximum Intensity Projection” on the ultrasound volume data.
  • the rendering processing performed by the image generation unit 14 includes volume rendering (VR) processing that generates two-dimensional image data reflecting three-dimensional information.
  • the image generation unit 14 can perform the above-described various rendering processes on volume data collected by other medical image diagnostic apparatuses.
  • volume data is three-dimensional X-ray CT image data (X-ray CT volume data) collected by an X-ray CT apparatus and three-dimensional MRI image data (MRI volume data) collected by an MRI apparatus.
  • the image generation unit 14 performs X-ray CT based on MPR processing using a cross section corresponding to a scanning cross section of two-dimensional ultrasonic image data generated at the present time based on information acquired by the acquisition unit 161 described later. Two-dimensional X-ray CT image data is generated from the volume data.
  • the image memory 15 is a memory for storing image data for display generated by the image generation unit 14.
  • the image memory 15 can also store data generated by the B-mode processing unit 12 and the Doppler processing unit 13.
  • the B-mode data and Doppler data stored in the image memory 15 can be called by an operator after diagnosis, for example, and become ultrasonic image data for display via the image generation unit 14.
  • the image processing unit 16 is installed in the apparatus main body 10 to support collection of Doppler waveforms. As illustrated in FIG. 1, the image processing unit 16 includes an acquisition unit 161, an extraction unit 162, a calculation unit 163, and a guide image generation unit 164.
  • the acquisition unit 161 acquires cross-sectional position information that is position information corresponding to the cross-sectional position of the cross-sectional image data in the volume data corresponding to the three-dimensional region including the blood vessel in the subject P. That is, the image generation unit 14 generates cross-sectional image data corresponding to a two-dimensional region in the subject P based on the reflected wave received by the ultrasonic probe 1.
  • the acquisition unit 161 acquires position information corresponding to the cross-sectional position of the cross-sectional image data generated by the image generation unit 14 in the volume data.
  • the acquisition unit 161 acquires the correspondence that specifies the position of the cross section corresponding to the scanning cross section of the ultrasonic probe 1 in the volume data that is three-dimensional medical image data, thereby obtaining the cross-sectional position.
  • the volume data is volume data captured by another type of medical image diagnostic apparatus other than the ultrasonic diagnostic apparatus, and is, for example, X-ray CT volume data.
  • the correspondence acquired by the acquisition unit 161 is conventionally used for the “simultaneous display function”.
  • the “simultaneous display function” is the two-dimensional X-ray of the two-dimensional ultrasonic image data of the scanning section changed by the movement of the ultrasonic probe 1 and the X-ray CT volume data aligned with the two-dimensional ultrasonic image data. This is a function for simultaneously displaying CT image data on the screen of the monitor 2 in real time.
  • 2 and 3 are diagrams for explaining the acquisition unit.
  • the acquisition unit 161 obtains three-dimensional position information (coordinates and angles) in the real space of the ultrasonic probe 1 from a position detection system including a position sensor 4 and a transmitter 5 attached to the ultrasonic probe 1. ) To get.
  • the three axes (X, Y, Z) of the ultrasonic probe 1 and the three axes of the X-ray CT volume data 100 are aligned.
  • the operator presses the ultrasonic probe 1 to which the position sensor 4 is attached perpendicularly to the subject P and presses the set button.
  • the acquisition unit 161 sets three orthogonal axes determined in the vertical direction in real space from the three-dimensional position information of the ultrasonic probe 1 acquired when the set button is pressed.
  • the operator displays ultrasonic image data 200 in which the same characteristic portion as the characteristic portion drawn in the MPR image data 101 a of the X-ray CT volume data 100 is drawn. Then, the ultrasonic probe 1 is moved and the set button is pressed again. In addition, the operator designates the feature portion of the MPR image data 101a and the feature portion of the ultrasonic image data 200 with, for example, a mouse.
  • the characteristic portion for example, a blood vessel or a xiphoid process is used.
  • the acquisition unit 161 acquires the three-dimensional position information of the ultrasound probe 1 acquired when the set button is pressed again, the position information of the feature portion in the X-ray CT volume data 100, and the feature portion in the ultrasound image data 200. From the position information, the position of the “arbitrary scanning section” in the real space, the position in the ultrasonic image data generated by the ultrasonic scanning of the “arbitrary scanning section”, and the “arbitrary section” in the X-ray CT volume data 100 The correspondence with the position of the cross section corresponding to the “scan cross section” is acquired.
  • control unit 18 specifies a cross section corresponding to the scanning cross section in the X-ray CT volume data 100, and the image generation unit 14 uses the cross section specified by the control unit 18 to perform X-rays.
  • MPR image data can be generated from the CT volume data 100.
  • the monitor 2 simultaneously displays the ultrasonic image data 200A of the moved scanning section and the MPR image data 101A of the same section.
  • the above correspondence can convert the coordinates of the ultrasonic image data generated by the ultrasonic scanning of “arbitrary scanning section” into the coordinates of the X-ray CT volume data 100. Further, the above correspondence can convert the coordinates of an arbitrary position of the X-ray CT volume data 100 into the coordinates of the ultrasonic image data.
  • the extraction unit 162 extracts a blood vessel region included in the volume data.
  • the extraction unit 162 extracts voxels having a CT value corresponding to blood, and extracts a blood vessel region included in the X-ray CT volume data 100.
  • the blood vessel region included in the volume data may be extracted by the operator manually setting the blood vessel position.
  • the internal storage unit 17 stores various data such as a control program for performing ultrasonic transmission / reception, image processing and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), diagnostic protocol, and various body marks. To do.
  • the internal storage unit 17 is also used for storing image data stored in the image memory 15 as necessary.
  • the internal storage unit 17 is also used for storing various medical images transferred from the external device 6. Specifically, the internal storage unit 17 stores DICOM standard volume data transferred from the external device 6 via an interface unit 19 described later. In the present embodiment, the internal storage unit 17 stores volume data (for example, X-ray CT volume data and MRI volume data) including blood vessels of the subject P from which Doppler waveforms are collected.
  • volume data for example, X-ray CT volume data and MRI volume data
  • the control unit 18 controls the entire processing of the ultrasonic diagnostic apparatus. Specifically, the control unit 18 is based on various setting requests input from the operator via the input device 3 and various control programs and various data read from the internal storage unit 17. Controls the processing of the processing unit 12, Doppler processing unit 13, image generation unit 14, and image processing unit 16. Further, the control unit 18 controls the monitor 2 to display the ultrasonic image data for display stored in the image memory 15 or the internal storage unit 17. In addition, the control unit 18 performs control so that the processing result of the image processing unit 16 is displayed on the monitor 2.
  • the interface unit 19 is an interface to the input device 3, the network, and the external device 6. Various setting information and various instructions from the operator received by the input device 3 are transferred to the control unit 18 by the interface unit 19. Further, the transfer request of the image data received from the operator by the input device 3 is notified to the external device 6 by the interface unit 19 via the network. The image data transferred by the external device 6 is stored in the internal storage unit 17 by the interface unit 19.
  • the ultrasonic diagnostic apparatus collects Doppler waveforms that indicate blood flow velocity information based on Doppler information.
  • an operator searches for a scanning section in which a blood vessel of an observation site where Doppler waveforms are to be collected is depicted in B mode or color Doppler mode. Then, the operator refers to the two-dimensional ultrasound image data (two-dimensional B-mode image data or two-dimensional color Doppler image data), and scans a cross section for collecting Doppler waveforms (a scan section for collecting blood flow information). ).
  • a scanning section scanned with the ultrasonic probe 1 for collecting blood flow velocity information is referred to as a “collecting section”.
  • the operator arranges a range for collecting Doppler waveforms in the collection cross section.
  • the range arranged for collecting blood flow information in the collection cross section is referred to as “collection range”.
  • the operator arranges a sampling gate that is a collection range at an observation site in the blood vessel in accordance with the travel of the blood vessel drawn in the two-dimensional ultrasonic image data of the collected cross section.
  • a Doppler waveform indicating blood flow velocity information in the sampling gate is displayed.
  • FIG. 4 is a diagram illustrating an example of a setting that has been conventionally performed in the PW mode Doppler waveform acquisition.
  • FIG. 4 is the B-mode image data of the collected cross section displayed on the monitor 2.
  • the right diagram in FIG. 4 is B-mode image data of a collected cross section in which a blood vessel to be observed is depicted in a long-axis cross section.
  • the operator places a sampling gate in the long-axis cross section of the blood vessel in the B-mode image data (see the parallel double line shown in the right diagram of FIG. 4).
  • the operator or the control unit 18 is a scanning line that passes through the sampling gate, and arranges a line marker at the position of the scanning line that can be scanned in the acquisition section (dotted line shown in the right diagram of FIG. 4). See).
  • the blood flow velocity information obtained from the Doppler information is not blood flow velocity information in the blood vessel traveling direction but blood flow velocity information in the scanning line direction on the line marker.
  • an angle between the blood flow direction (blood vessel traveling direction) and the scanning line direction is defined as “ ⁇ ”.
  • the Doppler processing unit 13 obtains blood flow velocity information in the traveling direction of the blood vessel by correcting the angle of the blood flow velocity information obtained from the Doppler information by “1 / cos ⁇ ”.
  • the operator arranges a sampling gate and a line marker, and in order to notify the Doppler processing unit 13 of “ ⁇ ” for performing angle correction, an operator sets an angle marker parallel to the traveling direction of the blood vessel in the sampling gate. (See the two line segments diagonally crossing the parallel double line in the right figure of FIG. 4). The orientation of the angle marker can be adjusted by the operator.
  • the Doppler processing unit 13 obtains “ ⁇ ” from the angle between the line marker and the angle marker, and performs angle correction.
  • the position information of the sampling gate and the line marker is position information that defines a collection range for sampling Doppler information.
  • position information of angle markers which is information for angle correction, can also be included as position information that defines the collection range.
  • the operator inputs a Doppler waveform collection start request in the PW mode via the input device 3. Thereby, the collection of the Doppler waveform is started, and the monitor 2 displays the Doppler waveform as shown in the left diagram of FIG.
  • a sampling marker and an angle marker corresponding to the line marker in the PW mode are arranged.
  • the position information of the sampling marker passing through the blood vessel becomes the position information that defines the collection range for sampling Doppler information.
  • angle marker position information which is information for angle correction, can also be included as position information that defines the collection range.
  • the operator adjusts the contact position and contact angle of the ultrasonic probe 1 to an optimum position and angle while referring to the two-dimensional ultrasound image data, and arranges the collection range.
  • the optimal contact position and the optimal contact angle of the ultrasonic probe 1 are, for example, a position and an angle at which “ ⁇ ” is minimized.
  • the angle “ ⁇ ” between the traveling direction of the blood vessel and the scanning line direction is closer to “0 degree”
  • “1 / cos ⁇ ” is closer to “1”
  • errors due to angle correction of blood flow velocity information are reduced.
  • the angle “ ⁇ ” between the traveling direction of the blood vessel and the scanning line direction increases, “1 / cos ⁇ ” decreases, and the error due to angle correction of blood flow velocity information increases.
  • the calculation unit 163 and the guide image generation unit 164 use, for example, the correspondence relationship between the calculation unit 163 and the guide image generation unit 164 in order to facilitate the operation performed by the operator to display optimal blood flow velocity information.
  • the following processing is performed using the cross-sectional position information acquired in this way and the blood vessel region extracted by the extraction unit 162.
  • the processing performed in the PW mode will be mainly described.
  • the acquisition unit 161 acquires the correspondence of volume data (for example, X-ray CT volume data 100) before the following processing is started.
  • the calculation unit 163 calculates collection position information, which is position information in the volume data (other type volume data) corresponding to the position where blood flow velocity information is collected, based on the running direction of the blood vessel included in the volume data.
  • the position where blood flow velocity information is collected is a collection range arranged on a collection cross section scanned with an ultrasonic probe for collecting blood flow velocity information.
  • the calculation unit 163 calculates position information in the volume data corresponding to the collection cross section and the collection range as the collection position information.
  • the calculation unit 163 includes, in the volume data, position information in the volume data (other type volume data) of the collection range and the collection cross section in which the error of the collected blood flow velocity information is within the allowable range. Calculation is based on the running direction of the blood vessel.
  • the calculation unit 163 uses other types that can extract the blood vessel region, not the real space, as the collection position information that is the position information between the collection range for collecting the Doppler waveform and the collection cross section where the collection range is arranged. Calculate in the virtual space of volume data.
  • the guide image generation unit 164 generates guide image data based on the cross-sectional position information and the collection position information. Specifically, the guide image generation unit 164 uses the correspondence relationship and the collection position information to guide the operator to move the ultrasonic probe 1 to a position where the collection cross section where the collection range is arranged is scanned. Generate data. More specifically, the guide image generation unit 164 uses two-dimensional image data generated from volume data (other type volume data). The two-dimensional image data is, for example, VR image data of the X-ray CT volume data 100. The VR image data may be generated by the image generation unit 14 or may be generated by the guide image generation unit 164.
  • the guide image generation unit 164 superimposes a marker indicating the current scanning section of the ultrasonic probe 1 on the position based on the section position information on the two-dimensional image data, and collects a marker indicating the collection range and the collection section. It is superimposed on the position based on the position information.
  • the guide image generation unit 164 generates guide image data.
  • the guide image data is an image for navigation for the operator to move the ultrasonic probe 1.
  • the calculation unit 163 acquires a three-dimensional range corresponding to the three-dimensional scanning range that can be scanned by the ultrasonic probe 1 in the volume data.
  • the three-dimensional scanning range is obtained when the operator moves the ultrasonic probe 1 in contact with the body surface of the subject P within a possible range.
  • the calculation unit 163 calculates the position of the three-dimensional range from the three-dimensional scanning range and the correspondence relationship acquired by the acquisition unit 161.
  • FIG. 5 is a diagram illustrating an example of acquisition processing of a three-dimensional range.
  • the ultrasonic scanning of the heart is performed with the ultrasonic probe 1 in contact with the intercostal space. That is, the ultrasonic probe 1 cannot always scan a cross section including an observation site at an arbitrary contact position and contact angle. Therefore, for example, the operator moves the ultrasonic probe 1 within a scannable range as shown in the left diagram of FIG. 5 while the ultrasonic probe 1 is in contact with the body surface of the subject P.
  • a three-dimensional scanning range is set.
  • the acquisition unit 161 acquires position information in the real space of the three-dimensional scanning range from the position sensor 4 and notifies the calculation unit 163 of the position information.
  • the calculation unit 163 calculates the X-ray from the position information in the real space of the three-dimensional scanning range and the cross-section position information (for example, the cross-section position information acquired from the correspondence) as shown in the right diagram of FIG.
  • the position of the three-dimensional range 300 corresponding to the three-dimensional scanning range is calculated.
  • the three-dimensional range 300 is a range in which the acquisition range and the acquisition cross section are searched in the X-ray CT volume data 100.
  • the position of the three-dimensional range 300 may be calculated without using the correspondence relationship.
  • the calculation unit 163 calculates the position of the three-dimensional range using information on the position of the body surface of the subject P in the X-ray CT volume data 100.
  • FIG. 6 is a diagram illustrating another example of the acquisition process of the three-dimensional range.
  • the calculation unit 163 calculates the position of the body surface 400 of the subject P in the X-ray CT volume data 100 using the CT value corresponding to air as shown in FIG.
  • the body surface 400 is a range in which the ultrasonic probe 1 can contact.
  • the calculation unit 163 calculates the position of the three-dimensional range 300 based on the position of the body surface 400 in the X-ray CT volume data 100 and the shape and size of the cross section that the ultrasonic probe 1 performs two-dimensional scanning.
  • the calculation unit 163 calculates the position of the bone region of the subject P in the X-ray CT volume data 100 using the CT value corresponding to the bone, and further uses the position of the bone region to obtain a three-dimensional range. 300 positions may be calculated. Alternatively, the calculation unit 163 may calculate the position of the three-dimensional range 300 by further using the position of the partial range of the body surface 400 specified by the operator.
  • the operator inputs a navigation start request using the input device 3 in a state where the ultrasonic probe 1 is scanning a cross section within the three-dimensional scanning range after completing the scanning of the three-dimensional scanning range.
  • the calculation part 163 and the guide image generation part 164 start the navigation process demonstrated below.
  • 7 to 13 are diagrams for explaining the navigation processing performed by the calculation unit and the guide image generation unit.
  • the right diagram in FIG. 7 shows B-mode image data as cross-sectional image data of the current scanning cross-section.
  • 7 shows VR image data 101 generated from the X-ray CT volume data 100 described above.
  • the calculation unit 163 acquires the position information of the current scanning section from the acquisition unit 161, and uses the acquired position information and the correspondence relationship, in the X-ray CT volume data 100, a section corresponding to the current scanning section (hereinafter, referred to as “scanning section”).
  • the position of the corresponding scanning section is calculated.
  • the guide image generation unit 164 superimposes a frame 500 corresponding to the corresponding scanning section on the position calculated by the calculation unit 163 in the VR image data 101.
  • FIG. 7 shows a section corresponding to the corresponding scanning section.
  • the image generation unit 14 superimposes a frame 600 corresponding to the current scanning section on the B-mode image data of the current scanning section.
  • the frame 500 and the frame 600 are drawn with a yellow solid line. Note that blood vessels are depicted in the VR image data 101.
  • the input device 3 accepts designation of the observation site from the operator in the volume data. For example, as shown in the left diagram of FIG. 8, the operator moves the mouse cursor into the blood vessel of the VR image data 101 and clicks it. Since the VR image data 101 is an image generated from the X-ray CT volume data 100 having three-dimensional information, the calculation unit 163 can calculate the three-dimensional position of the position designated by the operator as the observation site.
  • the calculation unit 163 calculates the three-dimensional position in the X-ray CT volume data 100 of the observation site specified by the VR image data 101 as shown in FIG. Then, as illustrated in FIG. 9, the extraction unit 162 extracts the blood vessel region 501 located at the three-dimensional position of the observation site using the CT value.
  • the extraction unit 162 may extract a blood vessel wall from the blood vessel region 501.
  • the extraction unit 162 may extract all blood vessel regions (or blood vessel walls) of the X-ray CT volume data 100 in advance.
  • the calculation part 163 calculates the running direction of the blood vessel in an observation site
  • the calculation unit 163 calculates a blood vessel traveling vector 502 at the observation site as shown in FIG. In FIG. 9, the blood vessel travel vector 502 is indicated by a double arrow.
  • the calculation unit 163 calculates the position and angle of the scanning line along the blood vessel running direction (blood vessel running vector 502) in the X-ray CT volume data 100.
  • the scanning line along the blood vessel traveling direction (blood vessel traveling vector 502) is the optimum scanning line that minimizes the error in blood flow velocity information collected at the observation site.
  • the position and angle of the optimum scanning line that minimizes the error in blood flow velocity information collected at the observation site is the position and angle of the scanning line that passes through the observation site and coincides with the traveling direction of the blood vessel.
  • the calculation unit 163 calculates the position and angle of the optimum scanning line in the X-ray CT volume data 100.
  • the calculation unit 163 sets a line determined by the calculated position and angle as an optimum line corresponding to the optimum scanning line. Then, the calculation unit 163 calculates position information (collection position information) of the collection range and the collection section using the optimum line.
  • the calculation unit 163 arranges a line that passes through the observation site and matches the blood vessel travel vector 502 as the optimum line 503.
  • the calculation unit 163 arranges the optimal line 503 in parallel with the blood vessel travel vector 502 (the travel direction of the blood vessel at the observation site calculated using the blood vessel region).
  • the angle between the optimal line 503 and the blood vessel traveling vector 502 is “0 degree”, and the error in the blood flow velocity information collected by the scanning line corresponding to the optimal line 503 is minimal.
  • the optimum line 503 is a marker corresponding to the optimum line marker in the X-ray CT volume data 100.
  • the calculation unit 163 arranges a double line 504 including the observation site perpendicular to the optimum line 503.
  • the double line 504 is a marker corresponding to the optimum sampling gate in the X-ray CT volume data 100.
  • the optimum line 503 and the double line 504 are the optimum collection range for collecting the Doppler waveform of the observation site in the PW mode.
  • the calculation part 163 arrange
  • the calculation unit 163 arranges the travel line 505 perpendicular to the double line 504.
  • the travel line 505 is a marker corresponding to an optimum angle marker that can perform angle correction with high accuracy.
  • calculation part 163 moves the optimal line 503 in the state which fixed the position of the observation site
  • the calculation part 163 moves the optimal line 503 in the state which maintained the relative positional relationship with the optimal line 503 and the double line 504.
  • the calculation unit 163 does not move the travel line 505.
  • the calculation unit 163 searches for a position where the moved optimum line 503 can be scanned and the angle between the moved optimum line 503 and the blood vessel travel vector 502 is minimum.
  • the calculation unit 163 performs a search under the above search conditions to calculate the collection position information.
  • the calculation unit 163 calculates the positions of “line 506 and double line 507” that satisfy the above search conditions as the positions of the collection range.
  • the calculation unit 163 calculates the position of the “frame 508” that satisfies the above search condition as the position of the collection cross section.
  • the calculation unit 163 calculates the collection position information. As shown in FIG. 11, the position of the travel line 505 is maintained.
  • the guide image generation unit 164 indicates “line 506 and double line 507”, “frame 508”, and “travel line 505” in “VR image data 101 and frame 500” shown in the left diagram of FIG.
  • Guide image data is generated by superimposing the markers. That is, the guide image generation unit 164 overlaps a dotted line frame 509 indicating a frame 508, overlaps a dotted line 510 indicating a line 506, and a double line 511 indicating a double line 507, as shown in the left diagram of FIG. And a line 512 indicating the travel line 505 is superimposed as an angle marker for angle correction.
  • the guide image generation unit 164 draws the dotted frame 509 in green in order to differentiate it from the frame 500 indicated by the yellow solid line.
  • the guide image data is displayed on the monitor 2 under the control of the control unit 18.
  • the dotted line frame 509 serves as a marker indicating the collection cross section.
  • a dotted line 510 and a double line 511 serve as markers indicating the collection range.
  • control unit 18 may display information necessary for the operator to move the ultrasonic probe 1 to the position where the collected cross section is scanned together with the guide image data on the monitor 2.
  • the guide image generation unit 164 acquires a three-dimensional body mark corresponding to the imaging region from the internal storage unit 17.
  • the guide image generation unit 164 arranges two probe schematic diagrams on the three-dimensional body mark as shown in FIG.
  • the guide image generation unit 164 places one probe schematic diagram at a position corresponding to the position of the ultrasonic probe 1 at the time of requesting the start of navigation, and sets the other probe schematic diagram of the ultrasonic probe 1 at the time of scanning the acquired cross section. Place it at a position corresponding to the position.
  • the guide image generation unit 164 arranges an arrow indicating parallel movement and an arrow indicating rotational movement as the operation of the position where the collection cross section is scanned.
  • the control part 18 displays the image data shown in FIG.
  • the guide image generation unit 164 may generate and display guide image data in which B-mode image data is superimposed at the position of the frame 500.
  • the two-dimensional image data of the X-ray CT volume data 100 used for the guide image data may be MPR image data.
  • the operator may display a plurality of guide image data using a plurality of MPR image data as thumbnails or display a moving image.
  • an operator who refers to the guide image data may adjust the collection range and the position of the collection cross section.
  • FIG. 14 is a diagram for explaining a display format when navigation is completed.
  • the guide image generation unit 164 displays the frame 500 as shown in FIG. , And the green dotted line frame 509 is changed to a green solid line frame 509 ′. Thereby, the operator can recognize that the acquisition cross section is being scanned.
  • the guide image generation unit 164 or the image generation unit 14 may change the yellow frame 600 to a green frame 600 'as shown in FIG. This also allows the operator to recognize that the acquisition cross section is being scanned.
  • the guide image generation unit 164 or the image generation unit 14 adds a “collection range marker in the guide image data” to the B-mode image data of the acquisition cross section as shown in FIG.
  • the “line marker and sampling gate” corresponding to the dotted line 510 and the double line 511 ” are superimposed.
  • the guide image generation unit 164 or the image generation unit 14 superimposes “angle markers” corresponding to “lines 512 that are markers for angle correction in the guide image data”.
  • the operator may adjust the “line marker and sampling gate” superimposed on the B-mode image data of the acquired cross section. In such a case, the positions of the markers in the guide image data may be moved in conjunction with each other.
  • the control unit 18 starts collecting blood flow velocity information (Doppler waveform) in the collection range.
  • Doppler waveform blood flow velocity information
  • the Doppler processing unit 13 does not use the angle between the angle marker and the line marker superimposed on the B-mode image data.
  • the Doppler processing unit 13 uses the angle between the travel line 505 and the line 506 as “ ⁇ ” for angle correction.
  • the display format of the Doppler waveform may be selected by an operator or may be a default setting.
  • the Doppler waveform display format that can be executed in the present embodiment will be described below with reference to FIGS. 15 to 18 are diagrams for explaining display formats of Doppler waveforms according to the present embodiment.
  • the display format shown in FIG. 15 further displays a Doppler waveform in the display format at the time of completion of navigation shown in FIG.
  • the guide image data and the B mode image data are displayed in parallel on the monitor 2, and a Doppler waveform is displayed below the guide image data and the B mode image data.
  • the display format shown in FIG. 16 is an MPR image obtained by cutting the X-ray CT volume data 100 at a cross section including the acquired cross section instead of the guide image data using the VR image data 101.
  • Image data in which a marker corresponding to the acquisition cross section, a marker corresponding to the acquisition range, and a marker corresponding to the angle marker are superimposed on the data is displayed.
  • FIG. 17 is a display format in which a Doppler waveform is displayed in a guide image data display area, and the Doppler waveform and B-mode image data are displayed in parallel.
  • the display format shown in FIG. 18 superimposes color Doppler mode color Doppler image data on a part of the B mode image data displayed in the display format of FIG.
  • a display format for displaying the three-dimensional body mark may be further performed.
  • the color Doppler image data is displayed in the color ROI set as the region of interest (ROI) by the operator on the B-mode image data.
  • the scanning cross section in which the ultrasonic probe 1 is performing ultrasonic scanning when the navigation is completed is a long-axis cross section passing through the long axis of the blood vessel or a cross section close to the long-axis cross section of the blood vessel.
  • a long-axis cross section of a blood vessel or a cross-section close to the long-axis cross section of the blood vessel includes a travel line of the blood vessel, and thus becomes a cross section capable of calculating blood flow information such as speed, dispersion, and power with high accuracy. That is, in the display format shown in FIG. 18, the operator can refer to the color Doppler image data collected at the optimum cross section together with the Doppler waveform collected at the optimum position.
  • the above-described navigation function allows the operator to specify the observation site and to operate the cross-section including the color ROI that is optimal for collecting Doppler waveforms and that can calculate blood flow information with high accuracy. It can be used as a function for a person to move the ultrasonic probe 1. Furthermore, the navigation function described in the present embodiment allows the operator to specify a region to be observed, so that the operator can perform color ROI that can generate and display color Doppler image data in which highly accurate blood flow information is rendered. It can be used as a function for moving the acoustic probe 1.
  • FIG. 19 is a flowchart for explaining an example of processing of the ultrasonic diagnostic apparatus according to the present embodiment.
  • the processing after acquiring the correspondence relationship between the collection range for performing the PW mode and the other type volume data for calculating the position information of the collection cross section will be described.
  • the control unit 18 determines whether or not a navigation start request has been received from the operator (step S101).
  • the control unit 18 waits until the navigation start request is accepted.
  • Step S101 when the navigation start request is received (Yes at Step S101), the marker of the current scanning section is superimposed and displayed on the VR image data of the volume data by the processing of the guide image generation unit 164 based on the instruction of the control unit 18 ( Step S102, see FIG. Then, the calculation unit 163 determines whether or not designation of an observation site has been received in the VR image data (step S103). Here, when the designation of the observation region is not accepted (No at Step S103), the calculation unit 163 waits until the designation of the observation region is accepted.
  • the calculation unit 163 calculates the position of the designated observation site in the volume data and calculates the traveling direction of the blood vessel at the observation site (Step S104, FIG. 9). Then, the calculation unit 163 calculates the position of the optimum line in the volume data (see step S105, FIG. 10). Then, the calculation unit 163 arranges a double line (corresponding to the sampling gate) and a travel line (corresponding to the angle marker) on the optimum line (see step S106, FIG. 10).
  • the calculation unit 163 is a scanning section capable of scanning the optimum line moved by moving the double line and the optimum line within the three-dimensional range around the observation site while maintaining the position of the traveling line, A collection range and a collection section where the angle between the moved optimal line and the blood vessel traveling direction is minimized are searched (see step S107 and FIG. 11). Then, the calculating unit 163 calculates the searched collection range and collection slice position information (step S108).
  • the guide image generation unit 164 generates guide image data using the correspondence and position information, and the monitor 2 displays the guide image data (see step S109, FIG. 12). The operator starts moving the ultrasonic probe 1 with reference to the guide image data.
  • control unit 18 determines whether or not the scanning section matches the collected section (Step S110). If the scanning section does not coincide with the acquired section (No at Step S110), the control unit 18 controls to generate and display guide image data for a new scanning section at Step S109.
  • Step S110 when the scanning section coincides with the collection section (Yes at Step S110), the control section 18 notifies that the collection section is scanned (Step S111, see FIG. 14). And the control part 18 superimposes and displays a line marker, a sampling gate, and an angle marker on the ultrasonic image data of an acquisition cross section (step S112).
  • control unit 18 starts collecting and displaying the Doppler waveform (Step S113), and ends the navigation process.
  • the optimal collection range and the position information of the collection cross section within the three-dimensional range are calculated using the volume data from which the blood vessel region can be extracted and using the blood vessel traveling direction of the observation site. To generate and display guide image data. Therefore, in this embodiment, since the optimal blood flow velocity information is displayed, the operation performed by the operator can be facilitated.
  • a set of collection ranges and collection sections is searched by the optimum search condition within the three-dimensional range of the volume data corresponding to the three-dimensional scan range set as a scanable three-dimensional region.
  • the collected cross section is only a cross section searched in the virtual space of the volume data. For this reason, even if the operator tries to scan the acquired cross section in the real space, even if the acquired cross section cannot be scanned, or even if the acquired cross section in the real space is scanned, the B-mode image data is shaded due to bones and the like There is a case.
  • the present embodiment may perform a first modification described below.
  • the calculation unit 163 searches for a position where the angle between the optimal line moved within the three-dimensional range and the traveling direction of the blood vessel at the observation site is equal to or less than a predetermined value.
  • the predetermined value is “60 degrees”.
  • the calculation unit 163 calculates a plurality of candidate position information by obtaining a plurality of candidate collection ranges and candidate sets of candidate scanning sections.
  • the control unit 18 determines the order of the plurality of candidate position information in ascending order of the angle.
  • 20A and 20B are diagrams for explaining the first modification.
  • the control unit 18 sets the candidate position information of “angle: 45 degrees” as the first candidate and the candidate of “angle: 48 degrees”. Position information is set as the second candidate, and candidate position information of “angle: 50 degrees” is set as the third candidate.
  • the control unit 18 When the control unit 18 receives a request for changing guide image data based on the candidate position information in the predetermined order from among the plurality of candidate position information, the control unit 18 guides based on the candidate position information in the next order in the predetermined order. Display image data. For example, when an appropriate B-mode image is not displayed on the first candidate collection section, the operator presses the “Next” button of the input device 3. In such a case, the control unit 18 displays guide image data based on the position information of the first candidate. In order to notify that the candidate rank has been lowered, the control unit 18 changes the color of the marker superimposed on the second candidate guide image data from the color of the marker superimposed on the first candidate guide image data. It may be changed.
  • control unit 18 may perform ranking by a method other than the method using the angle value. For example, the control unit 18 sets the candidate position information with the smallest angle as the first position, and determines the ranks of the remaining candidate position information in the order of few moving operations from the first position candidate position information. Alternatively, for example, the control unit 18 determines the order of the plurality of candidate position information in the order of few moving operations from the position of the ultrasonic probe 1 at the current time.
  • the position of the candidate set that is equal to or smaller than a value obtained by increasing the predetermined value may be searched again.
  • the operator may be notified that a setting of a new three-dimensional scanning range that can scan the observation site is requested.
  • the cross-sectional position information corresponding to the cross-sectional position of the cross-sectional image data (B-mode image data) generated by the image generation unit 14 in other types of volume data such as X-ray CT volume data and MRI volume data.
  • the acquisition unit 161 acquires cross-sectional position information in the volume data of the cross-sectional image data each time cross-sectional image data is generated using a known alignment technique such as a cross-correlation method. It may be the case.
  • volume data that can be extracted by extracting an area where blood flow is captured by ultrasonic transmission / reception may be used.
  • color Doppler volume data obtained by three-dimensional scanning by a color flow mapping (CFM) method and power volume data are used as the volume data.
  • CFM color flow mapping
  • the operator performs scanning in the color Doppler mode when setting the three-dimensional scanning range shown in the left diagram of FIG.
  • the control unit 18 reconstructs two-dimensional reflected wave data of each of a plurality of cross sections into three-dimensional reflected wave data from the three-dimensional position information of the ultrasonic probe 1 acquired by the acquisition unit 161 from the position sensor 4, and performs Doppler processing.
  • FIG. 21 is a diagram for explaining the second modification.
  • the image generation unit 14 generates power volume data 700 as shown in FIG. 21, for example.
  • the extraction unit 162 extracts a blood flow region 710 as illustrated in FIG. 21 by extracting voxels to which a luminance value corresponding to the power value is assigned.
  • the blood flow region 710 can calculate the traveling direction of the blood vessel.
  • the correspondence between the position of the scanning section by the ultrasonic probe 1 and the position of the power volume data 700 is acquired only by the three-dimensional position information of the ultrasonic probe 1 acquired from the position sensor 4. can do.
  • the ultrasonic volume data from which the blood vessel region such as the power volume data 700 can be extracted is the ultrasonic volume data generated by scanning the three-dimensional region in the subject P with a mechanical 4D probe, 2D probe, or the like. It may be.
  • the navigation process performed by the image processing unit 16 can be applied to M-mode shooting.
  • the M mode is performed in order to obtain heart valve and myocardial motion information on the scanning line.
  • FIG. 22 is a diagram for explaining the third modification.
  • the third modification is applied when the M-mode sampling line is arranged at an optimal position and angle.
  • the conditions for the M-mode sampling line to be at the optimum position and angle are, for example, the direction in which the normal heart valve moves and the direction in which the normal myocardium moves. It can be set by specifying the operator on the data.
  • the first modification, the second modification, and the third modification all or part of the processes described as being performed automatically are manually performed.
  • all or part of the processing described as being performed manually can be automatically performed by a known method.
  • the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.
  • each component of each device illustrated in the above description is functionally conceptual and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
  • all or a part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
  • the image processing method described in the above embodiment, the first modification, the second modification, and the third modification is performed by executing a prepared image processing program on a computer such as a personal computer or a workstation.
  • a prepared image processing program can be distributed via a network such as the Internet.
  • the program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read from the recording medium by the computer.
  • the operation performed by the operator can be facilitated in order to display the optimal blood flow velocity information.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Hematology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

 実施形態の超音波診断装置は、超音波プローブ(1)、画像生成部(14)、取得部(161)、算出部(163)、ガイド画像生成部(164)及び制御部(18)を備える。超音波プローブ(1)は、被検体内に送信した超音波が前記被検体内で反射して発生する反射波を受信する。画像生成部(14)は、前記反射波に基づき断面画像データを生成する。取得部(161)は、前記被検体内の血管を含む3次元領域に対応するボリュームデータにおいて、前記断面画像データに対応する断面位置情報を取得する。算出部(163)は、血流速度情報を収集する位置に対応する前記ボリュームデータにおける収集位置情報を、当該ボリュームデータが含む血管の走行方向に基づいて算出する。ガイド画像生成部(164)は、前記断面位置情報と前記収集位置情報とに基づいてガイド画像データを生成する。制御部(18)は、前記ガイド画像データを表示させる。

Description

超音波診断装置
 本発明の実施形態は、超音波診断装置に関する。
 従来、超音波診断装置では、超音波の反射波から抽出されるドプラ情報(ドプラ信号)を用いて血流速度情報を示すドプラスペクトラム(ドプラ波形)を生成表示することが行なわれている。ドプラ波形は、観察部位として操作者が設定した範囲における血流速度を時系列に沿ってプロットした波形である。かかる範囲は、2次元超音波画像(2次元Bモード画像、又は、2次元カラードプラ画像)を参照した操作者により設定される。
 例えば、パルス波(PW:Pulsed Wave)ドプラ法でドプラ波形を収集するPWモードでは、操作者は、2次元超音波画像に描出された血管の走行に合わせて、血管内の特定の部位にサンプリングゲートを配置する。PWモードでは、サンプリングゲート内の血流速度情報を示すドプラ波形が表示される。また、例えば、連続波(CW:Continuous Wave)ドプラ法でドプラ波形を収集するCWモードでは、操作者は、2次元超音波画像に描出された血管を通るように、ライン状のサンプリングマーカを配置する。CWモードでは、サンプリングマーカと同一位置に設定された走査線(ビームライン)上の全ての血流速度情報を示すドプラ波形が表示される。
 操作者は、ドプラ情報を得るために、2次元超音波画像を参照して、超音波プローブの当接位置及び当接角度を最適な位置及び角度に調整し、サンプリングゲート又はサンプリングマーカを最適な位置に配置する必要がある。しかし、上記の操作は、操作者は、2次元超音波画像を参照しても3次元空間における血管の走行を把握することが困難であることから、容易な操作ではない。
特開2010-68955号公報
 本発明が解決しようとする課題は、最適な血流速度情報を表示するため操作者が行なう操作を容易にすることができる超音波診断装置を提供することである。
 実施形態の超音波診断装置は、超音波プローブと、画像生成部と、取得部と、算出部と、ガイド画像生成部と、制御部とを備える。超音波プローブは、被検体内に超音波を送信し、前記超音波が前記被検体内で反射することで発生する反射波を受信する。画像生成部は、前記超音波プローブによって受信された前記反射波に基づき、前記被検体内の2次元領域に対応する断面画像データを生成する。取得部は、前記被検体内の血管を含む3次元領域に対応するボリュームデータにおいて、前記断面画像データの断面位置に対応する位置情報である断面位置情報を取得する。算出部は、血流速度情報を収集する位置に対応する前記ボリュームデータにおける位置情報である収集位置情報を、当該ボリュームデータに含まれる血管の走行方向に基づいて算出する。ガイド画像生成部は、前記断面位置情報と前記収集位置情報とに基づいて、ガイド画像データを生成する。制御部は、前記ガイド画像データを表示部に表示させる。
図1は、本実施形態に係る超音波診断装置の構成例を示すブロック図である。 図2は、取得部を説明するための図(1)である。 図3は、取得部を説明するための図(2)である。 図4は、PWモードのドプラ波形収集で、従来行なわれている設定の一例を示す図である。 図5は、3次元範囲の取得処理の一例を示す図である。 図6は、3次元範囲の取得処理の別の一例を示す図である。 図7は、算出部及びガイド画像生成部が行なうナビゲーション処理を説明するための図(1)である。 図8は、算出部及びガイド画像生成部が行なうナビゲーション処理を説明するための図(2)である。 図9は、算出部及びガイド画像生成部が行なうナビゲーション処理を説明するための図(3)である。 図10は、算出部及びガイド画像生成部が行なうナビゲーション処理を説明するための図(4)である。 図11は、算出部及びガイド画像生成部が行なうナビゲーション処理を説明するための図(5)である。 図12は、算出部及びガイド画像生成部が行なうナビゲーション処理を説明するための図(6)である。 図13は、算出部及びガイド画像生成部が行なうナビゲーション処理を説明するための図(7)である。 図14は、ナビゲーション完了時の表示形式を説明するための図である。 図15は、本実施形態に係るドプラ波形の表示形式を説明するための図(1)である。 図16は、本実施形態に係るドプラ波形の表示形式を説明するための図(2)である。 図17は、本実施形態に係るドプラ波形の表示形式を説明するための図(3)である。 図18は、本実施形態に係るドプラ波形の表示形式を説明するための図(4)である。 図19は、本実施形態に係る超音波診断装置の処理の一例を説明するためのフローチャートである。 図20Aは、第1変形例を説明するための図(1)である。 図20Bは、第1変形例を説明するための図(2)である。 図21は、第2変形例を説明するための図である。 図22は、第3変形例を説明するための図である。
 以下、添付図面を参照して、超音波診断装置の実施形態を詳細に説明する。
(実施形態)
 まず、本実施形態に係る超音波診断装置の構成について説明する。図1は、本実施形態に係る超音波診断装置の構成例を示すブロック図である。図1に例示するように、本実施形態に係る超音波診断装置は、超音波プローブ1と、モニタ2と、入力装置3と、装置本体10とを有する。また、超音波プローブ1には、位置センサ4が取り付けられ、装置本体10の近傍には、トランスミッター5が設置される。また、装置本体10は、ネットワークを介して外部装置6と接続される。
 超音波プローブ1は、被検体P内に超音波を送信し、当該超音波が被検体P内で反射することで発生する反射波を受信する。超音波プローブ1は、例えば、複数の圧電振動子を有し、これら複数の圧電振動子は、後述する装置本体10が有する送受信部11から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ1は、被検体Pからの反射波を受信して電気信号に変換する。また、超音波プローブ1は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。なお、超音波プローブ1は、装置本体10と着脱自在に接続される。
 超音波プローブ1から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波として超音波プローブ1が有する複数の圧電振動子にて受信される。そして、反射波は、当該反射波を受信した圧電振動子で、電気信号である反射波信号に変換される。各振動子で発生する反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。
 装置本体10に接続される超音波プローブ1は、例えば、複数の圧電振動子が一列で配置された1次元超音波プローブである。1次元超音波プローブとしては、セクタ型、リニア型又はコンベックス型等の超音波プローブが挙げられる。或いは、装置本体10に接続される超音波プローブ1は、例えば、一列に配置された複数の圧電振動子により、被検体Pを2次元で走査するとともに、複数の圧電振動子を所定の角度(揺動角度)で揺動させることで、被検体Pを3次元で走査するメカニカル4Dプローブである。或いは、装置本体10に接続される超音波プローブ1は、例えば、複数の圧電振動子がマトリックス状に配置されることで、被検体Pを3次元で超音波走査することが可能な2Dプローブである。2Dプローブは、超音波を集束して送信することで、被検体Pを2次元で走査することも可能である。
 なお、本実施形態に係る超音波診断装置は、後述するように、パルス波(PW:Pulsed Wave)ドプラ法、又は、連続波(CW:Continuous Wave)ドプラ法により、ドプラ波形の収集を行なう。本実施形態において、装置本体10に接続される超音波プローブ1は、Bモード画像データ及びカラードプラ画像データの撮影用の超音波送受信とともに、PWドプラ法によるPWモード、又は、CWドプラ法によるCWモードのドプラ波形の収集用の超音波送受信を実行可能な超音波プローブである。
 ここで、上述したように、超音波プローブ1には位置センサ4が取り付けられる。また、上述したように、装置本体10の近傍の任意の位置に、トランスミッター5が配置される。位置センサ4及びトランスミッター5は、超音波プローブ1の位置情報(座標及び角度)を検出するための位置検出システムである。例えば、位置センサ4は、超音波プローブ1に取り付けられる磁気センサである。位置センサ4は、例えば、超音波プローブ1の本体の端部に取り付けられる。また、例えば、トランスミッター5は、自装置を中心として外側に向かって磁場を形成する装置である。
 位置センサ4は、トランスミッター5によって形成された3次元の磁場の強度と傾きとを検出する。そして、位置センサ4は、検出した磁場の情報に基づいて、トランスミッター5を原点とする空間における自装置の位置(座標及び角度)を算出し、算出した位置を装置本体10に送信する。ここで、位置センサ4は、自装置が位置する3次元の座標及び角度を、超音波プローブ1の3次元位置情報として、装置本体10に送信する。
 なお、本実施形態は、上記の位置検出システム以外のシステムにより、超音波プローブ1の位置情報を取得する場合であっても適用可能である。例えば、本実施形態は、ジャイロセンサや加速度センサ等を用いて、超音波プローブ1の位置情報を取得する場合であっても良い。
 入力装置3は、後述するインターフェース部19を介して装置本体10と接続される。入力装置3は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等を有し、超音波診断装置の操作者からの各種設定要求を受け付け、装置本体10に対して受け付けた各種設定要求を転送する。
 モニタ2は、超音波診断装置の操作者が入力装置3を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体10において生成された各種画像データ等を表示したりする。
 外部装置6は、後述するインターフェース部19及びネットワークを介して装置本体10と接続される装置である。例えば、外部装置6は、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication System)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベースなどである。或いは、外部装置6は、例えば、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等、本実施形態に係る超音波診断装置以外の各種医用画像診断装置である。
 本実施形態に係る装置本体10は、例えば、DICOM(Digital Imaging and Communications in Medicine)に則った画像フォーマットに統一された各種医用画像のデータを、インターフェース部19を介して外部装置6から取得することができる。例えば、装置本体10は、後述するインターフェース部19を介して、自装置で生成した超音波画像データの比較対象となるボリュームデータ(X線CTボリュームデータや、MRIボリュームデータ等)を、インターフェース部19を介して外部装置6から取得する。
 装置本体10は、超音波プローブ1が受信した反射波信号に基づいて超音波画像データを生成する装置である。例えば、本実施形態に係る装置本体10は、2次元の反射波データに基づいて2次元の超音波画像データを生成可能な装置である。また、例えば、本実施形態に係る装置本体10は、3次元の反射波データに基づいて3次元の超音波画像データを生成可能な装置である。以下、3次元の超音波画像データを「超音波ボリュームデータ」と記載する。
 装置本体10は、図1に示すように、送受信部11と、Bモード処理部12と、ドプラ処理部13と、画像生成部14と、画像メモリ15と、画像処理部16と、内部記憶部17と、制御部18と、インターフェース部19とを有する。
 送受信部11は、パルス発生器、送信遅延部、パルサ等を有し、超音波プローブ1に駆動信号を供給する。パルス発生器は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部は、超音波プローブ1から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器が発生する各レートパルスに対し与える。また、パルサは、レートパルスに基づくタイミングで、超音波プローブ1に駆動信号(駆動パルス)を印加する。すなわち、送信遅延部は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。
 なお、送受信部11は、後述する制御部18の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、又は、複数の電源ユニットを電気的に切り替える機構によって実現される。
 また、送受信部11は、プリアンプ、A/D(Analog/Digital)変換器、受信遅延部、加算器等を有し、超音波プローブ1が受信した反射波信号に対して各種処理を行って反射波データを生成する。プリアンプは、反射波信号をチャネル毎に増幅する。A/D変換器は、増幅された反射波信号をA/D変換する。受信遅延部は、受信指向性を決定するために必要な遅延時間を与える。加算器は、受信遅延部によって処理された反射波信号の加算処理を行なって反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。
 本実施形態に係る送受信部11は、被検体P内の2次元領域を走査する場合、超音波プローブ1から2次元領域を走査するための超音波ビームを送信させる。そして、本実施形態に係る送受信部11は、超音波プローブ1が受信した2次元の反射波信号から2次元の反射波データを生成する。また、本実施形態に係る送受信部11は、被検体P内の3次元領域を走査する場合、超音波プローブ1から3次元領域を走査するための超音波ビームを送信させる。そして、本実施形態に係る送受信部11は、超音波プローブ1が受信した3次元の反射波信号から3次元の反射波データを生成する。
 ここで、本実施形態に係る超音波診断装置は、超音波プローブ1が1次元超音波プローブであっても、上述した位置検出システムを用いて、3次元の反射波データを生成することが可能である。例えば、操作者は、超音波プローブ1を被検体Pの体表に当接させた状態で、超音波プローブ1の位置及び角度を変更して、複数断面を2次元走査することで、被検体Pを3次元走査する。これにより、送受信部11は、複数断面の2次元の反射波データを生成する。例えば、後述する制御部18は、位置検出システムから得られた超音波プローブ1の3次元位置情報から、複数断面の2次元の反射波データを3次元に配置することで、3次元の反射波データを再構成することができる。
 なお、送受信部11からの出力信号の形態は、RF(Radio Frequency)信号と呼ばれる位相情報が含まれる信号である場合や、包絡線検波処理後の振幅情報である場合等、種々の形態が選択可能である。
 Bモード処理部12は、送受信部11から反射波データを受信し、対数増幅、包絡線検波処理等を行なって、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。
 ドプラ処理部13は、送受信部11から受信した反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。本実施形態の移動体は、血管内を流動する血液である。
 なお、本実施形態に係るBモード処理部12及びドプラ処理部13は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。
 画像生成部14は、Bモード処理部12及びドプラ処理部13が生成したデータから超音波画像データを生成する。すなわち、画像生成部14は、Bモード処理部12が生成したBモードデータから反射波の強度を輝度にて表したBモード画像データを生成する。また、画像生成部14は、ドプラ処理部13が生成したドプラデータから移動体情報(血流情報や組織の移動情報)を表す平均速度画像データ、分散画像データ、パワー画像データ、又は、これらの組み合わせ画像としてのカラードプラ画像データを生成する。
 ここで、画像生成部14は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像生成部14は、超音波プローブ1による超音波の走査形態に応じて座標変換を行なうことで、表示用の超音波画像データを生成する。また、画像生成部14は、スキャンコンバート以外に種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行なう。また、画像生成部14は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。
 すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像生成部14が生成するデータは、スキャンコンバート処理後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。
 更に、画像生成部14は、Bモード処理部12が生成した1走査線上のBモードデータの時系列データから、Mモード画像データを生成することが可能である。また、画像生成部14は、ドプラ処理部13が生成したドプラデータから、血流の速度情報を時系列に沿ってプロットしたドプラ波形を生成することが可能である。
 更に、画像生成部14は、Bモード処理部12が生成した3次元のBモードデータに対して座標変換を行なうことで、3次元のBモード画像データを生成する。また、画像生成部14は、ドプラ処理部13が生成した3次元のドプラデータに対して座標変換を行なうことで、3次元のドプラ画像データを生成する。3次元Bモードデータ及び3次元ドプラデータは、スキャンコンバート処理前のボリュームデータとなる。すなわち、画像生成部14は、「3次元のBモード画像データや3次元のドプラ画像データ」を「超音波ボリュームデータ」として生成する。
 更に、画像生成部14は、超音波ボリュームデータをモニタ2にて表示するための各種の2次元画像データを生成するために、超音波ボリュームデータに対してレンダリング処理を行なう。画像生成部14が行なうレンダリング処理としては、断面再構成法(MPR:Multi Planer Reconstruction)を行なって超音波ボリュームデータからMPR画像データを生成する処理がある。また、画像生成部14が行なうレンダリング処理としては、超音波ボリュームデータに対して「Curved MPR」を行なう処理や、超音波ボリュームデータに対して「Maximum Intensity Projection」を行なう処理がある。また、画像生成部14が行なうレンダリング処理としては、3次元の情報を反映した2次元画像データを生成するボリュームレンダリング(VR:Volume Rendering)処理がある。
 更に、画像生成部14は、他の医用画像診断装置が収集したボリュームデータに対しても、上記の各種レンダリング処理を行なうことができる。かかるボリュームデータは、X線CT装置により収集された3次元のX線CT画像データ(X線CTボリュームデータ)や、MRI装置により収集された3次元のMRI画像データ(MRIボリュームデータ)である。一例として、画像生成部14は、後述する取得部161が取得した情報に基づいて、現時点で生成した2次元の超音波画像データの走査断面に対応する断面を用いたMPR処理により、X線CTボリュームデータから2次元のX線CT画像データを生成する。
 画像メモリ15は、画像生成部14が生成した表示用の画像データを記憶するメモリである。また、画像メモリ15は、Bモード処理部12やドプラ処理部13が生成したデータを記憶することも可能である。画像メモリ15が記憶するBモードデータやドプラデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像生成部14を経由して表示用の超音波画像データとなる。
 画像処理部16は、本実施形態において、ドプラ波形の収集を支援するために、装置本体10に設置される。画像処理部16は、図1に示すように、取得部161と、抽出部162と、算出部163と、ガイド画像生成部164とを有する。
 取得部161は、被検体P内の血管を含む3次元領域に対応するボリュームデータにおいて、断面画像データの断面位置に対応する位置情報である断面位置情報を取得する。すなわち、画像生成部14は、超音波プローブ1によって受信された反射波に基づき、被検体P内の2次元領域に対応する断面画像データを生成する。取得部161は、上記のボリュームデータにおいて、画像生成部14が生成した断面画像データの断面位置に対応する位置情報を取得する。例えば、本実施形態に係る取得部161は、3次元の医用画像データであるボリュームデータにおいて、超音波プローブ1の走査断面に対応する断面の位置を特定する対応関係を取得することで、断面位置情報を取得する。上記のボリュームデータは、超音波診断装置以外の他種の医用画像診断装置により撮影されたボリュームデータであり、例えば、X線CTボリュームデータである。
 取得部161により取得される対応関係は、従来、「同時表示機能」に用いられている。「同時表示機能」は、超音波プローブ1の移動により変更される走査断面の2次元超音波画像データと、当該2次元超音波画像データと位置合わせされたX線CTボリュームデータの2次元X線CT画像データとを、モニタ2の画面にリアルタイムで同時に表示する機能である。図2及び図3は、取得部を説明するための図である。
 取得部161は、図2に示すように、超音波プローブ1に取り付けた位置センサ4及びトランスミッター5で構成される位置検出システムから、超音波プローブ1の実空間における3次元位置情報(座標及び角度)を取得する。
 「同時表示機能」を行なう場合、超音波プローブ1の3軸(X、Y、Z)と、X線CTボリュームデータ100(図2を参照)の3軸との軸合わせが行われる。例えば、操作者は、位置センサ4が取り付けられた超音波プローブ1を、被検体Pに対して垂直に当接し、セットボタンを押下する。取得部161は、セットボタンが押下された時点で取得した超音波プローブ1の3次元位置情報から、実空間での垂直方向で定まる直行3軸をセットする。
 次に、操作者は、図2に示すように、X線CTボリュームデータ100のMPR画像データ101aに描出された特徴部分と同一の特徴部分が描出される超音波画像データ200が表示されるように、超音波プローブ1を移動させて、再度セットボタンを押下する。また、操作者は、MPR画像データ101aの特徴部分と、超音波画像データ200の特徴部分とを、例えば、マウスにより指定する。特徴部分としては、例えば、血管や、剣状突起などが用いられる。
 取得部161は、セットボタンが再度押下された時点で取得した超音波プローブ1の3次元位置情報と、X線CTボリュームデータ100における特徴部分の位置情報と、超音波画像データ200における特徴部分の位置情報とから、実空間における「任意の走査断面」の位置と、「任意の走査断面」の超音波走査で生成された超音波画像データにおける位置と、X線CTボリュームデータ100における「任意の走査断面」に対応する断面の位置との対応関係を取得する。
 かかる対応関係を用いて、例えば、制御部18は、X線CTボリュームデータ100で、走査断面に対応する断面を特定し、画像生成部14は、制御部18が特定した断面を用いてX線CTボリュームデータ100からMPR画像データを生成することができる。これにより、モニタ2は、移動された走査断面の超音波画像データ200Aと同一断面のMPR画像データ101Aとを同時に表示する。
 ここで、上記の対応関係は、「任意の走査断面」の超音波走査で生成された超音波画像データの座標を、X線CTボリュームデータ100の座標に変換することができる。また、上記の対応関係は、X線CTボリュームデータ100の任意の位置の座標を、超音波画像データの座標に変換することができる。
 図1に戻って、抽出部162は、ボリュームデータに含まれる血管領域を抽出する。例えば、抽出部162は、血液に対応するCT値を有するボクセルを抽出して、X線CTボリュームデータ100に含まれる血管領域を抽出する。なお、本実施形態は、ボリュームデータに含まれる血管領域を、操作者が血管の位置を手動で設定して抽出する場合であっても良い。
 本実施形態において、取得部161が取得した対応関係と、抽出部162が抽出する血管領域とを用いて、算出部163及びガイド画像生成部164が行なう処理については、後に詳述する。
 内部記憶部17は、超音波送受信、画像処理及び表示処理を行なうための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、内部記憶部17は、必要に応じて、画像メモリ15が記憶する画像データの保管等にも使用される。
 更に、内部記憶部17は、外部装置6から転送された各種医用画像の保管にも使用される。具体的には、内部記憶部17は、後述するインターフェース部19を経由して、外部装置6から転送されたDICOM規格のボリュームデータを記憶する。本実施形態では、内部記憶部17は、ドプラ波形が収集される被検体Pの血管を含むボリュームデータ(例えば、X線CTボリュームデータやMRIボリュームデータ)を記憶する。
 制御部18は、超音波診断装置の処理全体を制御する。具体的には、制御部18は、入力装置3を介して操作者から入力された各種設定要求や、内部記憶部17から読込んだ各種制御プログラム及び各種データに基づき、送受信部11、Bモード処理部12、ドプラ処理部13、画像生成部14、画像処理部16の処理を制御する。また、制御部18は、画像メモリ15や内部記憶部17が記憶する表示用の超音波画像データをモニタ2にて表示するように制御する。また、制御部18は、画像処理部16の処理結果をモニタ2にて表示するように制御する。
 インターフェース部19は、入力装置3、ネットワーク及び外部装置6に対するインターフェースである。入力装置3が受け付けた操作者からの各種設定情報及び各種指示は、インターフェース部19により、制御部18に転送される。また、入力装置3が操作者から受け付けた画像データの転送要求は、インターフェース部19により、ネットワークを介して外部装置6に通知される。また、外部装置6が転送した画像データは、インターフェース部19により、内部記憶部17に格納される。
 以上、本実施形態に係る超音波診断装置の全体構成について説明した。かかる構成のもと、本実施形態に係る超音波診断装置は、ドプラ情報に基づく血流速度情報を示すドプラ波形の収集を行なう。
 従来、ドプラ波形の収集を行なう場合、操作者は、Bモード、又は、カラードプラモードで、ドプラ波形の収集を行ないたい観察部位の血管が描出される走査断面を探索する。そして、操作者は、2次元超音波画像データ(2次元Bモード画像データ、又は、2次元カラードプラ画像データ)を参照して、ドプラ波形収集用の走査断面(血流情報収集用の走査断面)を決定する。以下では、血流速度情報の収集用に超音波プローブ1で走査される走査断面を「収集断面」と記載する。
 そして、操作者は、収集断面において、ドプラ波形の収集を行なう範囲を配置する。以下では、収集断面で、血流情報収集用に配置される範囲を「収集範囲」と記載する。PWモードでは、操作者は、収集断面の2次元超音波画像データに描出された血管の走行に合わせて、血管内の観察部位に収集範囲であるサンプリングゲートを配置する。PWモードでは、サンプリングゲート内の血流速度情報を示すドプラ波形が表示される。
 また、CWモードでは、操作者は、収集断面の2次元超音波画像データに描出された観察部位を含む血管を通るように、ライン状のサンプリングマーカを配置する。CWモードでは、サンプリングマーカと同一位置に設定された走査線上の全ての血流速度情報を示すドプラ波形が表示される。図4は、PWモードのドプラ波形収集で、従来行なわれている設定の一例を示す図である。
 図4の右図は、モニタ2に表示された収集断面のBモード画像データである。具体的には、図4の右図は、観察対象の血管が長軸断面で描出されている収集断面のBモード画像データである。操作者は、Bモード画像データにて血管の長軸断面内にサンプリングゲートを配置する(図4の右図に示す平行2重線を参照)。そして、操作者は、又は、制御部18は、サンプリングゲートを通過する走査線であり、収集断面内で走査可能な走査線の位置に、ラインマーカを配置する(図4の右図に示す点線を参照)。ここで、ドプラ情報で得られる血流速度情報は、血管の走行方向の血流速度情報ではなく、ラインマーカ上の走査線方向の血流速度情報である。ここで、血流方向(血管の走行方向)と、走査線方向との角度を「θ」とする。ドプラ処理部13は、ドプラ情報から得られた血流速度情報を「1/cosθ」で角度補正することで、血管の走行方向の血流速度情報を求める。
 操作者は、サンプリングゲート及びラインマーカを配置するとともに、角度補正を行なうための「θ」をドプラ処理部13に通知するために、血管の走行方向に平行となる角度マーカを、サンプリングゲート内に配置する(図4の右図の平行2重線を斜めに横切る2つの線分を参照)。なお、角度マーカの向きは、操作者により調整可能である。ドプラ処理部13は、ラインマーカと角度マーカとの角度から「θ」を求め、角度補正を行なう。
 サンプリングゲート及びラインマーカの位置情報は、ドプラ情報をサンプリングする収集範囲を定義する位置情報となる。また、角度補正用の情報である角度マーカの位置情報も、収集範囲を定義する位置情報として含めることができる。
 そして、操作者は、サンプリングゲート及びラインマーカの配置と、角度マーカの調整とが完了した後、PWモードでのドプラ波形の収集開始要求を、入力装置3を介して入力する。これにより、ドプラ波形の収集が開始され、モニタ2は、図4の左図に示すように、ドプラ波形を表示する。
 なお、CWモードでは、PWモードのラインマーカに対応するサンプリングマーカ及び角度マーカが配置される。CWモードでは、血管を通るサンプリングマーカの位置情報が、ドプラ情報をサンプリングする収集範囲を定義する位置情報となる。また、CWモードでは、角度補正用の情報である角度マーカの位置情報も、収集範囲を定義する位置情報として含めることができる。
 操作者は、ドプラ情報を得るために、2次元超音波画像データを参照しながら、超音波プローブ1の当接位置及び当接角度を最適な位置及び角度に調整して、収集範囲を配置する必要がある。ここで、超音波プローブ1の最適な当接位置及び最適な当接角度とは、例えば、「θ」が最小となる位置及び角度である。血管の走行方向と、走査線方向との角度「θ」が「0度」に近いほど、「1/cosθ」が「1」に近づき、血流速度情報の角度補正による誤差が少なくなる。一方、血管の走行方向と、走査線方向との角度「θ」が大きくなるほど、「1/cosθ」が小さくなり、血流速度情報の角度補正による誤差が大きくなる。
 しかし、操作者は、2次元超音波画像データを参照しても3次元空間における血管の走行を把握することが困難である。このため、操作者にとって、血管の走行方向と、走査線方向との角度ができるだけ小さくなるように収集範囲を配置することは、困難な操作となる。また、観察対象の血管が長軸断面で描出されていると操作者が判断した場合であっても、画像データが2次元であることから、参照している断面が実際には長軸断面からずれている場合がある。この場合、角度マーカは、血管の走行方向と平行とならないため、「θ」に誤差が生じ、血流速度情報を正確に求めることが出来ない。
 そこで、本実施形態では、最適な血流速度情報を表示するため操作者が行なう操作を容易にするために、算出部163及びガイド画像生成部164は、例えば、取得部161が対応関係を用いて取得した断面位置情報と、抽出部162が抽出する血管領域とを用いて、以下の処理を行なう。なお、以下では、PWモードで行なわれる処理を中心に説明する。なお、以下の処理が開始される前に、取得部161は、ボリュームデータ(例えば、X線CTボリュームデータ100)の対応関係を取得している。
 算出部163は、血流速度情報を収集する位置に対応するボリュームデータ(他種ボリュームデータ)における位置情報である収集位置情報を、当該ボリュームデータに含まれる血管の走行方向に基づいて算出する。ここで、血流速度情報を収集する位置は、血流速度情報の収集用に超音波プローブで走査される収集断面に配置される収集範囲である。算出部163は、収集断面と収集範囲とに対応するボリュームデータにおける位置情報を、収集位置情報として算出する。具体的には、算出部163は、収集される血流速度情報の誤差が許容範囲内となる収集範囲及び収集断面のボリュームデータ(他種ボリュームデータ)における位置情報を、当該ボリュームデータに含まれる血管の走行方向に基づいて算出する。すなわち、算出部163は、ドプラ波形を収集するための収集範囲と、収集範囲が配置される収集断面との位置情報である収集位置情報を、実空間ではなく、血管領域を抽出可能な他種ボリュームデータの仮想空間において算出する。
 そして、ガイド画像生成部164は、断面位置情報と収集位置情報とに基づいて、ガイド画像データを生成する。具体的には、ガイド画像生成部164は、対応関係及び収集位置情報を用いて、収集範囲が配置された収集断面が走査される位置まで超音波プローブ1を操作者が移動するためのガイド画像データを生成する。より具体的には、ガイド画像生成部164は、ボリュームデータ(他種ボリュームデータ)から生成された2次元画像データを用いる。この2次元画像データは、例えば、X線CTボリュームデータ100のVR画像データである。VR画像データは、画像生成部14が生成する場合であっても、ガイド画像生成部164が生成する場合であっても良い。そして、ガイド画像生成部164は、この2次元画像データに、超音波プローブ1の現時点での走査断面を示すマーカを断面位置情報に基づく位置に重畳し、収集範囲及び収集断面を示すマーカを収集位置情報に基づく位置に重畳する。これにより、ガイド画像生成部164は、ガイド画像データを生成する。ガイド画像データは、操作者が超音波プローブ1の移動操作を行なうための、ナビゲーション用の画像となる。
 まず、算出部163は、ボリュームデータにおいて、超音波プローブ1が走査可能な3次元走査範囲に対応する3次元範囲を取得する。ここで、3次元走査範囲は、操作者が被検体Pの体表に当接した超音波プローブ1を可能な範囲で移動させることで得られる。そして、算出部163は、3次元走査範囲と、取得部161が取得済みの対応関係とから、3次元範囲の位置を算出する。図5は、3次元範囲の取得処理の一例を示す図である。
 例えば、心臓の超音波走査は、肋間に超音波プローブ1を当接した状態で行なわれる。すなわち、超音波プローブ1は、必ずしも、任意の当接位置及び当接角度で観察部位を含む断面を走査することが出来ない。そこで、例えば、操作者は、被検体Pの体表に超音波プローブ1を当接した状態で、図5の左図に示すように、超音波プローブ1を走査可能な範囲で移動することで、3次元走査範囲を設定する。取得部161は、3次元走査範囲の実空間における位置情報を、位置センサ4から取得し、算出部163に通知する。そして、算出部163は、3次元走査範囲の実空間における位置情報と、断面位置情報(例えば、対応関係から取得される断面位置情報)とから、図5の右図に示すように、X線CTボリュームデータ100において、3次元走査範囲に対応する3次元範囲300の位置を算出する。3次元範囲300は、収集範囲及び収集断面をX線CTボリュームデータ100において、探索する範囲となる。3次元範囲300に限定することで、最適なドプラ波形を収集可能な収集範囲及び収集断面の位置情報算出処理に要する負荷は、軽減される。
 ただし、3次元範囲300の位置は、対応関係を用いずに算出される場合であっても良い。かかる場合、算出部163は、X線CTボリュームデータ100の被検体Pの体表が位置する情報を用いて、3次元範囲の位置を算出する。図6は、3次元範囲の取得処理の別の一例を示す図である。例えば、算出部163は、空気に対応するCT値を用いて、図6に示すように、X線CTボリュームデータ100における被検体Pの体表400の位置を算出する。体表400は、超音波プローブ1が当接可能な範囲である。例えば、算出部163は、体表400のX線CTボリュームデータ100における位置と、超音波プローブ1が2次元走査する断面の形状及び大きさとに基づいて、3次元範囲300の位置を算出する。
 なお、例えば、算出部163は、骨に対応するCT値を用いて、X線CTボリュームデータ100における被検体Pの骨領域の位置を算出し、骨領域の位置を更に用いて、3次元範囲300の位置を算出しても良い。或いは、算出部163は、操作者が指定した体表400の一部範囲の位置を更に用いて、3次元範囲300の位置を算出しても良い。
 操作者は、3次元走査範囲の走査を終えた後、超音波プローブ1が3次元走査範囲内の断面を走査している状態で、入力装置3を用いてナビゲーション開始要求を入力する。これにより、算出部163及びガイド画像生成部164は、以下に説明するナビゲーション処理を開始する。図7~図13は、算出部及びガイド画像生成部が行なうナビゲーション処理を説明するための図である。
 図7の右図は、現時点の走査断面の断面画像データとしてのBモード画像データである。また、図7の左図は、上述したX線CTボリュームデータ100から生成されたVR画像データ101である。算出部163は、現時点の走査断面の位置情報を取得部161から取得し、取得した位置情報と対応関係とを用いて、X線CTボリュームデータ100において現時点の走査断面に対応する断面(以下、対応走査断面と記載する)の位置を算出する。ガイド画像生成部164は、図7に示すように、VR画像データ101において、算出部163が算出した位置に対応走査断面に該当する枠500を重畳する。また、画像生成部14は、図7に示すように、現時点の走査断面のBモード画像データに、現時点の走査断面に対応する枠600を重畳させる。例えば、枠500及び枠600は、黄色の実線で描画される。なお、VR画像データ101には、血管が描出されている。
 そして、入力装置3は、ボリュームデータにおいて、操作者から観察部位の指定を受け付ける。例えば、操作者は、図8の左図に示すように、VR画像データ101の血管内にマウスのカーソルを移動して、クリックする。VR画像データ101は、3次元情報を有するX線CTボリュームデータ100から生成された画像であるため、算出部163は、操作者が観察部位として指定した位置の3次元位置を算出可能である。
 そこで、算出部163は、図9に示すように、VR画像データ101で指定された観察部位のX線CTボリュームデータ100における3次元位置を算出する。そして、抽出部162は、図9に示すように、観察部位の3次元位置に位置する血管領域501を、CT値を用いて抽出する。なお、本実施形態は、抽出部162が血管領域501から血管壁を抽出しても良い。また、本実施形態は、抽出部162が予めX線CTボリュームデータ100の血管領域(又は、血管壁)を全て抽出しておいても良い。
 そして、算出部163は、血管領域501を用いて観察部位における血管の走行方向を算出する。例えば、算出部163は、図9に示すように、観察部位における血管走行ベクトル502を算出する。図9では、血管走行ベクトル502を両矢印で示している。
 そして、算出部163は、血管の走行方向(血管走行ベクトル502)に沿う走査線の位置及び角度をX線CTボリュームデータ100において算出する。血管の走行方向(血管走行ベクトル502)に沿う走査線は、観察部位で収集される血流速度情報の誤差が最小となる最適走査線となる。観察部位で収集される血流速度情報の誤差が最小となる最適走査線の位置及び角度は、観察部位を通り、血管の走行方向と方向が一致する走査線の位置及び角度である。算出部163は、X線CTボリュームデータ100において最適走査線の位置及び角度を算出する。そして、算出部163は、算出した位置及び角度で定まる線を最適走査線に対応する最適ラインとして設定する。そして、算出部163は、最適ラインを用いて、収集範囲及び収集断面の位置情報(収集位置情報)を算出する。
 具体的には、算出部163は、図10に示すように、観察部位を通り血管走行ベクトル502に一致する線を、最適ライン503として配置する。換言すると、算出部163は、血管走行ベクトル502(血管領域を用いて算出した観察部位における血管の走行方向)に対して平行に、最適ライン503を配置する。最適ライン503と血管走行ベクトル502との角度は「0度」となり、仮に、最適ライン503に対応する走査線で収集される血流速度情報の誤差は、最小となる。換言すると、最適ライン503は、X線CTボリュームデータ100において、最適なラインマーカに対応するマーカとなる。そして、算出部163は、図10に示すように、最適ライン503に垂直に、観察部位を含む2重線504を配置する。2重線504は、X線CTボリュームデータ100において、最適なサンプリングゲートに対応するマーカとなる。最適ライン503及び2重線504は、PWモードにより観察部位のドプラ波形を収集するための最適収集範囲となる。
 そして、算出部163は、図10に示すように、観察部位を通り、かつ、観察部位における血管の走行方向に沿った走行ライン505を配置する。換言すると、算出部163は、2重線504に垂直に、走行ライン505を配置する。走行ライン505は、X線CTボリュームデータ100において、高精度に角度補正を行なえる最適な角度マーカに対応するマーカとなる。
 そして、算出部163は、収集範囲及び収集断面を探索するために、上述した3次元範囲300内で観察部位の位置を固定した状態で最適ライン503を移動する。なお、PWモードであることから、算出部163は、最適ライン503及び2重線504との相対的位置関係を維持した状態で、最適ライン503を移動する。また、算出部163は、走行ライン505については、移動を行なわない。
 そして、算出部163は、移動した最適ライン503を走査可能な走査断面であり、移動した最適ライン503と血管走行ベクトル502との角度が最小となる位置を探索する。算出部163は、上記の探索条件で探索を行なって、収集位置情報を算出する。これにより、算出部163は、図11に示すように、上記の探索条件を満たす「ライン506及び2重線507」の位置を、収集範囲の位置として算出する。また、算出部163は、図11に示すように、上記の探索条件を満たす「枠508」の位置を、収集断面の位置として算出する。これにより、算出部163は、収集位置情報を算出する。なお、図11に示すように、走行ライン505の位置は、保持されている。
 そして、ガイド画像生成部164は、図8の左図に示す「VR画像データ101及び枠500」に、「ライン506及び2重線507」、「枠508」及び「走行ライン505」それぞれを示すマーカを重畳して、ガイド画像データを生成する。すなわち、ガイド画像生成部164は、図12の左図に示すように、枠508を示す点線枠509を重畳し、ライン506を示す点線510を重畳し、2重線507を示す2重線511を重畳し、走行ライン505を示すライン512を角度補正用の角度マーカとして重畳する。なお、ガイド画像生成部164は、黄色の実線で示す枠500と差別化を行なうため、点線枠509を緑色で描画する。そして、ガイド画像データは、制御部18の制御により、モニタ2に表示される。
 すなわち、点線枠509は、収集断面を示すマーカとなる。また、点線510及び2重線511は、収集範囲を示すマーカとなる。操作者は、図12の左図に示すガイド画像データを参照して、超音波プローブ1の移動を開始する。超音波プローブ1が移動されると、図12の右図のBモード画像データが更新されるとともに、対応関係から得られる断面位置情報に基づいて、枠500の位置も移動する。操作者は、移動する枠500を参照して、枠500が点線枠509と一致するように、超音波プローブ1を移動する。
 更に、制御部18は、ガイド画像データとともに、収集断面が走査される位置まで超音波プローブ1を操作者が移動するために必要となる情報をモニタ2に表示させても良い。例えば、ガイド画像生成部164は、撮影部位に対応する3次元ボディーマークを内部記憶部17から取得する。そして、例えば、ガイド画像生成部164は、図13に示すように、3次元ボディーマーク上において、2つのプローブ模式図を配置する。ガイド画像生成部164は、一方のプローブ模式図を、ナビゲーション開始要求時の超音波プローブ1の位置に対応する位置に配置し、他方のプローブ模式図を、収集断面走査時の超音波プローブ1の位置に対応する位置に配置する。そして、例えば、ガイド画像生成部164は、図13に示すように、収集断面が走査される位置の操作として、平行移動を示す矢印と、回転移動を示す矢印とを配置する。そして、制御部18は、図13に示す画像データをモニタ2に表示させる。
 なお、ガイド画像生成部164は、枠500の位置に、Bモード画像データを重畳したガイド画像データを生成表示しても良い。また、本実施形態は、ガイド画像データに用いられるX線CTボリュームデータ100の2次元画像データが、MPR画像データであっても良い。かかる場合、操作者は、複数のMPR画像データを用いた複数のガイド画像データをサムネール表示させたり、動画表示させたりしても良い。また、本実施形態は、ガイド画像データを参照した操作者が、収集範囲及び収集断面の位置を調整しても良い。
 そして、制御部18は、収集断面が走査される位置まで操作者が超音波プローブ1を移動した場合、収集断面が走査されている旨を操作者に報知する情報を出力させる。また、収集断面が走査される位置まで操作者が超音波プローブ1を移動した場合、制御部18は、収集断面の超音波画像データに収集範囲を重畳表示させる。図14は、ナビゲーション完了時の表示形式を説明するための図である。
 超音波プローブ1による走査断面が、点線枠509に対応する位置となった場合、すなわち、枠500が点線枠509と重なった場合、ガイド画像生成部164は、図14に示すように、枠500を削除し、緑色の点線枠509を、緑色の実線の枠509’に変更する。これにより、操作者は、収集断面が走査されていることを認識できる。なお、同時に、ガイド画像生成部164又は画像生成部14は、図14に示すように、黄色の枠600を、緑色の枠600’に変更しても良い。これによっても、操作者は、収集断面が走査されていることを認識できる。
 また、枠500が点線枠509と重なった場合、ガイド画像生成部164又は画像生成部14は、図14に示すように、収集断面のBモード画像データに、「ガイド画像データにおける収集範囲のマーカである点線510及び2重線511」に対応する「ラインマーカ及びサンプリングゲート」を重畳する。更に、ガイド画像生成部164又は画像生成部14は、図14に示すように、「ガイド画像データにおける角度補正用のマーカであるライン512」に対応する「角度マーカ」を重畳する。なお、本実施形態は、収集断面のBモード画像データに重畳された「ラインマーカ及びサンプリングゲート」を、操作者が調整しても良い。かかる場合、ガイド画像データにおける各マーカの位置を連動して移動しても良い。
 そして、制御部18は、収集範囲での血流速度情報(ドプラ波形)の収集を開始させる。なお、ドプラ波形収集時には、ドプラ処理部13は、Bモード画像データに重畳された角度マーカとラインマーカとの角度を用いない。ドプラ処理部13は、走行ライン505とライン506との角度を角度補正用の「θ」として用いる。
 ドプラ波形の表示形式は、操作者により選択される場合であっても良いし、初期設定されている場合であっても良い。以下、図15~図18を用いて、本実施形態で実行可能なドプラ波形の表示形式について説明する。図15~図18は、本実施形態に係るドプラ波形の表示形式を説明するための図である。
 図15に示す表示形式は、図14に示すナビゲーション完了時の表示形式に更にドプラ波形を表示させるものである。図15では、モニタ2において、ガイド画像データと、Bモード画像データが並列表示され、ガイド画像データ及びBモード画像データの下に、ドプラ波形が表示される。
 図16に示す表示形式は、図15に示す表示形式と比較して、VR画像データ101を用いたガイド画像データの代わりに、収集断面を含む断面でX線CTボリュームデータ100を切断したMPR画像データに、収集断面に対応するマーカ、収集範囲に対応するマーカ及び角度マーカに対応するマーカを重畳した画像データを表示させるものである。
 図17に示す表示形式は、ガイド画像データの表示領域に、ドプラ波形を表示させて、ドプラ波形とBモード画像データとを並列表示させるものである。図18に示す表示形式は、図17の表示形式で表示されていたBモード画像データの一部に、カラードプラモードのカラードプラ画像データを重畳させるものである。なお、本実施形態は、更に、3次元ボディーマークを表示する表示形式が行なわれても良い。
 ここで、図18に示す表示形式では、Bモード画像データ上に操作者が関心領域(ROI:Region Of Interest)として設定したカラーROIにおいて、カラードプラ画像データが表示されている。ナビゲーションが完了した時点で超音波プローブ1が超音波走査をしている走査断面は、血管の長軸を通る長軸断面、又は、血管の長軸断面に近い断面となる。血管の長軸断面、又は、血管の長軸断面に近い断面は、当該血管の走行ラインを含んでいることから、速度、分散、パワー等の血流情報を高精度に算出できる断面となる。すなわち、図18に示す表示形式では、操作者は、最適な位置で収集されたドプラ波形とともに、最適な断面で収集されたカラードプラ画像データを参照することができる。
 このように、上述したナビゲーション機能は、操作者が観察部位を指定することで、ドプラ波形の収集に最適な断面であるとともに、血流情報を高精度に算出できるカラーROIを含む断面まで、操作者が超音波プローブ1を移動するための機能として用いることができる。更に、本実施形態で説明したナビゲーション機能は、操作者が観察部位を指定することで、高精度な血流情報が描出されるカラードプラ画像データを生成表示可能なカラーROIまで、操作者が超音波プローブ1を移動するための機能として用いることができる。
 なお、上記では、PWモードにおいて行なわれるナビゲーションについて説明した。一方、CWモードでナビゲーションが行なわれる場合、例えば、3次元範囲300内で、最適ライン503を移動して、図11に示すライン506を収集範囲とする点以外、上記の方法が適用可能である。
 次に、図19を用いて、本実施形態に係る超音波診断装置の処理について説明する。図19は、本実施形態に係る超音波診断装置の処理の一例を説明するためのフローチャートである。なお、図19では、PWモードを行なうための収集範囲及び収集断面の位置情報算出用の他種ボリュームデータの対応関係を取得した後の処理について説明する。
 図19に示すように、本実施形態に係る制御部18は、操作者からナビゲーション開始要求を受け付けたか否かを判定する(ステップS101)。ここで、ナビゲーション開始要求を受け付けない場合(ステップS101否定)、制御部18は、ナビゲーション開始要求を受け付けるまで待機する。
 一方、ナビゲーション開始要求を受け付けた場合(ステップS101肯定)、制御部18の指示に基づくガイド画像生成部164の処理により、ボリュームデータのVR画像データに、現時点の走査断面のマーカを重畳表示する(ステップS102、図7を参照)。そして、算出部163は、VR画像データにおいて、観察部位の指定を受け付けたか否かを判定する(ステップS103)。ここで、観察部位の指定を受け付けない場合(ステップS103否定)、算出部163は、観察部位の指定を受け付けるまで待機する。
 一方、観察部位の指定を受け付けた場合(ステップS103肯定)、算出部163は、指定された観察部位のボリュームデータにおける位置を算出し、観察部位における血管の走行方向を算出する(ステップS104、図9を参照)。そして、算出部163は、ボリュームデータにおける最適ラインの位置を算出する(ステップS105、図10を参照)。そして、算出部163は、最適ラインに2重線(サンプリングゲートに対応)及び走行ライン(角度マーカに対応)を配置する(ステップS106、図10を参照)。
 そして、算出部163は、走行ラインの位置は保持したまま、観察部位を中心に2重線及び最適ラインを3次元範囲内で移動して、移動した最適ラインを走査可能な走査断面であり、移動した最適ラインと血管走行方向との角度が最小となる収集範囲及び収集断面を探索する(ステップS107、図11を参照)。そして、算出部163は、探索した収集範囲及び収集断面の位置情報を算出する(ステップS108)。
 そして、ガイド画像生成部164は、対応関係と位置情報とを用いてガイド画像データを生成し、モニタ2は、ガイド画像データを表示する(ステップS109、図12を参照)。操作者は、ガイド画像データを参照して、超音波プローブ1の移動を開始する。
 そして、制御部18は、走査断面が収集断面と一致したか否かを判定する(ステップS110)。ここで、走査断面が収集断面と一致していない場合(ステップS110否定)、制御部18の制御により、新たな走査断面のガイド画像データの生成表示がステップS109で行なわれる。
 一方、制御部18は、走査断面が収集断面と一致した場合(ステップS110肯定)、制御部18は、収集断面が走査されている旨を通知する(ステップS111、図14を参照)。そして、制御部18は、収集断面の超音波画像データに、ラインマーカ、サンプリングゲート及び角度マーカを重畳表示させる(ステップS112)。
 そして、制御部18は、ドプラ波形の収集及び表示を開始させ(ステップS113)、ナビゲーション処理を終了する。
 上述してきたように、本実施形態では、血管領域を抽出可能なボリュームデータを用いて算出して観察部位の血管走行方向を用いて、3次元範囲内で最適な収集範囲及び収集断面の位置情報を算出し、ガイド画像データの生成表示を行なう。従って、本実施形態では、最適な血流速度情報を表示するため操作者が行なう操作を容易にすることができる。
 なお、上記の実施形態では、走査可能な3次元領域として設定された3次元走査範囲に対応するボリュームデータの3次元範囲内で、最適な探索条件により、1セットの収集範囲及び収集断面を探索する場合について説明した。しかし、収集断面は、あくまでも、ボリュームデータの仮想空間で探索された断面である。このため、操作者が実空間の収集断面を走査しようとしても、収集断面を走査できない場合や、実空間の収集断面を走査されても、Bモード画像データに骨等に起因する陰影が発生する場合がある。
 かかる場合に対応するため、本実施形態は、以下に説明する第1変形例を行なっても良い。第1変形例では、算出部163は、3次元範囲内で移動した最適ラインと観察部位における血管の走行方向との角度が所定値以下となる位置を探索する。例えば、所定値は、「60度」である。
 そして、算出部163は、候補収集範囲及び候補走査断面の候補セットを複数求めて、複数の候補位置情報を算出する。ここで、制御部18は、例えば、角度が小さい順に複数の候補位置情報の順位を決定する。図20A及び図20Bは、第1変形例を説明するための図である。
 例えば、制御部18は、図20Aに示すように、所定値「THθ=60度」である場合、「角度:45度」の候補位置情報を第1候補とし、「角度:48度」の候補位置情報を第2候補とし、「角度:50度」の候補位置情報を第3候補とする。
 そして、制御部18は、複数の候補位置情報の中で所定順位の候補位置情報に基づくガイド画像データの変更要求を操作者から受け付けた場合、所定順位の次の順位の候補位置情報に基づくガイド画像データを表示させる。例えば、第1候補の収集断面で適切なBモード画像が表示されなかった場合、操作者は、入力装置3が有する「Next」ボタンを押下する。かかる場合、制御部18は、第1候補の位置情報に基づくガイド画像データを表示させる。なお、制御部18は、候補の順位が下がったことを通知するため、第2候補のガイド画像データに重畳されるマーカの色を、第1候補のガイド画像データに重畳されるマーカの色から変更させても良い。
 ここで、制御部18は、角度の値を用いる方法以外の方法で、順位付けを行なっても良い。例えば、制御部18は、角度が最小となる候補位置情報を第1位とし、当該第1位の候補位置情報からの移動操作が少ない順に、残余の候補位置情報の順位を決定する。或いは、例えば、制御部18は、現時点での超音波プローブ1の位置からの移動操作が少ない順に複数の候補位置情報の順位を決定する。
 また、所定値を用いて1つの候補セットしか抽出されていない場合がある。かかる状態で、この候補セットの候補位置情報に基づくガイド画像データの変更要求を操作者から受け付けた場合、算出部163は、所定値を大きくした値以下となる候補セットの位置を再度探索する。例えば、図20Bに示すように、「THθ=60度」であり、「角度:45度」の第1候補しか探索されてない場合、算出部は、「THθ’=65度」に変更する。これにより、算出部163は、例えば、図20Bに示すように、「角度:61度」の位置情報が得られる候補収集範囲及び候補走査断面の候補セットを第2候補とする。そして、制御部18は、「角度:61度」の位置情報に基づくガイド画像データを表示させる。
 なお、本実施形態は、所定値を用いて候補セットが探索されなかった場合に、所定値を大きくした値以下となる候補セットの位置を再度探索しても良い。或いは、本実施形態は、所定値を用いて候補セットが探索されなかった場合は、観察部位を走査可能な新たな3次元走査範囲の設定を要求する旨を操作者に通知しても良い。
 また、上記の実施形態では、X線CTボリュームデータやMRIボリュームデータ等の他種ボリュームデータにおいて、画像生成部14が生成する断面画像データ(Bモード画像データ)の断面位置に対応する断面位置情報を、位置センサ4に基づいて得られた対応関係を用いて取得する場合について説明した。しかし、上記の実施形態は、取得部161が、相互相関法等、公知の位置合わせ技術を用いて、断面画像データが生成されるごとに、当該断面画像データのボリュームデータにおける断面位置情報を取得する場合であっても良い。また、上記の実施形態では、X線CTボリュームデータやMRIボリュームデータ等、血管領域を抽出可能な他種ボリュームデータを用いる場合について説明した。しかし、本実施形態は、超音波送受信により撮影され血流が存在する領域が抽出可能なボリュームデータが用いられる場合であっても良い。この第2変形例では、かかるボリュームデータは、カラーフローマッピング(CFM:Color Flow Mapping)法で3次元走査して得られるカラードプラボリュームデータや、パワーボリュームデータが用いられる。
 例えば、操作者は、図5の左図に示す3次元走査範囲を設定する際に、カラードプラモードで走査を行なう。例えば、制御部18は、取得部161が位置センサ4から取得した超音波プローブ1の3次元位置情報から、複数断面それぞれの2次元反射波データを3次元反射波データに再構成し、ドプラ処理部13に送信する。図21は、第2変形例を説明するための図である。
 これにより、画像生成部14は、例えば、図21に示すように、パワーボリュームデータ700を生成する。抽出部162は、パワー値に応じた輝度値が割り当てられたボクセルを抽出することで、図21に示すように、血流領域710を抽出する。血流領域710は、血管の走行方向を算出可能である。なお、第2変形例では、超音波プローブ1による走査断面の位置と、パワーボリュームデータ700の位置との対応関係は、位置センサ4から取得される超音波プローブ1の3次元位置情報のみで取得することができる。なお、パワーボリュームデータ700等の血管領域が抽出可能な超音波ボリュームデータは、メカニカル4Dプローブや、2Dプローブ等により、被検体P内の3次元領域を走査することで生成された超音波ボリュームデータであっても良い。
 また、画像処理部16が行なうナビゲーション処理は、Mモード撮影に適用可能である。例えば、Mモードは、走査線上の心臓弁や心筋の運動情報を得るために行なわれる。図22は、第3変形例を説明するための図である。例えば、第3変形例は、図22に示すように、Mモード用サンプリングラインを最適な位置及び角度で配置する場合に適用される。この第3変形例では、Mモード用サンプリングラインが最適な位置及び角度となる条件は、例えば、正常な心臓弁が移動する方向や、正常な心筋が移動する方向を、心臓ボリュームデータのVR画像データ上で、操作者が指定することで設定可能である。
 なお、上記の実施形態、第1変形例、第2変形例及び第3変形例において説明した各処理のうち、自動的に行なわれるものとして説明した処理の全部または一部を手動的に行なうこともでき、或いは、手動的に行なわれるものとして説明した処理の全部または一部を公知の方法で自動的に行なうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
 また、上記の説明で図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
 また、上記の実施形態、第1変形例、第2変形例及び第3変形例で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
 以上、説明したとおり、実施形態、第1変形例、第2変形例及び第3変形例によれば、最適な血流速度情報を表示するため操作者が行なう操作を容易にすることができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (17)

  1.  被検体内に超音波を送信し、前記超音波が前記被検体内で反射することで発生する反射波を受信する超音波プローブと、
     前記超音波プローブによって受信された前記反射波に基づき、前記被検体内の2次元領域に対応する断面画像データを生成する画像生成部と、
     前記被検体内の血管を含む3次元領域に対応するボリュームデータにおいて、前記断面画像データの断面位置に対応する位置情報である断面位置情報を取得する取得部と、
     血流速度情報を収集する位置に対応する前記ボリュームデータにおける位置情報である収集位置情報を、当該ボリュームデータに含まれる血管の走行方向に基づいて算出する算出部と、
     前記断面位置情報と前記収集位置情報とに基づいて、ガイド画像データを生成するガイド画像生成部と、
     前記ガイド画像データを表示部に表示させる制御部と、
     を備える、超音波診断装置。
  2.  前記血流速度情報を収集する位置は、前記血流速度情報の収集用に前記超音波プローブで走査される収集断面に配置される収集範囲であり、  
     前記算出部は、前記収集断面と前記収集範囲とに対応する前記ボリュームデータにおける位置情報を、前記収集位置情報として算出し、
     前記ガイド画像生成部は、前記収集範囲が配置された前記収集断面が走査される位置まで前記超音波プローブを操作者が移動するための画像データを、前記ガイド画像データとして生成する、請求項1に記載の超音波診断装置。
  3.  前記ガイド画像生成部は、前記ボリュームデータから生成された2次元画像データに、前記超音波プローブの現時点での走査断面を示すマーカを前記断面位置情報に基づく位置に重畳し、前記収集範囲及び前記収集断面を示すマーカを前記収集位置情報に基づく位置に重畳して、前記ガイド画像データを生成する、請求項2に記載の超音波診断装置。
  4.  前記ボリュームデータに含まれる血管領域を抽出する抽出部と、
     前記ボリュームデータにおいて、操作者から観察部位の指定を受け付ける入力部と、
     を更に備え、
     前記算出部は、前記血管領域を用いて算出した前記観察部位における血管の走行方向に沿う走査線の位置及び角度を前記ボリュームデータにおいて算出し、算出した位置及び角度で定まる最適ラインを用いて前記収集位置情報を算出する、請求項3に記載の超音波診断装置。
  5.  前記算出部は、
     前記ボリュームデータにおいて、前記超音波プローブが走査可能な3次元走査範囲に対応する3次元範囲を取得し、
     前記収集範囲及び前記収集断面を探索するために、前記3次元範囲内で前記観察部位の位置を固定した状態で前記最適ラインを移動し、
     当該移動した前記最適ラインを走査可能な走査断面であり、当該移動した前記最適ラインと前記観察部位における血管の走行方向との角度が最小となる位置を探索して、前記収集位置情報を算出する、請求項4に記載の超音波診断装置。
  6.  前記算出部は、前記観察部位を通り、かつ、前記観察部位における血管の走行方向に沿った走行ラインを前記収集断面に配置し、当該走行ラインの前記ボリュームデータにおける位置を算出し、
     前記ガイド画像生成部は、前記2次元画像データに、更に、前記走行ラインを示すラインを角度補正用の角度マーカとして重畳する、請求項5に記載の超音波診断装置。
  7.  前記3次元走査範囲は、前記操作者が被検体の体表に当接した前記超音波プローブを可能な範囲で移動させることで得られ、
     前記算出部は、前記3次元走査範囲と前記断面位置情報とから、前記3次元範囲の位置を算出する、請求項5に記載の超音波診断装置。
  8.  前記算出部は、前記ボリュームデータの被検体の体表が位置する情報を用いて、前記3次元範囲の位置を算出する、請求項5に記載の超音波診断装置。
  9.  前記算出部は、前記血管領域を用いて算出した前記観察部位における血管の走行方向に対して平行に、前記最適ラインを配置する、請求項4に記載の超音波診断装置。
  10. [規則91に基づく訂正 13.08.2014] 
     前記算出部は、前記3次元範囲内で移動した前記最適ラインと前記観察部位における血管の走行方向との角度が所定値以下となる位置を探索して、候補収集範囲及び候補走査断面の候補セットを複数求めて、複数の候補位置情報を算出し、
     前記制御部は、前記複数の候補位置情報の中で所定順位の候補位置情報に基づくガイド画像データの変更要求を前記操作者から受け付けた場合、前記所定順位の次の順位の候補位置情報に基づくガイド画像データを表示させる、請求項5に記載の超音波診断装置。
  11.  前記制御部は、前記角度が小さい順に前記複数の候補位置情報の順位を決定する、請求項10に記載の超音波診断装置。
  12.  前記算出部は、前記所定値を用いて1つの候補セットが抽出された状態で、該候補セットの候補位置情報に基づくガイド画像データの変更要求を前記操作者から受け付けた場合、前記所定値を大きくした値以下となる候補セットの位置を再度探索する、請求項10に記載の超音波診断装置。
  13.  前記制御部は、更に、前記収集断面が走査される位置まで前記超音波プローブを前記操作者が移動するために必要となる情報を前記表示部に表示させる、請求項2に記載の超音波診断装置。
  14.  前記制御部は、更に、前記収集断面が走査される位置まで前記操作者が前記超音波プローブを移動した場合、前記収集断面が走査されている旨を前記操作者に報知する情報を出力させる、請求項2に記載の超音波診断装置。
  15.  前記制御部は、前記収集断面が走査される位置まで前記操作者が前記超音波プローブを移動した場合、前記収集断面の超音波画像データに前記収集範囲を重畳表示させ、当該収集範囲での血流速度情報の収集を開始させる、請求項2に記載の超音波診断装置。
  16.  前記ボリュームデータは、超音波診断装置以外の他種の医用画像診断装置により撮影されたボリュームデータである、請求項1に記載の超音波診断装置。
  17.  前記ボリュームデータは、超音波送受信により撮影され血流が存在する領域が抽出可能なボリュームデータである、請求項1に記載の超音波診断装置。
PCT/JP2014/065799 2013-06-13 2014-06-13 超音波診断装置 WO2014200099A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/966,429 US20160095573A1 (en) 2013-06-13 2015-12-11 Ultrasonic diagnostic apparatus
US16/162,840 US20190046153A1 (en) 2013-06-13 2018-10-17 Ultrasonic diagnostic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013124987A JP6081299B2 (ja) 2013-06-13 2013-06-13 超音波診断装置
JP2013-124987 2013-06-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/966,429 Continuation US20160095573A1 (en) 2013-06-13 2015-12-11 Ultrasonic diagnostic apparatus

Publications (1)

Publication Number Publication Date
WO2014200099A1 true WO2014200099A1 (ja) 2014-12-18

Family

ID=52022384

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/065799 WO2014200099A1 (ja) 2013-06-13 2014-06-13 超音波診断装置

Country Status (3)

Country Link
US (2) US20160095573A1 (ja)
JP (1) JP6081299B2 (ja)
WO (1) WO2014200099A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6971544B2 (ja) * 2015-08-06 2021-11-24 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN107432753B (zh) * 2016-05-27 2022-04-19 通用电气公司 一种生成融合超声影像的方法、装置及超声机
US11055899B2 (en) * 2016-06-10 2021-07-06 Koninklijke Philips N.V. Systems and methods for generating B-mode images from 3D ultrasound data
JP7027029B2 (ja) * 2016-06-21 2022-03-01 キヤノンメディカルシステムズ株式会社 超音波診断装置および医用画像処理装置
EP3552554B1 (en) * 2016-12-06 2024-03-27 FUJIFILM Corporation Ultrasonic diagnosis apparatus and method for controlling ultrasonic diagnosis apparatus
JP6849420B2 (ja) * 2016-12-12 2021-03-24 キヤノンメディカルシステムズ株式会社 超音波診断装置及び医用画像処理装置
JP7023704B2 (ja) * 2017-01-10 2022-02-22 キヤノンメディカルシステムズ株式会社 超音波診断装置、画像処理装置及び画像処理プログラム
US20180192996A1 (en) * 2017-01-10 2018-07-12 Canon Medical Systems Corporation Ultrasonic diagnostic device, image processing device, and image processing method
JP7188954B2 (ja) * 2017-09-28 2022-12-13 キヤノンメディカルシステムズ株式会社 超音波診断装置、及び制御プログラム
US11191524B2 (en) * 2017-09-28 2021-12-07 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and non-transitory computer readable medium
JP7204424B2 (ja) * 2017-11-24 2023-01-16 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置
US11399801B2 (en) 2017-11-24 2022-08-02 Canon Medical Systems Corporation Medical diagnostic-imaging apparatus and medical-image processing apparatus
WO2019156975A1 (en) * 2018-02-07 2019-08-15 Atherosys, Inc. Apparatus and method to guide ultrasound acquisition of the peripheral arteries in the transverse plane
JP7239275B2 (ja) * 2018-04-27 2023-03-14 キヤノンメディカルシステムズ株式会社 超音波診断装置及び穿刺支援プログラム
JP7277105B2 (ja) * 2018-10-25 2023-05-18 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法、及び、医用画像処理プログラム
KR20200059910A (ko) * 2018-11-22 2020-05-29 삼성메디슨 주식회사 초음파 영상 장치 및 그 제어 방법
JP7280711B2 (ja) * 2019-02-26 2023-05-24 キヤノンメディカルシステムズ株式会社 超音波診断装置、医用画像処理装置、及び位置情報補正処理プログラム
JP7334486B2 (ja) * 2019-06-07 2023-08-29 コニカミノルタ株式会社 超音波診断装置、超音波診断装置の制御方法、及び、超音波診断装置の制御プログラム
US11486836B1 (en) * 2020-06-29 2022-11-01 The United States Of America As Represented By The Secretary Of The Navy Method and system for determining the location in 3D space of an object within an enclosed opaque container

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005095279A (ja) * 2003-09-24 2005-04-14 Aloka Co Ltd 超音波画像処理装置
JP2005124712A (ja) * 2003-10-22 2005-05-19 Aloka Co Ltd 超音波診断装置
JP2008220662A (ja) * 2007-03-13 2008-09-25 Toshiba Corp 超音波診断装置及びその制御プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5806521A (en) * 1996-03-26 1998-09-15 Sandia Corporation Composite ultrasound imaging apparatus and method
US5769079A (en) * 1996-10-22 1998-06-23 Acuson Corporation Method and apparatus for determining quantitative measures of flow parameters
US6464641B1 (en) * 1998-12-01 2002-10-15 Ge Medical Systems Global Technology Company Llc Method and apparatus for automatic vessel tracking in ultrasound imaging
JP4659950B2 (ja) * 1999-08-20 2011-03-30 株式会社東芝 超音波診断装置
US6801800B2 (en) * 1999-11-29 2004-10-05 Kabushiki Kaisha Toshiba MR imaging using ECG-prep scan
JP4515578B2 (ja) * 2000-01-17 2010-08-04 株式会社東芝 3次元超音波診断装置、3次元超音波診断像の表示方法及び記録媒体
US7252638B2 (en) * 2003-06-23 2007-08-07 Siemens Medical Solutions Usa, Inc. Method and system for simultaneously displaying relationships of measurements of features associated with a medical image
US7066888B2 (en) * 2003-10-29 2006-06-27 Allez Physionix Ltd Method and apparatus for determining an ultrasound fluid flow centerline
WO2006059668A1 (ja) * 2004-12-03 2006-06-08 Hitachi Medical Corporation 超音波装置、超音波撮像プログラム及び超音波撮像方法
JP4772418B2 (ja) * 2005-08-15 2011-09-14 株式会社東芝 超音波診断装置及びプログラム
JP4886432B2 (ja) * 2006-09-04 2012-02-29 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
JP5478814B2 (ja) * 2007-06-05 2014-04-23 株式会社東芝 超音波診断装置及び超音波による速度測定方法
JP2010201049A (ja) * 2009-03-05 2010-09-16 Aloka Co Ltd 超音波診断装置
US9204858B2 (en) * 2010-02-05 2015-12-08 Ultrasonix Medical Corporation Ultrasound pulse-wave doppler measurement of blood flow velocity and/or turbulence
US8622913B2 (en) * 2010-09-28 2014-01-07 General Electric Company Method and system for non-invasive monitoring of patient parameters

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005095279A (ja) * 2003-09-24 2005-04-14 Aloka Co Ltd 超音波画像処理装置
JP2005124712A (ja) * 2003-10-22 2005-05-19 Aloka Co Ltd 超音波診断装置
JP2008220662A (ja) * 2007-03-13 2008-09-25 Toshiba Corp 超音波診断装置及びその制御プログラム

Also Published As

Publication number Publication date
JP2015000132A (ja) 2015-01-05
JP6081299B2 (ja) 2017-02-15
US20190046153A1 (en) 2019-02-14
US20160095573A1 (en) 2016-04-07

Similar Documents

Publication Publication Date Title
JP6081299B2 (ja) 超音波診断装置
JP6274421B2 (ja) 超音波診断装置及びその制御プログラム
JP5230589B2 (ja) 超音波装置、超音波撮像プログラム及び超音波撮像方法
US11653897B2 (en) Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus
US9524551B2 (en) Ultrasound diagnosis apparatus and image processing method
US20170095226A1 (en) Ultrasonic diagnostic apparatus and medical image diagnostic apparatus
JP6873647B2 (ja) 超音波診断装置および超音波診断支援プログラム
WO2010125715A1 (ja) 画像診断装置、画像診断方法
JP6109556B2 (ja) 超音波診断装置及び画像処理プログラム
WO2014129425A1 (ja) 超音波診断装置及び医用画像処理装置
JP6382050B2 (ja) 医用画像診断装置、画像処理装置、画像処理方法及び画像処理プログラム
JP6125380B2 (ja) 超音波診断装置、医用画像処理装置及び画像処理プログラム
JP6720001B2 (ja) 超音波診断装置、及び医用画像処理装置
JP2018079070A (ja) 超音波診断装置、及び走査支援プログラム
JP6305773B2 (ja) 超音波診断装置、画像処理装置及びプログラム
JP6176818B2 (ja) 超音波診断装置及び座標変換プログラム
JP6334013B2 (ja) 超音波診断装置
JP7171228B2 (ja) 超音波診断装置及び医用情報処理プログラム
JP6419413B2 (ja) 超音波診断装置及び位置合わせプログラム
JP2014239841A (ja) 超音波診断装置、医用画像処理装置及び制御プログラム
JP7411109B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP2014036885A (ja) 画像診断装置、画像診断方法
JP2013236863A (ja) 超音波診断装置及び画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14810604

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14810604

Country of ref document: EP

Kind code of ref document: A1