WO2014129425A1 - 超音波診断装置及び医用画像処理装置 - Google Patents

超音波診断装置及び医用画像処理装置 Download PDF

Info

Publication number
WO2014129425A1
WO2014129425A1 PCT/JP2014/053657 JP2014053657W WO2014129425A1 WO 2014129425 A1 WO2014129425 A1 WO 2014129425A1 JP 2014053657 W JP2014053657 W JP 2014053657W WO 2014129425 A1 WO2014129425 A1 WO 2014129425A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
image
puncture needle
puncture
probe
Prior art date
Application number
PCT/JP2014/053657
Other languages
English (en)
French (fr)
Inventor
淙 姚
新一 橋本
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN201480008751.6A priority Critical patent/CN104994792B/zh
Publication of WO2014129425A1 publication Critical patent/WO2014129425A1/ja
Priority to US14/802,496 priority patent/US20150320391A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display

Definitions

  • Embodiments described herein relate generally to an ultrasonic diagnostic apparatus and a medical image processing apparatus.
  • an ultrasound diagnostic apparatus that transmits ultrasound from the body surface to the body and generates an ultrasound image based on the reflected wave has been widely used.
  • an ultrasonic diagnostic apparatus applies a small ultrasonic probe to the body surface as compared with other diagnostic devices, thereby generating an image of the inside of the body in substantially real time (slightly delayed by the image generation processing time).
  • the ultrasonic probe is used in contact with the body surface in various directions.
  • the problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus and a medical image processing apparatus capable of displaying an ultrasonic image intuitively and easily.
  • the ultrasonic diagnostic apparatus includes a generation unit, a detection unit, and a display control unit.
  • the generation unit generates an ultrasonic image based on the reflected wave received by the ultrasonic probe.
  • the detection unit detects the direction of the puncture needle inserted into the subject.
  • the display control unit changes the direction of the generated ultrasonic image according to the detected direction of the puncture needle.
  • FIG. 1 is a diagram for explaining the configuration of the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 2A is a diagram for explaining the relationship between the orientation of the display area and the orientation of the image.
  • FIG. 2B is a diagram for explaining the relationship between the orientation of the display area and the orientation of the image.
  • FIG. 3A is a diagram illustrating an example of an ultrasonic image displayed in a conventional ultrasonic diagnostic apparatus.
  • FIG. 3B is a diagram illustrating an example of an ultrasonic image displayed in a conventional ultrasonic diagnostic apparatus.
  • FIG. 4 is a diagram for explaining angle components extracted by the display control unit.
  • FIG. 5 is a diagram for explaining processing of the display control unit according to the first embodiment.
  • FIG. 6 is a diagram for explaining processing of the display control unit according to the first embodiment.
  • FIG. 7 is a diagram for explaining processing of the display control unit according to the first embodiment.
  • FIG. 8 is a flowchart showing a processing procedure of the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 9 is a diagram for explaining processing of the display control unit according to the second embodiment.
  • FIG. 10 is a diagram for explaining processing of the display control unit according to the third embodiment.
  • FIG. 11 is a diagram for explaining processing of the display control unit according to the fourth embodiment.
  • FIG. 12 is a diagram for explaining processing of the display control unit according to the fourth embodiment.
  • FIG. 13 is a diagram for explaining processing of the display control unit according to the fourth embodiment.
  • FIG. 14A is a diagram for explaining processing of the image generation unit and the display control unit according to the fifth embodiment.
  • FIG. 14B is a diagram for explaining processing of the image generation unit and the display control unit according to the fifth embodiment.
  • FIG. 15 is a diagram for explaining the configuration of the medical information system according to the sixth embodiment.
  • FIG. 1 is a diagram for explaining a configuration of an ultrasonic diagnostic apparatus 1 according to the first embodiment.
  • the ultrasonic diagnostic apparatus 1 according to the first embodiment includes an ultrasonic probe 11, a puncture needle 13, an input device 16, a monitor 17, and a device main body 100, and a network. It is connected to the.
  • the ultrasonic probe 11 has a plurality of piezoelectric vibrators, and the plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission / reception unit 110 included in the apparatus main body 100 to be described later. A reflected wave from the specimen P is received and converted into an electric signal.
  • the ultrasonic probe 11 includes a matching layer provided in the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like.
  • the transmitted ultrasonic waves are transmitted from the ultrasonic probe 11 to the subject P
  • the transmitted ultrasonic waves are reflected one after another at the discontinuous surface of the acoustic impedance in the body tissue of the subject P
  • the ultrasonic probe is used as a reflected wave signal.
  • 11 is received by a plurality of piezoelectric vibrators.
  • the amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected.
  • the reflected wave signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving object in the ultrasonic transmission direction due to the Doppler effect. , Subject to frequency shift.
  • the ultrasonic probe 11 which is a one-dimensional ultrasonic probe in which a plurality of piezoelectric vibrators are arranged in a row
  • the one-dimensional ultrasonic wave is used.
  • An ultrasonic probe 11 (mechanical 4D probe) that mechanically swings a plurality of piezoelectric vibrators of the probe or an ultrasonic probe 11 that is a two-dimensional ultrasonic probe in which a plurality of piezoelectric vibrators are two-dimensionally arranged in a lattice shape.
  • the present invention can be applied even when the subject P is scanned three-dimensionally by (2D array probe).
  • the puncture adapter 12 is an attachment attached to the ultrasonic probe 11 in order to puncture the ultrasonic probe 11 at a predetermined position and orientation.
  • the puncture adapter 12 has a groove (puncture guide rail) for attaching the puncture needle 13 to the ultrasonic probe 11 at a predetermined position and orientation.
  • the puncture guide rail is 30 degrees, 45 degrees with respect to the transmission direction of the ultrasonic beam from a position 5 cm from the transmission position of the ultrasonic beam on the scanning plane scanned by the ultrasonic probe 11. It is designed in advance so that the puncture needle 13 passes at an angle of 60 degrees.
  • the transmission position and transmission direction of the ultrasonic beam referred to here are the transmission position and transmission direction of a representative ultrasonic beam passing through the center of the scanning range, or the average transmission of the ultrasonic beam in each scanning line. Refers to location and average transmission direction.
  • the puncture adapter 12 may be configured to automatically detect the puncture guide rail to which the puncture needle 13 is attached and output the position and angle of the puncture needle 13 with respect to the ultrasonic probe 11 to the apparatus main body 100. good.
  • the puncture needle 13 is a medical instrument attached to the puncture adapter 12 in order to perform puncture such as biological tissue examination and radiofrequency ablation treatment.
  • the puncture needle 13 is inserted into the subject P at a predetermined position and angle with respect to the ultrasonic probe 11 by passing through any puncture guide rail of the puncture adapter 12.
  • the doctor inserts the puncture needle 13 attached to the puncture adapter 12 up to the region of interest (ROI: Region of Interest) of the subject P while referring to the ultrasonic image displayed on the monitor 17.
  • ROI Region of Interest
  • the probe sensor 14a, the puncture needle sensor 14b, and the transmitter 15 are devices for acquiring the orientation of the ultrasonic probe 11 and the orientation of the puncture needle 13 in real space.
  • the probe sensor 14a is a magnetic sensor installed on the ultrasonic probe 11, and detects the direction of the ultrasonic probe 11 in real space.
  • the puncture needle sensor 14b is a magnetic sensor installed on the puncture needle 13, and detects the direction of the puncture needle 13 in real space.
  • the transmitter 15 is a device that is arranged at an arbitrary position and forms a magnetic field toward the outside centering on the own device.
  • the probe sensor 14a and the puncture needle sensor 14b detect a three-dimensional magnetic field formed by the transmitter 15. Then, the probe sensor 14a and the puncture needle sensor 14b calculate the coordinates and angle of the device in the space with the transmitter 15 as the origin based on the detected magnetic field information, and the calculated coordinates and angle are displayed later. It transmits to the control part 171.
  • the probe sensor 14 a transmits the angle in the three-dimensional space where the device is located to the display control unit 171 as the direction of the ultrasonic probe 11.
  • the puncture needle sensor 14 b transmits the angle in the three-dimensional space where the device is located to the display control unit 171 as the direction of the puncture needle 13.
  • the probe sensor 14a and the puncture needle sensor 14b are not limited to magnetic sensors.
  • the probe sensor 14a and the puncture needle sensor 14b may be a gyroscope (gyro sensor) that detects the angle and angular velocity of an object. That is, in the first embodiment, a device that can detect the orientation of the ultrasonic probe 11 and the orientation of the puncture needle 13 can be arbitrarily applied as the probe sensor 14a and the puncture needle sensor 14b.
  • the ultrasonic diagnostic apparatus 1 may have at least one of the probe sensor 14a and the puncture needle sensor 14b. This is because the use of the puncture adapter 12 allows the puncture needle 13 to be attached to the ultrasonic probe 11 at a predetermined position and orientation, so that the orientation of the ultrasonic probe 11 and the orientation of the puncture needle 13 can be mutually converted. Because.
  • the input device 16 has a trackball, a switch, a button, a touch command screen, and the like, receives various instructions from the operator of the ultrasonic diagnostic apparatus 1, and transfers the received various instructions to the apparatus main body 100. For example, the input device 16 receives from the operator an instruction to insert the puncture needle 13 into the ultrasonic probe 11 at a predetermined position and angle (an instruction to select a puncture guide rail for performing puncture). The input device 16 stores the received position and angle of the puncture needle 13 with respect to the ultrasonic probe 11 in the internal storage unit 160.
  • the monitor 17 displays a GUI (Graphical User Interface) for an operator of the ultrasound diagnostic apparatus 1 to input various instructions using the input device 16, or superimposes ultrasound image data generated in the apparatus body 100. Or displayed as a sonic image.
  • GUI Graphic User Interface
  • the apparatus main body 100 is an apparatus that generates ultrasonic image data based on the reflected wave received by the ultrasonic probe 11.
  • the apparatus main body 100 shown in FIG. 1 can generate two-dimensional ultrasound image data based on a two-dimensional reflected wave signal, and can generate three-dimensional ultrasound image data based on a three-dimensional reflected wave signal. It is.
  • the apparatus main body 100 includes a transmission / reception unit 110, a B-mode processing unit 120, a Doppler processing unit 130, an image generation unit 140, an image memory 150, an internal storage unit 160, and a control unit 170. And an interface unit 180.
  • the transmission / reception unit 110 controls ultrasonic transmission / reception performed by the ultrasonic probe 11 based on an instruction from the control unit 170 described later.
  • the transmission / reception unit 110 includes a pulse generator, a transmission delay unit, a pulser, and the like, and supplies a drive signal to the ultrasonic probe 11.
  • the pulse generator repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency.
  • the transmission delay unit generates a delay time for each piezoelectric vibrator necessary for focusing the ultrasonic wave generated from the ultrasonic probe 11 into a beam and determining transmission directivity. Give for each rate pulse.
  • the pulser applies a drive signal (drive pulse) to the ultrasonic probe 11 at a timing based on the rate pulse.
  • the transmission delay unit arbitrarily adjusts the transmission direction of the ultrasonic wave transmitted from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.
  • the transmission / reception unit 110 includes a preamplifier, an A / D (Analog / Digital) converter, a reception delay unit, an adder, and the like.
  • the transmission / reception unit 110 performs various processing on the reflected wave signal received by the ultrasonic probe 11 and reflects it. Generate wave data.
  • the preamplifier amplifies the reflected wave signal for each channel.
  • the A / D converter A / D converts the amplified reflected wave signal.
  • the reception delay unit gives a delay time necessary for determining the reception directivity.
  • the adder performs an addition process of the reflected wave signal processed by the reception delay unit to generate reflected wave data. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized, and a comprehensive beam for ultrasonic transmission / reception is formed by the reception directivity and the transmission directivity.
  • the transmitter / receiver 110 transmits a two-dimensional ultrasonic beam from the ultrasonic probe 11 when the subject P is two-dimensionally scanned. Then, the transmission / reception unit 110 generates two-dimensional reflected wave data from the two-dimensional reflected wave signal received by the ultrasonic probe 11. Further, the transmitter / receiver 110 transmits a three-dimensional ultrasonic beam from the ultrasonic probe 11 when the subject P is three-dimensionally scanned. Then, the transmission / reception unit 110 generates three-dimensional reflected wave data from the three-dimensional reflected wave signal received by the ultrasonic probe 11.
  • the transmission / reception unit 110 controls transmission directivity and reception directivity in transmission / reception of ultrasonic waves.
  • the transmission / reception unit 110 has a function capable of instantaneously changing delay information, a transmission frequency, a transmission drive voltage, the number of aperture elements, and the like under the control of the control unit 170 described later.
  • the change of the transmission drive voltage is realized by a linear amplifier type oscillation circuit capable of instantaneously switching values or a mechanism for electrically switching a plurality of power supply units.
  • the transmission / reception unit 110 can transmit and receive different waveforms for each frame or rate.
  • the B-mode processing unit 120 and the Doppler processing unit 130 are signal processing units that perform various types of signal processing on the reflected wave data generated from the reflected wave signal by the transmission / reception unit 110.
  • the B mode processing unit 120 receives the reflected wave data from the transmission / reception unit 110, performs logarithmic amplification, envelope detection processing, and the like, and generates data (B mode data) in which the signal intensity is expressed by brightness.
  • the Doppler processing unit 130 performs frequency analysis on velocity information from the reflected wave data received from the transmission / reception unit 110, and extracts data (Doppler data) obtained by extracting moving body information such as velocity, dispersion, and power due to the Doppler effect at multiple points. Generate.
  • the moving body is, for example, a blood flow, a tissue such as a heart wall, or a contrast agent.
  • the B-mode processing unit 120 and the Doppler processing unit 130 illustrated in FIG. 1 can process both two-dimensional reflected wave data and three-dimensional reflected wave data.
  • the image generation unit 140 generates ultrasonic image data from the data generated by the B mode processing unit 120 and the Doppler processing unit 130. That is, the image generation unit 140 generates two-dimensional B-mode image data in which the intensity of the reflected wave is expressed by luminance from the two-dimensional B-mode data generated by the B-mode processing unit 120. Further, the image generation unit 140 generates two-dimensional Doppler image data representing moving body information from the two-dimensional Doppler data generated by the Doppler processing unit 130.
  • the two-dimensional Doppler image data is velocity image data, distributed image data, power image data, or image data obtained by combining these.
  • the image generation unit 140 generally converts (scan converts) a scanning line signal sequence of ultrasonic scanning into a scanning line signal sequence of a video format represented by a television or the like, and displays ultrasonic waves for display. Generate image data. Specifically, the image generation unit 140 generates ultrasonic image data for display by performing coordinate conversion in accordance with the ultrasonic scanning mode by the ultrasonic probe 11. In addition to the scan conversion, the image generation unit 140 may perform various image processing, such as image processing (smoothing processing) for regenerating an average luminance image using a plurality of image frames after scan conversion, Image processing (edge enhancement processing) using a differential filter is performed in the image. Further, the image generation unit 140 synthesizes incidental information (character information of various parameters, scales, body marks, etc.) with the ultrasonic image data.
  • image processing smoothing processing
  • Image processing edge enhancement processing
  • the B mode data and the Doppler data are ultrasonic image data before the scan conversion process
  • the data generated by the image generation unit 140 is display ultrasonic image data after the scan conversion process.
  • the B-mode data and Doppler data are also called raw data.
  • the image generation unit 140 obtains “two-dimensional B mode” that is two-dimensional ultrasonic image data for display from “two-dimensional B-mode data and two-dimensional Doppler data” that is two-dimensional ultrasonic image data before scan conversion processing. Image data and 2D Doppler image data "are generated.
  • the image generation unit 140 generates three-dimensional B-mode image data by performing coordinate conversion on the three-dimensional B-mode data generated by the B-mode processing unit 120. Further, the image generation unit 140 generates three-dimensional Doppler image data by performing coordinate conversion on the three-dimensional Doppler data generated by the Doppler processing unit 130. The image generation unit 140 generates “3D B-mode image data or 3D Doppler image data” as “3D ultrasound image data (volume data)”.
  • the image generation unit 140 performs a rendering process on the volume data in order to generate various two-dimensional image data for displaying the volume data on the monitor 17.
  • the rendering process performed by the image generation unit 140 includes, for example, a process of generating MPR image data from volume data by performing a cross-section reconstruction method (MPR: Multi Planer Reconstruction).
  • MPR Multi Planer Reconstruction
  • the rendering processing performed by the image generation unit 140 includes, for example, volume rendering (VR) processing that generates two-dimensional image data reflecting three-dimensional information.
  • the image generation unit 140 generates image data for displaying the puncture guidelines. For example, when the puncture adapter 12 is attached to the ultrasonic probe 11, the image generation unit 140 acquires the position and orientation of the puncture needle 13 relative to the ultrasonic probe 11 from the internal storage unit 160 described later. Specifically, the image generation unit 140 inserts the puncture needle 13 at an angle of 45 degrees with respect to the transmission direction of the ultrasonic beam from a position 5 cm from the transmission position of the ultrasonic beam on the scanning plane. To get. Then, the image generation unit 140 generates image data for displaying the puncture guideline at the position and orientation corresponding to the scanning range, using the acquired position and orientation. Then, the image generation unit 140 generates ultrasonic image data in which the generated puncture guideline is superimposed on the scanning range.
  • the image memory 150 stores image data such as a contrast image and a tissue image generated by the image generation unit 140. Further, the image memory 150 stores a processing result by the image generation unit 140. Further, the image memory 150 stores an output signal immediately after passing through the transmission / reception unit 110, an image luminance signal, various raw data, image data acquired via a network, and the like as necessary.
  • the data format of the image data stored in the image memory 150 is generated by the B-mode processing unit 120 and the Doppler processing unit 130 even if it is a data format after video format conversion displayed on the monitor 17 by the control unit 170 described later. Alternatively, the data format before coordinate conversion may be Raw data.
  • the internal storage unit 160 stores a control program for performing ultrasonic transmission / reception, image processing, and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), various data such as a diagnostic protocol and various body marks. To do.
  • the internal storage unit 160 is also used for storing images stored in the image memory 150 as necessary. Note that data stored in the internal storage unit 160 can be transferred to an external peripheral device via an interface unit 180 described later.
  • the internal storage unit 160 stores the position and orientation of the puncture needle 13 inserted into the subject P from the puncture adapter 12 attached to the ultrasonic probe 11. For example, the internal storage unit 160 stores that the puncture needle 13 is inserted at an angle of 45 degrees with respect to the transmission direction of the ultrasonic beam from a position 5 cm from the transmission position of the ultrasonic beam on the scanning plane. .
  • the internal storage unit 160 stores the display size of the monitor 17.
  • the control unit 170 controls the entire processing in the ultrasonic diagnostic apparatus 1. Specifically, the control unit 170 is based on various instructions input from the operator via the input device 16, various control programs read from the internal storage unit 160, and various setting information. The processing of the processing unit 120, the Doppler processing unit 130, and the image generation unit 140 is controlled, and the ultrasonic image data stored in the image memory 150 is controlled to be displayed on the monitor 17.
  • the interface unit 180 is an interface that controls exchange of various types of information between the input device 16 or the network and the device main body 100.
  • the ultrasonic diagnostic apparatus 1 according to the first embodiment is configured to be able to display an ultrasonic image intuitively and easily by a process described in detail below. Yes.
  • the ultrasonic image generated in the conventional ultrasonic diagnostic apparatus is displayed so that the transmission direction of the ultrasonic beam transmitted from the ultrasonic probe corresponds to the downward direction of the monitor, for example.
  • the gravitational direction in the image is not always displayed so as to correspond to the lower direction of the display area, and the displayed image is difficult for the viewer to understand intuitively.
  • the direction of gravity represents the direction in which the earth's gravity works.
  • 2A and 2B are diagrams for explaining the relationship between the orientation of the display area and the orientation of the image.
  • 2A and 2B illustrate a case where an image of a person who is playing golf is displayed in the display area of the display device 20.
  • the horizontal direction of the display area is a positive direction in the right direction
  • the vertical direction of the display area is a positive direction in the downward direction.
  • the display device 20 displays an image of a person who is playing golf intuitively and easily for the viewer. be able to.
  • the display device 20 displays the image of the person who is playing golf intuitively to the viewer. Cannot be displayed in an easy-to-understand manner.
  • 3A and 3B are diagrams illustrating an example of an ultrasonic image displayed in a conventional ultrasonic diagnostic apparatus.
  • 3A and 3B illustrate a case where a tomographic image of the abdomen of the subject P is displayed on the monitor of the conventional ultrasonic diagnostic apparatus 22 as an example.
  • the left diagram is an example of the positional relationship between the cross section of the abdomen of the subject P lying on the examination table and the direction of the ultrasonic probe 23 that contacts the abdomen.
  • the right diagram illustrates a case where an ultrasonic image obtained with the positional relationship illustrated in the left diagram is displayed in the display area of the monitor.
  • the horizontal direction of the display area is a positive direction in the right direction
  • the vertical direction of the display area is a positive direction in the downward direction.
  • the conventional ultrasonic diagnostic apparatus 22 when an ultrasound image is generated with the ultrasound probe 23 in contact with the abdomen of the subject P from directly above, an ultrasound beam that scans the scanning range 24.
  • the transmission direction corresponds to the gravity direction 21 in real space.
  • the conventional ultrasonic diagnostic apparatus 22 generates the ultrasonic image generated by matching the transmission direction of the ultrasonic beam that scans the scanning range 24 with the vertical direction of the display area. Is displayed.
  • the gravity direction 21 in the ultrasonic image coincides with the vertical direction of the display area. That is, since the orientation of the tomographic image of the subject P displayed in the scanning range 24 matches the orientation of the subject P in the real space, the ultrasonic image in FIG. 3A is intuitively easy for the viewer to understand. It is displayed.
  • the conventional ultrasonic diagnostic apparatus 22 when an ultrasound image is generated in a state where the ultrasound probe 23 is in contact with the abdomen of the subject P at an angle of 30 degrees, the scanning range 24 is scanned.
  • the ultrasonic beam transmission direction 25 does not coincide with the gravity direction 21 in the real space and is inclined by 30 degrees.
  • the conventional ultrasonic diagnostic apparatus 22 generates ultrasonic waves by matching the transmission direction 25 of the ultrasonic beam that scans the scanning range 24 with the vertical direction of the display area. Display an image.
  • the gravity direction 21 in the ultrasonic image does not coincide with the vertical direction of the display area, and is inclined by 30 degrees. That is, since the orientation of the tomographic image of the subject P displayed in the scanning range 24 is different from the orientation of the subject P in the real space, the ultrasonic image in FIG. 3B may give the viewer a sense of discomfort. is there.
  • the conventional ultrasonic diagnostic apparatus 22 displays the ultrasonic image by changing the direction of gravity in the ultrasonic image depending on the orientation of the ultrasonic probe 23, the ultrasonic image cannot always be displayed intuitively and easily. Furthermore, in the conventional ultrasonic diagnostic apparatus 22, the transmission direction 25 of the ultrasonic beam changes to various angles each time the ultrasonic probe 23 is moved by the operator, so the orientation of the tomographic image of the subject P In some cases, it was rotated at various angles.
  • the ultrasonic diagnostic apparatus 1 executes processing of the display control unit 171 described below in order to display an ultrasonic image intuitively and easily.
  • the display control unit 171 changes the direction of the generated ultrasonic image according to the detected direction of the ultrasonic probe 11 or the direction of the puncture needle 13 and displays it. For example, the display control unit 171 receives the orientation of the ultrasonic probe 11 from the probe sensor 14a. Alternatively, the display control unit 171 receives the direction of the puncture needle 13 from the puncture needle sensor 14b. Then, the display control unit 171 extracts an angle component corresponding to the left-right direction of the ultrasonic probe 11 from the received direction of the ultrasonic probe 11 or the direction of the puncture needle 13. Then, the display control unit 171 tilts and displays the scanning range 24 of the ultrasonic image generated by the image generation unit 140 using the extracted angle component.
  • FIG. 4 is a diagram for explaining the angle components extracted by the display control unit 171.
  • FIG. 4 illustrates angle components of the ultrasonic probe 11 that can be detected by the probe sensor 14a or the puncture needle sensor 14b.
  • the transmission direction 25 of the ultrasonic beam transmitted from the ultrasonic probe 11 is taken as the z axis.
  • An arbitrary point passing through the z axis inside the ultrasonic probe 11 is defined as an origin O.
  • a direction passing through the origin O and orthogonal to the scanning range 24 of the ultrasonic probe 11 is defined as a y-axis, and a direction orthogonal to the y-axis and the z-axis is defined as an x-axis.
  • an angle around the x axis is a pitch angle
  • an angle around the y axis is a roll angle
  • an angle around the z axis is a yaw angle.
  • the probe sensor 14 a detects the pitch angle, the roll angle, and the yaw angle with respect to the gravity direction 21, and transmits the detected angles to the display control unit 171 as the direction of the ultrasonic probe 11.
  • the display control unit 171 receives the pitch angle, the roll angle, and the yaw angle with respect to the gravity direction 21 as the directions of the ultrasonic probe 11. Then, the display control unit 171 extracts the roll angle in the received direction of the ultrasonic probe 11 as an angle component corresponding to the left-right direction of the ultrasonic probe 11.
  • the transmission direction 25 of the ultrasonic beam is rotated in the direction of the arrow 26 on the scanning plane as a positive direction, and the rotation angle in the direction of the arrow 27 is a negative direction.
  • the embodiment is not limited thereto.
  • only the roll angle among the angles detected by the probe sensor 14a may be transmitted to the display control unit 171.
  • FIGS. 5 to 7 are diagrams for explaining processing of the display control unit 171 according to the first embodiment.
  • the left diagram is an example of the positional relationship between the cross section of the abdomen of the subject P lying on the examination table and the direction of the ultrasonic probe 11 that contacts the abdomen.
  • the right diagram illustrates a case where an ultrasonic image obtained with the positional relationship illustrated in the left diagram is displayed in the display area of the monitor.
  • the horizontal direction of the display area is the right direction as the positive direction
  • the vertical direction of the display area is the downward direction as the positive direction.
  • the display control unit 171 displays the scanning range 24 of the ultrasonic image in an inclined manner according to the direction of the ultrasonic probe 11
  • FIG. 5 an example is illustrated in which an ultrasound image is generated in a state where the ultrasound probe 11 is in contact with the abdomen of the subject P at a roll angle “+30 degrees”.
  • the display control unit 171 extracts the roll angle “+30 degrees” as the direction of the ultrasonic probe 11.
  • the display control unit 171 displays the ultrasonic image scanning range 24 on the monitor 17 with the roll angle “+30 degrees” tilted. Specifically, the display control unit 171 monitors the generated ultrasonic image by tilting the transmission direction 25 of the ultrasonic beam that scans the scanning range 24 with the roll angle “+30 degrees” with respect to the vertical direction of the display area. 17 is displayed. More specifically, the display control unit 171 performs coordinate conversion on each pixel position included in the ultrasonic image data generated by the image generation unit 140, thereby counterclockwise 30 toward the display area of the monitor 17. And the ultrasonic image is displayed on the monitor 17. As a result, the gravity direction 21 in the ultrasonic image coincides with the vertical direction of the display area. That is, since the orientation of the tomographic image of the subject P displayed in the scanning range 24 matches the orientation of the subject P in the real space (see FIG. 3A), the ultrasonic image of FIG. It is displayed intuitively and clearly.
  • the display controller 171 tilts and displays an ultrasonic image on which the puncture guideline 28 is superimposed according to the direction of the ultrasonic probe 11 will be described with reference to FIG.
  • the ultrasonic probe 11 is brought into contact with the abdomen of the subject P with a roll angle “+30 degrees”, and the puncture needle 13 is in contact with the ultrasonic probe 11 with a roll angle “ ⁇ 45”.
  • generated in the state attached with "degree” is illustrated.
  • the display control unit 171 extracts the roll angle “+30 degrees” as the direction of the ultrasonic probe 11.
  • the display control unit 171 causes the monitor 17 to display the scanning range 24 of the ultrasonic image on which the puncture guideline 28 is superimposed with the roll angle “+30 degrees” tilted. Specifically, the display control unit 171 tilts the transmission direction 25 of the ultrasonic beam that scans the scanning range 24 with the roll angle “+30 degrees” with respect to the vertical direction of the display area, and the puncture guideline 28 is superimposed. An ultrasonic image is displayed on the monitor 17. More specifically, the display control unit 171 coordinates 30 degrees counterclockwise toward the display area of the monitor 17 by converting the coordinates of each pixel position included in the ultrasound image data on which the puncture guideline 28 is superimposed.
  • the monitor 17 is rotated to display an ultrasonic image on which the puncture guideline 28 is superimposed.
  • the gravity direction 21 in the ultrasonic image coincides with the vertical direction of the display area. That is, the direction of the tomographic image of the subject P displayed in the scanning range 24 matches the direction of the subject P in the real space (see FIG. 3A), and the direction of the puncture guideline 28 is also the direction of the puncture needle 13 in the real space. Since it coincides with the insertion angle, the ultrasonic image of FIG. 6 is displayed intuitively and easily for the viewer.
  • the display control unit 171 displays the ultrasonic image scanning range 24 in an inclined manner in accordance with the direction of the puncture needle 13
  • the ultrasonic probe 11 is brought into contact with the abdomen of the subject P with a roll angle “+30 degrees”
  • the puncture needle 13 is in contact with the ultrasonic probe 11 with a roll angle “ ⁇ 45”.
  • generated in the state attached with "degree” is illustrated. That is, in this state, the puncture needle 13 is inserted into the abdomen of the subject P at a roll angle “ ⁇ 15 degrees” with respect to the gravity direction 21.
  • the display control unit 171 receives the direction of the puncture needle 13 from the puncture needle sensor 14b.
  • the display control unit 171 receives from the puncture needle sensor 14 b that the puncture needle 13 is inserted at a roll angle “ ⁇ 15 degrees” with respect to the gravity direction 21 as the direction of the puncture needle 13. Then, the display control unit 171 extracts the roll angle “ ⁇ 15 degrees” from the received direction of the puncture needle 13.
  • the display control unit 171 receives from the input device 16 that the puncture needle 13 is inserted into the ultrasonic probe 11 at a roll angle of “ ⁇ 45 degrees”.
  • the input device 16 has already received an instruction from the operator to insert the puncture needle 13 into the ultrasonic probe 11 at a roll angle of “ ⁇ 45 degrees”. Then, the display control unit 171 subtracts the roll angle “ ⁇ 45 degrees” of the puncture needle 13 relative to the ultrasonic probe 11 from the roll angle “ ⁇ 15 degrees” of the puncture needle 13 relative to the gravity direction 21, thereby The roll angle “+30 degrees” of the ultrasonic probe 11 is calculated.
  • the display control unit 171 causes the monitor 17 to display the scanning range 24 of the ultrasonic image on which the puncture guideline 28 is superimposed with the roll angle “+30 degrees” tilted. Specifically, the display control unit 171 tilts the transmission direction 25 of the ultrasonic beam that scans the scanning range 24 with the roll angle “+30 degrees” with respect to the vertical direction of the display area, and the puncture guideline 28 is superimposed. An ultrasonic image is displayed on the monitor 17. More specifically, the display control unit 171 coordinates 30 degrees counterclockwise toward the display area of the monitor 17 by converting the coordinates of each pixel position included in the ultrasound image data on which the puncture guideline 28 is superimposed.
  • the monitor 17 is rotated to display an ultrasonic image on which the puncture guideline 28 is superimposed.
  • the gravity direction 21 in the ultrasonic image coincides with the vertical direction of the display area. That is, the direction of the tomographic image of the subject P displayed in the scanning range 24 matches the direction of the subject P in the real space (see FIG. 3A), and the direction of the puncture guideline 28 is also the direction of the puncture needle 13 in the real space. Since it matches the insertion angle, the ultrasonic image of FIG. 7 is displayed intuitively and easily for the viewer.
  • the display control unit 171 extracts the angle component corresponding to the left-right direction of the ultrasonic probe 11 from the direction of the ultrasonic probe 11 or the direction of the puncture needle 13, and uses the extracted angle component to generate ultrasonic waves.
  • the image scanning range 24 is tilted and displayed.
  • FIG. 8 is a flowchart showing a processing procedure of the ultrasonic diagnostic apparatus 1 according to the first embodiment.
  • the image generation unit 140 generates ultrasonic image data (step S101).
  • the probe sensor 14a or the puncture needle sensor 14b detects the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 (step S102).
  • the display control unit 171 changes the direction of the ultrasonic image according to the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 (step S103).
  • the ultrasonic diagnostic apparatus 1 As described above, the ultrasonic diagnostic apparatus 1 according to the first embodiment generates an ultrasonic image based on the reflected wave received by the ultrasonic probe.
  • the ultrasonic diagnostic apparatus 1 detects the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 in real space. Then, the ultrasonic diagnostic apparatus 1 displays the generated ultrasonic image by changing the direction according to the direction of the ultrasonic probe 11 or the direction of the puncture needle 13. For this reason, the ultrasonic diagnostic apparatus 1 can display an ultrasonic image intuitively and easily.
  • the ultrasonic diagnostic apparatus 1 displays the ultrasonic image with the roll angle corresponding to the movement being inclined. For this reason, the ultrasound diagnostic apparatus 1 matches the orientation of the tomographic image of the subject P displayed in the scanning range 24 with the orientation of the subject P in the real space, regardless of the orientation of the ultrasound probe 11. Since it is displayed, it can be displayed intuitively and easily for the viewer.
  • the ultrasonic diagnostic apparatus 1 does not necessarily have to have all the configurations shown in FIG. Specifically, in the case where the ultrasonic diagnostic apparatus 1 realizes a process of tilting and displaying the scanning range 24 of the ultrasonic image according to the direction of the ultrasonic probe 11 (the process of FIG. 5), the puncture adapter 12 The puncture needle 13 and the puncture needle sensor 14b may not be provided. Further, the ultrasonic diagnostic apparatus 1 does not have the puncture needle sensor 14b when the process of displaying the ultrasonic image with the puncture guideline 28 superimposed thereon is tilted (the process of FIG. 6). good. In addition, the ultrasonic diagnostic apparatus 1 includes a probe sensor 14a when the process of displaying the ultrasonic image scanning range 24 in an inclined manner according to the direction of the puncture needle 13 (the process of FIG. 6). It does not have to be.
  • the ultrasound diagnostic apparatus 1 can change the orientation of the ultrasound image when performing puncture without using the puncture adapter 12, that is, when performing free puncture. Therefore, in the second embodiment, a process of changing the orientation of the ultrasound image when the ultrasound diagnostic apparatus 1 performs free puncture will be described.
  • the configuration of the ultrasonic diagnostic apparatus 1 according to the second embodiment is basically the same as the configuration of the ultrasonic diagnostic apparatus 1 described in FIG. 1, but both the probe sensor 14a and the puncture needle sensor 14b are provided. This is different from some of the processes performed by the image generation unit 140 and the display control unit 171. Therefore, in the second embodiment, only differences from the first embodiment will be described, and description of similar points will be omitted.
  • the image generation unit 140 according to the second embodiment has the same function as that described in the first embodiment. Furthermore, the image generation unit 140 according to the second embodiment uses the position and orientation of the ultrasonic probe 11 and the position and orientation of the puncture needle 13 to superimpose the puncture guideline 28 that represents the puncture route of the puncture needle 13. An ultrasonic image superimposed on the scanning range of the acoustic probe 11 is generated.
  • the image generation unit 140 acquires the position and orientation of the ultrasonic probe 11 from the probe sensor 14a, and acquires the position and orientation of the puncture needle 13 from the puncture needle sensor 14b. Then, the image generation unit 140 generates image data for displaying the puncture guideline 28 by projecting the position of the puncture needle 13 on the scanning plane. Subsequently, the image generation unit 140 calculates an intersection between the scanning plane and the puncture guideline 28 in the scanning range 24. Then, the image generation unit 140 displays the puncture guideline 28 on the near side of the scanning plane (intersection) of the scan range 24 with a solid line, and displays the puncture guideline 28 on the back side with a broken line. Is superimposed on the scanning range 24. Here, the intersection is calculated because the puncture needle 13 is not necessarily on the scanning plane in free puncture.
  • FIG. 9 is a diagram for explaining processing of the display control unit 171 according to the second embodiment.
  • the left figure is an example of the positional relationship between the cross section of the abdomen of the subject P lying on the examination table and the direction of the ultrasonic probe 11 in contact with the abdomen.
  • the right diagram illustrates a case where an ultrasonic image obtained with the positional relationship illustrated in the left diagram is displayed in the display area of the monitor.
  • the horizontal direction of the display area is the right direction
  • the vertical direction of the display area is the downward direction.
  • the display control unit 171 extracts the roll angle “+30 degrees” as the direction of the ultrasonic probe 11.
  • the display control unit 171 causes the monitor 17 to display the scanning range 24 of the ultrasonic image on which the puncture guideline 28 is superimposed with the roll angle “+30 degrees” tilted.
  • the gravity direction 21 in the ultrasonic image coincides with the vertical direction of the display area. That is, the direction of the tomographic image of the subject P displayed in the scanning range 24 matches the direction of the subject P in the real space (see FIG. 3A), and the direction of the puncture guideline 28 is also the direction of the puncture needle 13 in the real space. Since it coincides with the insertion angle, the ultrasonic image of FIG. 9 is displayed intuitively and easily for the viewer.
  • the display control unit 171 may display the tilted ultrasound image using the orientation of the puncture needle 13 and the positional relationship between the ultrasound probe 11 and the puncture needle 13.
  • the positional relationship between the ultrasound probe 11 and the puncture needle 13 can be calculated from the position and orientation of the ultrasound probe 11 and the position and orientation of the puncture needle 13.
  • the ultrasonic diagnostic apparatus 1 uses the probe sensor 14a to detect the position and orientation of the ultrasonic probe 11 with respect to the direction of gravity, and the puncture needle sensor 14b. It is used to detect the position and orientation of the puncture needle 13 with respect to the direction of gravity. Then, the ultrasound diagnostic apparatus 1 uses the position and orientation of the ultrasound probe 11 and the position and orientation of the puncture needle 13 to display a puncture guideline 28 representing the puncture route of the puncture needle 13 within the scanning range of the ultrasound probe 11. An ultrasonic image superimposed on 24 is generated. Then, the ultrasound diagnostic apparatus 1 displays the tilted ultrasound image using the orientation of the ultrasound probe 11 or the orientation of the puncture needle 13. For this reason, the ultrasonic diagnostic apparatus 1 can display an ultrasonic image intuitively and easily even when free puncture is performed.
  • the ultrasonic diagnostic apparatus 1 can display an ultrasonic image in an inclined manner so that the direction of the puncture guideline is an arbitrary display angle of the operator. Therefore, in the third embodiment, a case will be described in which the ultrasound diagnostic apparatus 1 displays an ultrasound image tilted so that the direction of the puncture guideline is an arbitrary display angle of the operator.
  • the configuration of the ultrasonic diagnostic apparatus 1 according to the third embodiment is basically the same as the configuration of the ultrasonic diagnostic apparatus 1 described in FIG. 1, but both the probe sensor 14a and the puncture needle sensor 14b are provided. The difference is not necessary. Therefore, in the third embodiment, only points different from the first embodiment will be described, and description of similar points will be omitted.
  • the input device 16 receives an instruction of a display angle for displaying a puncture guideline 28 indicating a puncture route of the puncture needle 13 from an operator. For example, the input device 16 receives an instruction from the operator to display the puncture guideline 28 at a roll angle “ ⁇ 45 degrees” with respect to the vertical direction of the display area. Then, the input device 16 transmits the display angle instructed by the operator to the display control unit 171.
  • the input device 16 receives an instruction from the operator to insert the puncture needle 13 into the ultrasonic probe 11 at a predetermined position and orientation, as in the first embodiment.
  • the input device 16 receives an instruction from the operator that the puncture needle 13 is attached to the ultrasonic probe 11 at a roll angle “ ⁇ 60 degrees” from a position 5 cm from the transmission position of the ultrasonic beam. .
  • the input device 16 transmits the position and orientation of the puncture needle 13 with respect to the ultrasonic probe 11 instructed by the operator to the display control unit 171.
  • the display control unit 171 tilts and displays the ultrasonic image according to the instructed display angle.
  • FIG. 10 is a diagram for explaining processing of the display control unit 171 according to the third embodiment.
  • the left figure is an example of the positional relationship between the cross section of the abdomen of the subject P lying on the examination table and the direction of the ultrasonic probe 11 that is in contact with the abdomen.
  • the right diagram illustrates a case where an ultrasonic image obtained with the positional relationship illustrated in the left diagram is displayed in the display area of the monitor.
  • the horizontal direction of the display area is the right direction as the positive direction
  • the vertical direction of the display area is the downward direction as the positive direction.
  • the display control unit 171 instructs to display the puncture guideline 28 at the roll angle “ ⁇ 45 degrees” with respect to the vertical direction of the display area, and the roll angle “ ⁇ 60 degrees” to the ultrasonic probe 11. Then, an instruction to the effect that the puncture needle 13 is attached is received from the input device 16.
  • the display control unit 171 superimposes the puncture guideline 28 superimposed so that the puncture guideline 28 has a roll angle “ ⁇ 45 degrees” with respect to the vertical direction of the display area.
  • the sound wave image is tilted and displayed on the monitor 17.
  • the puncture needle 13 is attached to the display control unit 171 with a roll angle “ ⁇ 60 degrees” with respect to the transmission direction of the ultrasonic beam, the ultrasonic image scanning range 24 is set to the roll angle “+15”. “Degree” is displayed.
  • the ultrasonic diagnostic apparatus 1 receives an instruction of a display angle for displaying the puncture guideline 28 indicating the puncture route of the puncture needle 13 from the operator. Then, the ultrasound diagnostic apparatus 1 generates an ultrasound image in which the puncture guideline 28 is superimposed on the scanning range 24 of the ultrasound probe 11. Then, the ultrasonic diagnostic apparatus 1 displays an ultrasonic image with a scanning range inclined according to the instructed display angle. For this reason, the ultrasonic diagnostic apparatus 1 according to the second embodiment can display the ultrasonic image in an inclined manner so that the direction of the puncture guideline is an arbitrary display angle of the operator.
  • the ultrasound diagnostic apparatus 1 tilts the ultrasound image (the ultrasound image illustrated in FIG. 9) when free puncture is performed so that the orientation of the puncture guideline is an arbitrary display angle of the operator. Can be displayed.
  • the ultrasonic diagnostic apparatus 1 detects the position and orientation of the ultrasonic probe 11 with respect to the direction of gravity using the probe sensor 14a, and uses the puncture needle sensor 14b to detect the position of the puncture needle 13 with respect to the direction of gravity. Detect position and orientation. Then, the ultrasound diagnostic apparatus 1 uses the position and orientation of the ultrasound probe 11 and the position and orientation of the puncture needle 13 to display a puncture guideline 28 representing the puncture route of the puncture needle 13 within the scanning range of the ultrasound probe 11. An ultrasonic image superimposed on 24 is generated. Then, the ultrasonic diagnostic apparatus 1 displays the ultrasonic image scanning range 24 in an inclined manner according to the position and orientation of the ultrasonic probe 11, the position and orientation of the puncture needle 13, and the designated display angle.
  • the ultrasonic diagnostic apparatus 1 may change the direction of another type of image and display the images. Therefore, in the fourth embodiment, a case will be described in which the ultrasound diagnostic apparatus 1 displays the images by changing the orientation of the other types of images when displaying the images by changing the orientation of the ultrasound images.
  • the configuration of the ultrasonic diagnostic apparatus 1 according to the fourth embodiment is basically the same as the configuration of the ultrasonic diagnostic apparatus 1 described in FIG. 1, but part of the processing in the display control unit 171 is different. Therefore, in the fourth embodiment, points different from the first embodiment will be described, and description of similar points will be omitted.
  • the display control unit 171 aligns the generated ultrasonic image with another type of image different from the generated ultrasonic image, and changes the direction of the generated ultrasonic image. When displaying, the orientation of other types of images that have been aligned is changed and displayed.
  • 11 to 13 are diagrams for explaining processing of the display control unit 171 according to the fourth embodiment.
  • the left diagram is an example of the positional relationship between the cross section of the abdomen of the subject P lying on the examination table and the direction of the ultrasonic probe 11 that contacts the abdomen.
  • the right diagram shows an ultrasonic image obtained with the positional relationship illustrated in the left diagram, and a two-dimensional X-ray CT (Computed Tomography) image (hereinafter referred to as a CT image) corresponding to the ultrasonic image.
  • the abbreviation 29) is displayed in the display area of the monitor 17 as an example.
  • the horizontal direction of the display area is a positive direction in the right direction
  • the vertical direction of the display area is a positive direction in the downward direction.
  • the display control unit 171 has a CT image 29 having substantially the same cross section as the ultrasonic image generated in a state where the ultrasonic probe 11 is in contact with the abdomen of the subject P from directly above.
  • the CT image 29 displayed on the monitor 17 is a cross section generated by the MPR process from the X-ray CT volume data obtained by imaging the target region of the subject P to be examined.
  • the operator adjusts the position of the cut surface for MPR processing via the input device 16 so that the CT image 29 on which the target site is depicted is displayed on the monitor 17.
  • the display control unit 171 causes the image generation unit 140 to generate a CT image 29 obtained by cutting the X-ray CT volume data with a cutting plane (hereinafter referred to as an initial cross section) adjusted by the operator, and displays the CT image 29 on the monitor 17.
  • a cutting plane hereinafter referred to as an initial cross section
  • the operator readjusts the position of the initial cross section in the X-ray CT volume data so that the CT image 29 having substantially the same cross section as the ultrasonic image displayed on the monitor 17 is displayed.
  • the operator presses the confirmation button using the input device 16.
  • the display control unit 171 sets the three-dimensional position information of the ultrasonic probe 11 acquired from the probe sensor 14a as the initial position information when the confirmation button is pressed.
  • the display control unit 171 determines the position of the initial cross section in the X-ray CT volume data at the time when the confirm button is pressed as the final initial cross section position.
  • the case where the alignment is performed by pressing the confirmation button by the operator is illustrated here, but the embodiment is not limited to this, and the CT image 29 having substantially the same cross section as the ultrasonic image. May be automatically extracted and aligned.
  • the display control unit 171 acquires movement information related to the scanning section of the ultrasonic probe 11 from the position and orientation of the ultrasonic probe 11 in the real space acquired from the probe sensor 14a and the initial position information, and acquires the acquired movement.
  • the cutting plane for MPR is reset by changing the position of the initial cross section based on the information.
  • the display control unit 171 causes the image generation unit 140 to generate the CT image 29 from the X-ray CT volume data using the reset cutting plane, and generates image data in which the CT image 29 and the ultrasound image are arranged in parallel.
  • the display control unit 171 simultaneously displays the ultrasound image and the CT image 29 having substantially the same cross section as the ultrasound image on the screen of the monitor 17.
  • the display control unit 171 changes the direction of the ultrasonic image and displays the image, the process of changing the direction of the other type of image that has been aligned will be described.
  • the display control unit 171 extracts the roll angle “+30 degrees” as the direction of the ultrasonic probe 11.
  • the display control unit 171 performs substantially the same alignment when displaying the ultrasonic image scanning range 24 on the monitor 17 with the roll angle “+30 degrees” tilted.
  • the cross-section CT image 29 is tilted in conjunction with each other.
  • the gravity direction 21 in the ultrasonic image and 21 in the CT image 29 coincide with the vertical direction of the display area. That is, since the direction of the tomographic image of the subject P displayed in the ultrasonic image and the CT image 29 matches the direction of the subject P in the real space, the ultrasonic image and the CT image 29 in FIG. It is displayed intuitively and easily for viewers.
  • FIG. 13 illustrates a case where the display control unit 171 displays without changing the direction of the ultrasonic image.
  • the case where an ultrasound image is generated in a state where the ultrasound probe 11 is in contact with the abdomen of the subject P at a roll angle “+30 degrees” is illustrated.
  • the direction of the tomographic image of the subject P displayed in the ultrasonic image and the CT image 29 is different from the direction of the subject P in the real space, as shown in the right diagram of FIG.
  • the sonic image and the viewer feel uncomfortable There is a possibility that the sonic image and the viewer feel uncomfortable.
  • the ultrasonic diagnostic apparatus 1 aligns an ultrasonic image and another type of image different from the ultrasonic image, and changes the direction of the ultrasonic image.
  • the other image types that have been aligned are displayed in a different orientation. Therefore, the ultrasound diagnostic apparatus 1 can intuitively and easily display an image that has been aligned with the ultrasound image.
  • the ultrasonic diagnostic apparatus 1 aligns an ultrasonic image with another medical image such as a PET (Positron Emission Tomography) image or an MR (Magnetic Resonance) image, and both May be displayed in a different direction by interlocking with.
  • the ultrasound diagnostic apparatus 1 may perform alignment with a predetermined image different from the ultrasound image, and display the images by changing the direction in conjunction with each other.
  • the ultrasound diagnostic apparatus 1 aligns an ultrasound image with an ultrasound image of a representative case, a past ultrasound image of the same patient, etc. You may change and display. For example, the ultrasound diagnostic apparatus 1 aligns an ultrasound image and an illustration depicting an anatomical positional relationship between a lesion site and another site, and changes the direction by linking them together. May be displayed. Further, the ultrasonic diagnostic apparatus 1 may link three or more images.
  • the ultrasonic diagnostic apparatus 1 may display the ultrasonic image in an inclined manner so that the orientation of the puncture guideline is an arbitrary display angle of the operator during free puncture. Therefore, in the fifth embodiment, a case will be described in which the ultrasonic diagnostic apparatus 1 displays an ultrasonic image tilted so that the orientation of the puncture guideline is an arbitrary display angle of the operator during free puncture.
  • the configuration of the ultrasonic diagnostic apparatus 1 according to the fifth embodiment is basically the same as the configuration of the ultrasonic diagnostic apparatus 1 described in FIG. 1, but both the probe sensor 14a and the puncture needle sensor 14b are used. This is different from some of the processes performed by the input device 16, the image generation unit 140, and the display control unit 171. Therefore, in the fifth embodiment, only points different from the first embodiment will be described, and description of similar points will be omitted.
  • the input device 16 receives an instruction of a display angle for displaying the puncture guideline 28 representing the puncture route of the puncture needle 13 from the operator. For example, the input device 16 receives an instruction from the operator to display the puncture guideline 28 at a roll angle “0 degree” with respect to the vertical direction of the display area. Then, the input device 16 transmits the display angle instructed by the operator to the display control unit 171.
  • the image generation unit 140 according to the fifth embodiment has the same function as that described in the second embodiment. That is, the image generation unit 140 according to the fifth embodiment uses the position and orientation of the ultrasonic probe 11 and the position and orientation of the puncture needle 13 to superimpose the puncture guideline 28 that represents the puncture route of the puncture needle 13. An ultrasonic image superimposed on the scanning range of the acoustic probe 11 is generated.
  • the display control unit 171 tilts and displays the ultrasonic image according to the instructed display angle.
  • FIGS. 14A and 14B are diagrams for explaining processing of the image generation unit 140 and the display control unit 171 according to the fifth embodiment. 14A and 14B, a description will be given of a case in which an ultrasonic image is tilted and displayed so that the orientation of the puncture guideline is a roll angle “0 degree” with respect to the vertical direction of the display area in free puncture. Specifically, in FIGS. 14A and 14B, during the free puncture, the position and orientation of the ultrasonic probe 11 is changed from the roll angle “30 degrees” (FIG. 14A) to the roll angle “0”. A case where the state changes to the "degree" state (FIG. 14B) will be described.
  • the left figure is a cross section of the abdomen of the subject P lying on the examination table, the position and orientation of the ultrasonic probe 11 in contact with the abdomen, and the subject P is inserted into the subject P. It is an example of the positional relationship with the position and direction of the puncture needle.
  • the right diagram illustrates a case where an ultrasonic image obtained with the positional relationship illustrated in the left diagram is displayed in the display area of the monitor.
  • the horizontal direction of the display area is the right direction as the positive direction
  • the vertical direction of the display area is the downward direction as the positive direction.
  • the image generation unit 140 acquires the position and orientation (roll angle “30 degrees”) of the ultrasonic probe 11 from the probe sensor 14a, and the position and orientation of the puncture needle 13 (roll angle “ ⁇ 30 degrees”). Is obtained from the puncture needle sensor 14b. Then, the image generation unit 140 calculates the angle of the puncture guideline 28 with respect to the scanning range 24 based on the positional relationship between the ultrasonic probe 11 and the puncture needle 13. In the example shown in the left diagram of FIG. 14A, the ultrasonic probe 11 is in contact with the abdomen of the subject P at a roll angle “30 degrees” with respect to the gravity direction 21, and the puncture needle 13 is against the gravity direction 21.
  • the image generation unit 140 calculates that the angle of the puncture guideline 28 with respect to the transmission direction 25 of the ultrasonic beam that scans the scanning range 24 is the roll angle “ ⁇ 60 degrees”. Subsequently, the image generation unit 140 calculates an intersection between the scanning plane and the puncture guideline 28 in the scanning range 24.
  • the reason why the intersection is calculated is that, in free puncture, the puncture needle 13 is not necessarily on the scanning plane, and the puncture needle 13 may intersect the scanning plane.
  • the image generation unit 140 displays the puncture guideline 28 on the near side of the scanning plane (intersection) of the scan range 24 with a solid line, and displays the puncture guideline 28 on the back side with a broken line. Is generated on the scanning range 24 (right diagram in FIG. 14A). In this ultrasonic image, the angle of the puncture guideline 28 with respect to the transmission direction 25 of the ultrasonic beam is “ ⁇ 60 degrees”.
  • the display control unit 171 receives an instruction from the input device 16 to display the puncture guideline 28 at a roll angle “0 degree” (display angle) with respect to the vertical direction of the display area. Then, the display control unit 171 causes the monitor 17 to display the ultrasonic image generated by the image generation unit 140 such that the puncture guideline 28 is tilted so that the roll angle is “0 degrees” with respect to the vertical direction of the display region. .
  • the image generation unit 140 and the display control unit 171 perform processing as follows.
  • the processing of the image generation unit 140 will be described using the left diagram of FIG. 14B.
  • the image generation unit 140 acquires the position and orientation of the ultrasonic probe 11 (roll angle “0 degree”) from the probe sensor 14a and punctures the position and orientation of the puncture needle 13 (roll angle “ ⁇ 30 degrees”). Obtained from the needle sensor 14b.
  • the ultrasound probe 11 is in contact with the abdomen of the subject P at a roll angle “0 degree” with respect to the gravity direction 21, and the puncture needle 13 is against the gravity direction 21. It is inserted into the abdomen of the subject P with a roll angle of “ ⁇ 30 degrees”.
  • the image generation unit 140 calculates that the angle of the puncture guideline 28 with respect to the transmission direction 25 of the ultrasonic beam that scans the scanning range 24 is the roll angle “ ⁇ 30 degrees”, and performs the puncture similarly to the above-described processing.
  • An ultrasonic image in which the guide line 28 is superimposed on the scanning range 24 is generated.
  • the angle of the puncture guideline 28 with respect to the transmission direction 25 of the ultrasonic beam is “ ⁇ 30 degrees”.
  • the display control unit 171 tilts the ultrasonic image generated by the image generation unit 140 on the monitor 17 so that the puncture guideline 28 has a roll angle “0 degree” (display angle) with respect to the vertical direction of the display area. Display.
  • the ultrasonic diagnostic apparatus 1 can display an ultrasonic image in an inclined manner so that the orientation of the puncture guideline becomes an arbitrary display angle of the operator in free puncture.
  • the ultrasonic diagnostic apparatus 1 performs the free puncture in a state where the position and orientation of the ultrasonic probe 11 is from the roll angle “30 degrees” (left figure in FIG. 14A) to the roll angle “0 degrees” (in FIG. 14B).
  • the orientation of the puncture guideline 28 can be displayed at a certain angle (the right figure in FIG. 14A and the right figure in FIG. 14B). For this reason, the ultrasonic diagnostic apparatus 1 can display an ultrasonic image intuitively and easily on the basis of the puncture guideline even in free puncture.
  • the ultrasonic diagnostic apparatus 1 displays the direction of the generated ultrasonic image according to the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 is described. It is not limited to this.
  • the medical image processing apparatus reproduces an ultrasonic image generated by the ultrasonic diagnostic apparatus 1, the ultrasonic image is tilted and displayed according to the direction of the ultrasonic probe 11 or the direction of the puncture needle 13. You can also.
  • FIG. 15 is a diagram for explaining a configuration of a medical information system according to the sixth embodiment.
  • the medical information system according to the sixth embodiment includes an ultrasonic diagnostic apparatus 1, a medical image diagnostic apparatus 2, a medical image storage apparatus 3, and a medical image processing apparatus 4.
  • Each device is in a state where it can communicate with each other directly or indirectly via, for example, a hospital LAN (Local Area Network) 2 installed in the hospital.
  • LAN Local Area Network
  • PACS Picture Archiving and Communication System
  • each device transmits and receives medical image data and the like according to the DICOM (Digital Imaging and Communications in Medicine) standard.
  • DICOM Digital Imaging and Communications in Medicine
  • the medical image diagnostic apparatus 2 includes an X-ray diagnostic apparatus, an X-ray CT apparatus, an MRI apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, a PET (Positron Emission computed Tomography) apparatus, a SPECT apparatus and an X-ray CT.
  • SPECT-CT apparatus in which the apparatus is integrated
  • PET-CT apparatus in which the PET apparatus and X-ray CT apparatus are integrated
  • a specimen inspection apparatus For example, the medical image diagnostic apparatus 2 images a subject in response to an operation from a photographic engineer who images the subject, and generates medical image data and a test result.
  • the medical image storage device 3 is a device that stores medical image data.
  • the medical image storage device 3 includes a database that stores medical image data, stores medical image data and examination results generated by the medical image diagnostic device 2 in the database, and stores them.
  • the medical image processing apparatus 4 is an image processing apparatus that performs image processing on medical image data.
  • the medical image processing apparatus 4 acquires medical image data and examination results from the medical image storage apparatus 3 and displays the acquired medical image data and examination results on a monitor.
  • the medical image processing apparatus 4 includes an acquisition unit 4a, a display control unit 4b, and an image data storage unit 4c.
  • the acquisition unit 4a acquires the ultrasonic image data generated in the ultrasonic diagnostic apparatus 1, and stores it in the image data storage unit 4c. For example, the acquisition unit 4a acquires the ultrasonic image and the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 when the ultrasonic image is generated. Then, the acquisition unit 4a associates the acquired ultrasonic image with the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 when the ultrasonic image is generated for each frame, and the image data storage unit Store in 4c.
  • the display control unit 4b displays the ultrasonic image generated by the ultrasonic diagnostic apparatus 1 in an inclined manner according to the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 at the timing when the ultrasonic image is generated.
  • the display control unit 4b has the same function as the display control unit 171 described in FIG.
  • the image data storage unit 4c stores the ultrasonic image and the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 when the ultrasonic image is generated in association with each frame.
  • the medical image processing apparatus 4 according to the sixth embodiment can intuitively and easily display the ultrasonic image generated by the ultrasonic diagnostic apparatus 1.
  • the position and orientation of the ultrasonic probe 11 and the position and orientation of the puncture needle 13 may be stored for each frame. good.
  • the acquisition unit 4a acquires the ultrasound image, the position and orientation of the ultrasound probe 11 when the ultrasound image is generated, and the position and orientation of the puncture needle 13. Then, the acquisition unit 4a associates the acquired ultrasound image, the position and orientation of the ultrasound probe 11 when the ultrasound image is generated, and the position and orientation of the puncture needle 13 for each frame, The data is stored in the data storage unit 4c. Therefore, even when free puncture is performed, the ultrasonic diagnostic apparatus 1 can display an ultrasonic image intuitively and easily, and can display the position and orientation of the puncture needle 13 at that time.
  • the image data storage unit 4c does not necessarily have to store the orientation of the ultrasound probe 11 or the orientation of the puncture needle 13 when the ultrasound image is generated for each frame. That is, the image data storage unit 4c may store the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 in a predetermined period in association with a plurality of frames of ultrasonic image data included in the predetermined period. In this case, the display control unit 4b changes the direction of the ultrasonic images of a plurality of frames included in the predetermined period according to the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 stored in the image data storage unit 4c. To display.
  • the direction of the ultrasonic probe 11 and the direction of the puncture needle 13 are often maintained at a constant angle. That is, while the puncture is being performed, the direction of the ultrasonic probe 11 and the direction of the puncture needle 13 associated with the ultrasonic image data of a plurality of frames arranged in time series are substantially the same angle. In such a case, only the direction of the ultrasonic probe 11 or the direction of the only puncture needle 13 may be stored for the ultrasonic image data of the plurality of frames.
  • the acquisition unit 4 a calculates the average angle (average value) of the directions of the ultrasonic probes 11 associated with the ultrasonic image data of a plurality of frames.
  • the acquisition unit 4a associates the ultrasonic image data of a plurality of frames with the calculated average angle and stores them in the image data storage unit 4c.
  • the medical image processing apparatus 4 can reduce the amount of data to be stored, and can reduce the addition of processing for display.
  • the direction of the ultrasonic probe 11 and the direction of the puncture needle 13 associated with a plurality of frames of ultrasonic image data are not limited to the puncture, but when a doctor performs another procedure or for a certain period of time. It may be when observing.
  • the image data storage unit 4c stores the ultrasonic image and the direction of the ultrasonic probe 11 or the direction of the puncture needle inserted into the subject in association with each other.
  • the display control unit 4b changes and displays the direction of the ultrasonic image according to the direction of the ultrasonic probe 11 or the direction of the puncture needle 13 stored in the image data storage unit 4c.
  • the ultrasound diagnostic apparatus 1 displays in parallel the image when the orientation of the ultrasound image is changed according to the orientation of the ultrasound probe 11 or the puncture needle 13 and the image before the change simultaneously. May be.
  • the ultrasonic diagnostic apparatus 1 may simultaneously display the right diagram in FIG. 5 and the right diagram in FIG. 3B in parallel.
  • the ultrasonic probe 11 may include a puncture guide rail.
  • the puncture guide rail is provided at a predetermined position and orientation with respect to the ultrasonic probe 11. For this reason, in the ultrasonic diagnostic apparatus 1, by using the ultrasonic probe 11 including the puncture guide rail, the puncture needle 13 is attached to the ultrasonic probe 11 at a predetermined position and orientation without using the puncture adapter 12. It becomes possible.
  • the puncture guide rail is also referred to as an insertion portion.
  • the ultrasonic diagnostic apparatus 1 or the medical image processing apparatus 4 includes an image processing unit (not shown).
  • the image processing unit recognizes a portion having a luminance value equal to or higher than a predetermined threshold in the ultrasonic image as an image related to the puncture needle 13, and detects the direction of the puncture needle 13 in the ultrasonic image.
  • the display control unit 171 changes the direction of the ultrasonic image so that the direction of the puncture needle 13 detected by the image processing unit substantially matches the display angle preset by the operator. It is displayed on a predetermined display means. In this case, it is not necessary to provide a sensor in the ultrasonic probe 11 or the puncture needle 13, and the configuration of the ultrasonic probe 11 or the puncture needle 13 can be further simplified.
  • an ultrasonic image can be displayed intuitively and easily.
  • each component of the ultrasonic diagnostic apparatus 1 illustrated in FIG. 1 is functionally conceptual, and does not necessarily have to be physically included in the ultrasonic diagnostic apparatus 1 as illustrated. That is, the specific form of distribution / integration of each component of the ultrasonic diagnostic apparatus 1 is not limited to the illustrated one.
  • the alignment process may be executed by a processing unit different from the display control unit 171.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Hematology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

 実施形態に係る超音波診断装置(1)は、生成部(140)と、検知部(14b)と、表示制御部(171)とを備える。生成部(140)は、超音波プローブによって受信された反射波に基づいて、超音波画像を生成する。検知部(14b)は、被検体に挿入される穿刺針の向きを検知する。表示制御部(171)は、検知された前記穿刺針の向きに応じて、生成された超音波画像の向きを変えて表示する。

Description

超音波診断装置及び医用画像処理装置
 本発明の実施形態は、超音波診断装置及び医用画像処理装置に関する。
 従来、被検体の体内の様子を容易に観察するために、体表から体内へ超音波を送信し、その反射波に基づいて超音波画像を生成する超音波診断装置が広く用いられている。例えば、超音波診断装置は、他の診断機器と比較して小型の超音波プローブを体表に当てることで、その体内の様子を略リアルタイム(画像生成処理時間によりやや遅れて画像が生成される場合や、コマ送り状に静止画を次々と撮影する場合を含む)で画像化できるので、超音波プローブは様々な向きで体表に当接されて利用されている。
特開2011-229837号公報
 本発明が解決しようとする課題は、超音波画像を直感的にわかりやすく表示することができる超音波診断装置及び医用画像処理装置を提供することである。
 実施形態に係る超音波診断装置は、生成部と、検知部と、表示制御部とを備える。生成部は、超音波プローブによって受信された反射波に基づいて、超音波画像を生成する。検知部は、被検体に挿入される穿刺針の向きを検知する。表示制御部は、検知された前記穿刺針の向きに応じて、生成された超音波画像の向きを変えて表示する。
図1は、第1の実施形態に係る超音波診断装置の構成を説明するための図である。 図2Aは、表示領域の向きと画像の向きとの関係について説明するための図である。 図2Bは、表示領域の向きと画像の向きとの関係について説明するための図である。 図3Aは、従来の超音波診断装置において表示される超音波画像の一例を示す図である。 図3Bは、従来の超音波診断装置において表示される超音波画像の一例を示す図である。 図4は、表示制御部が抽出する角度成分について説明するための図である。 図5は、第1の実施形態に係る表示制御部の処理を説明するための図である。 図6は、第1の実施形態に係る表示制御部の処理を説明するための図である。 図7は、第1の実施形態に係る表示制御部の処理を説明するための図である。 図8は、第1の実施形態に係る超音波診断装置の処理手順を示すフローチャートである。 図9は、第2の実施形態に係る表示制御部の処理を説明するための図である。 図10は、第3の実施形態に係る表示制御部の処理を説明するための図である。 図11は、第4の実施形態に係る表示制御部の処理を説明するための図である。 図12は、第4の実施形態に係る表示制御部の処理を説明するための図である。 図13は、第4の実施形態に係る表示制御部の処理を説明するための図である。 図14Aは、第5の実施形態に係る画像生成部及び表示制御部の処理を説明するための図である。 図14Bは、第5の実施形態に係る画像生成部及び表示制御部の処理を説明するための図である。 図15は、第6の実施形態に係る医用情報システムの構成を説明するための図である。
 以下、図面を参照して、実施形態に係る超音波診断装置及び医用画像処理装置を説明する。
(第1の実施形態)
 図1は、第1の実施形態に係る超音波診断装置1の構成を説明するための図である。図1に示すように、第1の実施形態に係る超音波診断装置1は、超音波プローブ11と、穿刺針13と、入力装置16と、モニタ17と、装置本体100とを有し、ネットワークに接続されている。
 超音波プローブ11は、複数の圧電振動子を有し、これら複数の圧電振動子は、後述する装置本体100が有する送受信部110から供給される駆動信号に基づき超音波を発生し、さらに、被検体Pからの反射波を受信して電気信号に変換する。また、超音波プローブ11は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材などを有する。
 超音波プローブ11から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ11が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが移動している血流や心臓壁などの表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。
 なお、本実施形態は、複数の圧電振動子が一列で配置された1次元超音波プローブである超音波プローブ11により、被検体Pを2次元で走査する場合であっても、1次元超音波プローブの複数の圧電振動子を機械的に揺動する超音波プローブ11(メカ4Dプローブ)や複数の圧電振動子が格子状に2次元で配置された2次元超音波プローブである超音波プローブ11(2Dアレイプローブ)により、被検体Pを3次元で走査する場合であっても、適用可能である。
 穿刺アダプタ12は、超音波プローブ11に対して所定の位置及び向きで穿刺を行うために、超音波プローブ11に装着されるアタッチメントである。例えば、穿刺アダプタ12は、超音波プローブ11に対して穿刺針13を所定の位置及び向きで取り付けるための溝(穿刺ガイドレール)を有する。この穿刺ガイドレールは、一例としては、超音波プローブ11により走査される走査平面上を、超音波ビームの送信位置から5cmの位置から、超音波ビームの送信方向に対して30度、45度及び60度それぞれの角度で穿刺針13が通過するように、予め設計されている。
 なお、ここで言う超音波ビームの送信位置及び送信方向とは、走査範囲の中心を通る代表的な超音波ビームの送信位置及び送信方向、或いは、各走査線における超音波ビームの平均的な送信位置及び平均的な送信方向を指す。また、穿刺アダプタ12は、穿刺針13が取り付けられている穿刺ガイドレールを自動的に検知して、超音波プローブ11に対する穿刺針13の位置及び角度を装置本体100へ出力する構成であっても良い。
 穿刺針13は、生体組織検査やラジオ波焼灼治療などの穿刺を行うために、穿刺アダプタ12に取り付けられる医療器具である。例えば、穿刺針13は、穿刺アダプタ12のいずれかの穿刺ガイドレールを通過することで、超音波プローブ11に対して所定の位置及び角度で被検体Pに挿入される。一例としては、医師は、モニタ17に表示される超音波画像を参照しながら、穿刺アダプタ12に取り付けられた穿刺針13を被検体Pの関心領域(ROI:Region of Interest)まで挿入する。
 プローブ用センサ14a、穿刺針用センサ14b及びトランスミッタ15は、実空間における超音波プローブ11の向き及び穿刺針13の向きを取得するための装置である。例えば、プローブ用センサ14aは、超音波プローブ11に設置される磁気センサであり、実空間における超音波プローブ11の向きを検知する。また、例えば、穿刺針用センサ14bは、穿刺針13に設置される磁気センサであり、実空間における穿刺針13の向きを検知する。また、例えば、トランスミッタ15は、任意の位置に配置され、自装置を中心として外側に向かって磁場を形成する装置である。
 プローブ用センサ14a及び穿刺針用センサ14bは、トランスミッタ15によって形成された3次元の磁場を検出する。そして、プローブ用センサ14a及び穿刺針用センサ14bは、検出した磁場の情報に基づいて、トランスミッタ15を原点とする空間における自装置の座標及び角度を算出し、算出した座標及び角度を後述する表示制御部171へ送信する。ここで、プローブ用センサ14aは、自装置が位置する3次元空間における角度を、超音波プローブ11の向きとして表示制御部171へ送信する。また、穿刺針用センサ14bは、自装置が位置する3次元空間における角度を、穿刺針13の向きとして表示制御部171へ送信する。
 なお、第1の実施形態において、プローブ用センサ14a及び穿刺針用センサ14bは、磁気センサに限定されるものではない。例えば、プローブ用センサ14a及び穿刺針用センサ14bは、物体の角度や角速度を検知するジャイロスコープ(ジャイロセンサ)であっても良い。すなわち、第1の実施形態においては、超音波プローブ11の向き及び穿刺針13の向きを検知可能な装置を、プローブ用センサ14a及び穿刺針用センサ14bとして任意に適用可能である。
 また、第1の実施形態において、超音波診断装置1は、プローブ用センサ14a及び穿刺針用センサ14bのうち少なくとも一方を有していればよい。これは、穿刺アダプタ12を用いることにより、穿刺針13が所定の位置及び向きで超音波プローブ11に取り付けられるので、超音波プローブ11の向きと穿刺針13の向きとが相互に変換可能となるからである。
 入力装置16は、トラックボール、スイッチ、ボタン、タッチコマンドスクリーンなどを有し、超音波診断装置1の操作者からの各種指示を受け付け、装置本体100に対して受け付けた各種指示を転送する。例えば、入力装置16は、超音波プローブ11に対して穿刺針13を所定の位置及び角度で挿入する旨の指示(穿刺を行う穿刺ガイドレールを選択する旨の指示)を操作者から受け付ける。入力装置16は、受け付けた超音波プローブ11に対する穿刺針13の位置及び角度を内部記憶部160に格納する。
 モニタ17は、超音波診断装置1の操作者が入力装置16を用いて各種指示を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像データを超音波画像として表示したりする。
 装置本体100は、超音波プローブ11が受信した反射波に基づいて、超音波画像データを生成する装置である。図1に示す装置本体100は、2次元の反射波信号に基づいて2次元の超音波画像データを生成可能であり、3次元の反射波信号に基づいて3次元の超音波画像データを生成可能である。
 装置本体100は、図1に示すように、送受信部110と、Bモード処理部120と、ドプラ処理部130と、画像生成部140と、画像メモリ150と、内部記憶部160と、制御部170と、インターフェース部180とを有する。
 送受信部110は、後述する制御部170の指示に基づいて、超音波プローブ11が行う超音波送受信を制御する。送受信部110は、パルス発生器、送信遅延部、パルサ等を有し、超音波プローブ11に駆動信号を供給する。パルス発生器は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部は、超音波プローブ11から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器が発生する各レートパルスに対し与える。また、パルサは、レートパルスに基づくタイミングで、超音波プローブ11に駆動信号(駆動パルス)を印加する。送信遅延部は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。
 また、送受信部110は、プリアンプ、A/D(Analog/Digital)変換器、受信遅延部、加算器等を有し、超音波プローブ11が受信した反射波信号に対して各種処理を行って反射波データを生成する。プリアンプは、反射波信号をチャネル毎に増幅する。A/D変換器は、増幅された反射波信号をA/D変換する。受信遅延部は、受信指向性を決定するために必要な遅延時間を与える。加算器は、受信遅延部によって処理された反射波信号の加算処理を行って反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。
 なお、送受信部110は、被検体Pを2次元走査する場合、超音波プローブ11から2次元の超音波ビームを送信させる。そして、送受信部110は、超音波プローブ11が受信した2次元の反射波信号から2次元の反射波データを生成する。また、送受信部110は、被検体Pを3次元走査する場合、超音波プローブ11から3次元の超音波ビームを送信させる。そして、送受信部110は、超音波プローブ11が受信した3次元の反射波信号から3次元の反射波データを生成する。
 このように、送受信部110は、超音波の送受信における送信指向性と受信指向性とを制御する。なお、送受信部110は、後述する制御部170の制御により、遅延情報、送信周波数、送信駆動電圧、開口素子数などを瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更においては、瞬時に値を切り替えることが可能であるリニアアンプ型の発振回路、又は、複数の電源ユニットを電気的に切り替える機構によって実現される。また、送受信部110は、1フレームもしくはレートごとに、異なる波形を送信して受信することも可能である。
 Bモード処理部120及びドプラ処理部130は、送受信部110が反射波信号から生成した反射波データに対して、各種の信号処理を行う信号処理部である。Bモード処理部120は、送受信部110から反射波データを受信し、対数増幅、包絡線検波処理等を行って、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。また、ドプラ処理部130は、送受信部110から受信した反射波データから速度情報を周波数解析し、ドプラ効果による速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。ここで、移動体とは、例えば、血流や、心壁等の組織、造影剤である。なお、図1に例示するBモード処理部120及びドプラ処理部130は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。
 画像生成部140は、Bモード処理部120及びドプラ処理部130が生成したデータから超音波画像データを生成する。すなわち、画像生成部140は、Bモード処理部120が生成した2次元のBモードデータから反射波の強度を輝度で表した2次元Bモード画像データを生成する。また、画像生成部140は、ドプラ処理部130が生成した2次元のドプラデータから移動体情報を表す2次元ドプラ画像データを生成する。2次元ドプラ画像データは、速度画像データ、分散画像データ、パワー画像データ、又は、これらを組み合わせた画像データである。
 ここで、画像生成部140は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像生成部140は、超音波プローブ11による超音波の走査形態に応じて座標変換を行うことで、表示用の超音波画像データを生成する。また、画像生成部140は、スキャンコンバート以外に種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行う。また、画像生成部140は、超音波画像データに、付帯情報(種々のパラメータの文字情報、目盛り、ボディマーク等)を合成する。
 すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像生成部140が生成するデータは、スキャンコンバート処理後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。画像生成部140は、スキャンコンバート処理前の2次元超音波画像データである「2次元Bモードデータや2次元ドプラデータ」から、表示用の2次元超音波画像データである「2次元のBモード画像データや2次元ドプラ画像データ」を生成する。
 また、画像生成部140は、Bモード処理部120が生成した3次元のBモードデータに対して座標変換を行うことで、3次元Bモード画像データを生成する。また、画像生成部140は、ドプラ処理部130が生成した3次元のドプラデータに対して座標変換を行うことで、3次元ドプラ画像データを生成する。画像生成部140は、「3次元のBモード画像データや3次元ドプラ画像データ」を「3次元超音波画像データ(ボリュームデータ)」として生成する。
 また、画像生成部140は、ボリュームデータをモニタ17にて表示するための各種2次元画像データを生成するために、ボリュームデータに対してレンダリング処理を行う。画像生成部140が行うレンダリング処理としては、例えば、断面再構成法(MPR:Multi Planer Reconstruction)を行ってボリュームデータからMPR画像データを生成する処理がある。また、画像生成部140が行うレンダリング処理としては、例えば、3次元の情報を反映した2次元画像データを生成するボリュームレンダリング(VR:Volume Rendering)処理がある。
 また、画像生成部140は、穿刺ガイドラインを表示するための画像データを生成する。例えば、画像生成部140は、穿刺アダプタ12が超音波プローブ11に装着されている場合に、超音波プローブ11に対する穿刺針13の位置及び向きを、後述する内部記憶部160から取得する。具体的には、画像生成部140は、走査平面上において、超音波ビームの送信位置から5cmの位置から、超音波ビームの送信方向に対して45度の角度で穿刺針13が挿入されることを取得する。そして、画像生成部140は、取得した位置及び向きを用いて、走査範囲に対応する位置及び向きで穿刺ガイドラインを表示するための画像データを生成する。そして、画像生成部140は、生成した穿刺ガイドラインを走査範囲に重畳させた超音波画像データを生成する。
 画像メモリ150は、画像生成部140によって生成された造影像や組織像などの画像データを記憶する。また、画像メモリ150は、画像生成部140による処理結果を記憶する。さらに、画像メモリ150は、送受信部110を経た直後の出力信号や画像の輝度信号、種々の生データ、ネットワークを介して取得した画像データなどを必要に応じて記憶する。画像メモリ150が記憶する画像データのデータ形式は、後述する制御部170によりモニタ17に表示されるビデオフォーマット変換後のデータ形式であっても、Bモード処理部120及びドプラ処理部130によって生成されたRawデータである座標変換前のデータ形式でもよい。
 内部記憶部160は、超音波送受信、画像処理および表示処理を行うための制御プログラムや、診断情報(例えば、患者ID、医師の所見など)や、診断プロトコルや各種ボディマーク等の各種データを記憶する。また、内部記憶部160は、必要に応じて、画像メモリ150が記憶する画像の保管などにも使用される。なお、内部記憶部160が記憶するデータは、後述するインターフェース部180を経由して、外部の周辺装置へ転送することができる。
 また、内部記憶部160は、超音波プローブ11に取り付けられた穿刺アダプタ12から被検体Pに対して挿入される穿刺針13の位置及び向きを記憶している。例えば、内部記憶部160は、走査平面上において、超音波ビームの送信位置から5cmの位置から、超音波ビームの送信方向に対して45度の角度で穿刺針13が挿入されることを記憶する。また、内部記憶部160は、モニタ17の表示サイズを記憶している。
 制御部170は、超音波診断装置1における処理全体を制御する。具体的には、制御部170は、入力装置16を介して操作者から入力された各種指示や、内部記憶部160から読込んだ各種制御プログラムおよび各種設定情報に基づき、送受信部110、Bモード処理部120、ドプラ処理部130および画像生成部140の処理を制御したり、画像メモリ150が記憶する超音波画像データ等をモニタ17にて表示するように制御したりする。
 インターフェース部180は、入力装置16又はネットワークと、装置本体100との間での各種情報のやり取りを制御するインターフェースである。
 以上、第1の実施形態に係る超音波診断装置の全体構成について説明した。かかる構成のもと、第1の実施形態に係る超音波診断装置1は、以下、詳細に説明する処理により、超音波画像を直感的にわかりやすく表示することが可能となるように構成されている。
 ここで、従来の超音波診断装置において生成された超音波画像は、例えば、超音波プローブから送信される超音波ビームの送信方向がモニタの下方向に対応するように表示される。このため、画像における重力方向が、必ずしも表示領域の下方向に対応するように表示されるとは限らず、表示される画像は閲覧者にとって直感的にわかりにくいものとなってしまう。なお、重力方向とは、地球の重力がはたらく方向を表す。
 図2A及び図2Bは、表示領域の向きと画像の向きとの関係について説明するための図である。図2A及び図2Bには、ゴルフを行っている人物の画像が、表示装置20の表示領域に表示される場合を例示する。図2A及び図2Bにおいて、表示領域の横方向は、右方向を正の方向とし、表示領域の縦方向は、下方向を正の方向とする。
 図2Aに示すように、画像における重力方向21が表示領域の縦方向に一致する場合には、表示装置20は、ゴルフを行っている人物の画像を、閲覧者にとって直感的にわかりやすく表示することができる。これに対して、図2Bに示すように、画像における重力方向21が表示領域の縦方向に一致しない場合には、表示装置20は、ゴルフを行っている人物の画像を、閲覧者にとって直感的にわかりやすく表示できず、違和感を与えてしまう。
 図3A及び図3Bは、従来の超音波診断装置において表示される超音波画像の一例を示す図である。図3A及び図3Bには、一例として、被検体Pの腹部の断層像が、従来の超音波診断装置22のモニタに表示される場合を例示する。具体的に、図3A及び図3Bにおいて、左図は、検査台上に横たわった被検体Pの腹部の横断面と、腹部に当接される超音波プローブ23の向きとの位置関係の一例である。また、図3A及び図3Bにおいて、右図は、左図に例示した位置関係で得られる超音波画像がモニタの表示領域に表示される場合を例示する。なお、図3A及び図3Bにおいて、表示領域の横方向は、右方向を正の方向とし、表示領域の縦方向は、下方向を正の方向とする。
 図3Aの左図に示すように、超音波プローブ23が被検体Pの腹部に真上から当接された状態で超音波画像が生成される場合には、走査範囲24を走査する超音波ビームの送信方向は、実空間における重力方向21に一致している。ここで、従来の超音波診断装置22は、図3Aの右図に示すように、走査範囲24を走査する超音波ビームの送信方向を表示領域の縦方向に一致させて、生成した超音波画像を表示する。この場合、超音波画像における重力方向21が表示領域の縦方向に一致している。すなわち、走査範囲24に表示される被検体Pの断層像の向きが、実空間における被検体Pの向きに一致しているので、図3Aの超音波画像は、閲覧者にとって直感的にわかりやすく表示されている。
 一方、図3Bの左図に示すように、超音波プローブ23が被検体Pの腹部に30度の角度で当接された状態で超音波画像が生成される場合には、走査範囲24を走査する超音波ビームの送信方向25は、実空間における重力方向21に一致しておらず、30度傾いている。ここで、従来の超音波診断装置22は、図3Bの右図に示すように、走査範囲24を走査する超音波ビームの送信方向25を表示領域の縦方向に一致させて、生成した超音波画像を表示する。この場合、超音波画像における重力方向21が表示領域の縦方向に一致しておらず、30度傾いている。すなわち、走査範囲24に表示される被検体Pの断層像の向きが、実空間における被検体Pの向きと異なるので、図3Bの超音波画像は、閲覧者にとって違和感を与えてしまう可能性がある。
 このように、従来の超音波診断装置22は、超音波プローブ23の向き次第で超音波画像における重力方向を変えて表示するので、必ずしも超音波画像を直感的にわかりやすく表示できていなかった。更に、従来の超音波診断装置22は、超音波プローブ23が操作者によって動かされるごとに、超音波ビームの送信方向25が様々な角度に変化してしまうので、被検体Pの断層像の向きを様々な角度に回転させてしまう場合もあった。
 そこで、第1の実施形態に係る超音波診断装置1は、超音波画像を直感的にわかりやすく表示するために、以下に説明する表示制御部171の処理を実行する。
 表示制御部171は、検知された超音波プローブ11の向き又は穿刺針13の向きに応じて、生成された超音波画像の向きを変えて表示する。例えば、表示制御部171は、超音波プローブ11の向きをプローブ用センサ14aから受信する。或いは、表示制御部171は、穿刺針13の向きを穿刺針用センサ14bから受信する。そして、表示制御部171は、受信した超音波プローブ11の向き又は穿刺針13の向きから、超音波プローブ11の左右方向に対応する角度成分を抽出する。そして、表示制御部171は、抽出した角度成分を用いて、画像生成部140によって生成された超音波画像の走査範囲24を傾けて表示する。
 図4は、表示制御部171が抽出する角度成分について説明するための図である。図4には、プローブ用センサ14a又は穿刺針用センサ14bによって検知可能な超音波プローブ11の角度成分を例示する。図4において、超音波プローブ11から送信される超音波ビームの送信方向25をz軸とする。また、超音波プローブ11の内部でz軸を通る任意の点を原点Oとする。また、原点Oを通り、超音波プローブ11の走査範囲24に直交する方向をy軸とし、y軸及びz軸に直交する方向をx軸とする。また、x軸回りの角度をピッチ角、y軸回りの角度をロール角、z軸回りの角度をヨー角とする。このような座標系において、プローブ用センサ14aは、重力方向21に対するピッチ角、ロール角及びヨー角をそれぞれ検知し、検知した角度を超音波プローブ11の向きとして表示制御部171へ送信する。
 図4に示すように、表示制御部171は、超音波プローブ11の向きとして、重力方向21に対するピッチ角、ロール角及びヨー角をそれぞれ受信する。そして、表示制御部171は、受信した超音波プローブ11の向きのうちロール角を、超音波プローブ11の左右方向に対応する角度成分として抽出する。なお、以下では、超音波ビームの送信方向25を走査平面上で矢印26の方向に回転させる角度を正の方向とし、矢印27の方向に回転させる角度を負の方向として説明する。
 なお、図4の例では、プローブ用センサ14aが検出したピッチ角、ロール角及びヨー角を表示制御部171へ送信する場合を説明したが、実施形態はこれに限定されるものではない。例えば、プローブ用センサ14aが検出した角度のうち、ロール角のみを表示制御部171へ送信する場合であっても良い。
 また、図4の例では、プローブ用センサ14aによって検知される超音波プローブ11の向きについて説明したが、穿刺針用センサ14bによって検知される穿刺針13の向きについてもこれと同様であるので、説明を省略する。
 図5から図7は、第1の実施形態に係る表示制御部171の処理を説明するための図である。図5から図7において、左図は、検査台上に横たわった被検体Pの腹部の横断面と、腹部に当接される超音波プローブ11の向きとの位置関係の一例である。また、図5から図7において、右図は、左図に例示した位置関係で得られる超音波画像がモニタの表示領域に表示される場合を例示する。なお、図5から図7において、表示領域の横方向は、右方向を正の方向とし、表示領域の縦方向は、下方向を正の方向とする。
 図5を用いて、表示制御部171が超音波プローブ11の向きに応じて超音波画像の走査範囲24を傾けて表示する場合を説明する。図5の左図に示すように、超音波プローブ11が被検体Pの腹部に対してロール角「+30度」で当接された状態で超音波画像が生成される場合を例示する。この場合、表示制御部171は、超音波プローブ11の向きとして、ロール角「+30度」を抽出する。
 そして、図5の右図に示すように、表示制御部171は、超音波画像の走査範囲24を、ロール角「+30度」傾けてモニタ17に表示させる。具体的には、表示制御部171は、走査範囲24を走査する超音波ビームの送信方向25を、表示領域の縦方向に対してロール角「+30度」傾けて、生成した超音波画像をモニタ17に表示させる。より具体的には、表示制御部171は、画像生成部140によって生成された超音波画像データに含まれる各画素位置を座標変換することにより、モニタ17の表示領域に向かって反時計回りに30度回転させて、超音波画像をモニタ17に表示させる。この結果、超音波画像における重力方向21が表示領域の縦方向に一致することとなる。すなわち、走査範囲24に表示される被検体Pの断層像の向きが、実空間における被検体Pの向きに一致しているので(図3A参照)、図5の超音波画像は、閲覧者にとって直感的にわかりやすく表示されている。
 図6を用いて、表示制御部171が超音波プローブ11の向きに応じて、穿刺ガイドライン28が重畳された超音波画像を傾けて表示する場合を説明する。図6の左図に示すように、超音波プローブ11が被検体Pの腹部に対してロール角「+30度」で当接され、穿刺針13が超音波プローブ11に対してロール角「-45度」で取り付けられた状態で超音波画像が生成される場合を例示する。この場合、表示制御部171は、超音波プローブ11の向きとして、ロール角「+30度」を抽出する。
 そして、図6の右図に示すように、表示制御部171は、穿刺ガイドライン28が重畳された超音波画像の走査範囲24を、ロール角「+30度」傾けてモニタ17に表示させる。具体的には、表示制御部171は、走査範囲24を走査する超音波ビームの送信方向25を、表示領域の縦方向に対してロール角「+30度」傾けて、穿刺ガイドライン28が重畳された超音波画像をモニタ17に表示させる。より具体的には、表示制御部171は、穿刺ガイドライン28が重畳された超音波画像データに含まれる各画素位置を座標変換することにより、モニタ17の表示領域に向かって反時計回りに30度回転させて、穿刺ガイドライン28が重畳された超音波画像をモニタ17に表示させる。この結果、超音波画像における重力方向21が表示領域の縦方向に一致することとなる。すなわち、走査範囲24に表示される被検体Pの断層像の向きが、実空間における被検体Pの向きに一致するとともに(図3A参照)、穿刺ガイドライン28の向きも実空間における穿刺針13の挿入角度に一致するので、図6の超音波画像は、閲覧者にとって直感的にわかりやすく表示されている。
 図7を用いて、表示制御部171が穿刺針13の向きに応じて超音波画像の走査範囲24を傾けて表示する場合を説明する。図7の左図に示すように、超音波プローブ11が被検体Pの腹部に対してロール角「+30度」で当接され、穿刺針13が超音波プローブ11に対してロール角「-45度」で取り付けられた状態で超音波画像が生成される場合を例示する。すなわち、この状態において、穿刺針13は、重力方向21に対してロール角「-15度」で被検体Pの腹部に挿入される。この場合、表示制御部171は、穿刺針13の向きを穿刺針用センサ14bから受信する。例えば、表示制御部171は、穿刺針13の向きとして、穿刺針13が重力方向21に対してロール角「-15度」で挿入されることを、穿刺針用センサ14bから受信する。そして、表示制御部171は、受信した穿刺針13の向きから、ロール角「-15度」を抽出する。また、表示制御部171は、穿刺針13が超音波プローブ11に対してロール角「-45度」で挿入されることを、入力装置16から受け付ける。ここで、入力装置16は、穿刺針13を超音波プローブ11に対してロール角「-45度」で挿入する旨の指示を操作者から受け付け済みである。そして、表示制御部171は、重力方向21に対する穿刺針13のロール角「-15度」から、超音波プローブ11に対する穿刺針13のロール角「-45度」を減算することで、重力方向に対する超音波プローブ11のロール角「+30度」を算出する。
 そして、図7の右図に示すように、表示制御部171は、穿刺ガイドライン28が重畳された超音波画像の走査範囲24を、ロール角「+30度」傾けてモニタ17に表示させる。具体的には、表示制御部171は、走査範囲24を走査する超音波ビームの送信方向25を、表示領域の縦方向に対してロール角「+30度」傾けて、穿刺ガイドライン28が重畳された超音波画像をモニタ17に表示させる。より具体的には、表示制御部171は、穿刺ガイドライン28が重畳された超音波画像データに含まれる各画素位置を座標変換することにより、モニタ17の表示領域に向かって反時計回りに30度回転させて、穿刺ガイドライン28が重畳された超音波画像をモニタ17に表示させる。この結果、超音波画像における重力方向21が表示領域の縦方向に一致することとなる。すなわち、走査範囲24に表示される被検体Pの断層像の向きが、実空間における被検体Pの向きに一致するとともに(図3A参照)、穿刺ガイドライン28の向きも実空間における穿刺針13の挿入角度に一致するので、図7の超音波画像は、閲覧者にとって直感的にわかりやすく表示されている。
 このように、表示制御部171は、超音波プローブ11の向き又は穿刺針13の向きから、超音波プローブ11の左右方向に対応する角度成分を抽出し、抽出した角度成分を用いて、超音波画像の走査範囲24を傾けて表示する。
 図8は、第1の実施形態に係る超音波診断装置1の処理手順を示すフローチャートである。図8に示すように、第1の実施形態に係る超音波診断装置1においては、画像生成部140は、超音波画像データを生成する(ステップS101)。そして、プローブ用センサ14a又は穿刺針用センサ14bは、超音波プローブ11の向き又は穿刺針13の向きを検知する(ステップS102)。そして、表示制御部171は、超音波プローブ11の向き又は穿刺針13の向きに応じて、超音波画像の向きを変えて表示する(ステップS103)。
 上述してきたように、第1の実施形態に係る超音波診断装置1は、超音波プローブによって受信された反射波に基づいて、超音波画像を生成する。そして、超音波診断装置1は、実空間における超音波プローブ11の向き、又は、穿刺針13の向きを検知する。そして、超音波診断装置1は、超音波プローブ11の向き又は穿刺針13の向きに応じて、生成した超音波画像の向きを変えて表示する。このため、超音波診断装置1は、超音波画像を直感的にわかりやすく表示することができる。
 また、例えば、超音波診断装置1は、超音波プローブ11が操作者によって動かされるごとに、その動きに対応するロール角で超音波画像の向きを傾けて表示する。このため、超音波診断装置1は、超音波プローブ11がどの向きに向けられたとしても、走査範囲24に表示される被検体Pの断層像の向きを実空間における被検体Pの向きに一致させて表示するので、閲覧者にとって直感的にわかりやすく表示することができる。
 なお、第1の実施形態に係る超音波診断装置1は、必ずしも、図1に示した全ての構成を有していなくても良い。具体的には、超音波診断装置1は、超音波プローブ11の向きに応じて超音波画像の走査範囲24を傾けて表示する処理を実現する場合には(図5の処理)、穿刺アダプタ12、穿刺針13及び穿刺針用センサ14bを有していなくても良い。また、超音波診断装置1は、穿刺ガイドライン28が重畳された超音波画像を傾けて表示する処理を実現する場合には(図6の処理)、穿刺針用センサ14bを有していなくても良い。また、超音波診断装置1は、穿刺針13の向きに応じて超音波画像の走査範囲24を傾けて表示する処理を実現する場合には(図6の処理)、プローブ用センサ14aを有していなくても良い。
(第2の実施形態)
 第1の実施形態では、穿刺アダプタ12を用いて穿刺が行われる場合を説明したが、実施形態はこれに限定されるものではない。例えば、超音波診断装置1は、穿刺アダプタ12を用いることなく穿刺を行う場合、すなわち、フリー穿刺を行う場合にも、超音波画像の向きを変えることができる。そこで、第2の実施形態では、超音波診断装置1が、フリー穿刺を行う場合に、超音波画像の向きを変える処理について説明する。
 第2の実施形態に係る超音波診断装置1の構成は、図1において説明した超音波診断装置1の構成と基本的に同様であるが、プローブ用センサ14a及び穿刺針用センサ14bを両方とも有する点と、画像生成部140及び表示制御部171によって行われる処理の一部が相違する。そこで、第2の実施形態では、第1の実施形態と相違する点について説明することとし、同様の点については説明を省略する。
 第2の実施形態に係る画像生成部140は、第1の実施形態において説明した機能と同様の機能を有する。更に、第2の実施形態に係る画像生成部140は、超音波プローブ11の位置及び向きと、穿刺針13の位置及び向きとを用いて、穿刺針13の穿刺経路を表す穿刺ガイドライン28を超音波プローブ11の走査範囲に重畳させた超音波画像を生成する。
 例えば、画像生成部140は、超音波プローブ11の位置及び向きをプローブ用センサ14aから取得するとともに、穿刺針13の位置及び向きを穿刺針用センサ14bから取得する。そして、画像生成部140は、穿刺針13の位置を走査平面上に投影することで、穿刺ガイドライン28を表示するための画像データを生成する。続いて、画像生成部140は、走査範囲24において、走査平面と穿刺ガイドライン28との交点を算出する。そして、画像生成部140は、走査範囲24の走査平面(交点)よりも手前側にある穿刺ガイドライン28を実線で表示し、奥側にある穿刺ガイドライン28を破線で表示するように、穿刺ガイドライン28を走査範囲24に重畳させた超音波画像を生成する。なお、ここで、交点が算出されるのは、フリー穿刺では、必ずしも穿刺針13が走査平面上にあるとは限らないからである。
 図9は、第2の実施形態に係る表示制御部171の処理を説明するための図である。図9において、左図は、検査台上に横たわった被検体Pの腹部の横断面と、腹部に当接される超音波プローブ11の向きとの位置関係の一例である。また、図9において、右図は、左図に例示した位置関係で得られる超音波画像がモニタの表示領域に表示される場合を例示する。なお、図9において、表示領域の横方向は、右方向を正の方向とし、表示領域の縦方向は、下方向を正の方向とする。
 図9の左図に示すように、超音波プローブ11が被検体Pの腹部に対してロール角「+30度」で当接された状態で超音波画像が生成される場合を例示する。この場合、表示制御部171は、超音波プローブ11の向きとして、ロール角「+30度」を抽出する。
 そして、図9の右図に示すように、表示制御部171は、穿刺ガイドライン28が重畳された超音波画像の走査範囲24を、ロール角「+30度」傾けてモニタ17に表示させる。この結果、超音波画像における重力方向21が表示領域の縦方向に一致することとなる。すなわち、走査範囲24に表示される被検体Pの断層像の向きが、実空間における被検体Pの向きに一致するとともに(図3A参照)、穿刺ガイドライン28の向きも実空間における穿刺針13の挿入角度に一致するので、図9の超音波画像は、閲覧者にとって直感的にわかりやすく表示されている。
 なお、ここでは、表示制御部171が超音波プローブ11の向きを用いて超音波画像を傾けて表示する場合を説明したが、実施形態はこれに限定されるものではない。例えば、表示制御部171は、穿刺針13の向きと、超音波プローブ11及び穿刺針13の位置関係を用いて、超音波画像を傾けて表示しても良い。ここで、超音波プローブ11及び穿刺針13の位置関係とは、超音波プローブ11の位置及び向きと、穿刺針13の位置及び向きとから算出可能である。
 上述してきたように、第2の実施形態に係る超音波診断装置1は、プローブ用センサ14aを用いて、重力方向に対する超音波プローブ11の位置及び向きを検知するとともに、穿刺針用センサ14bを用いて、重力方向に対する穿刺針13の位置及び向きを検知する。そして、超音波診断装置1は、超音波プローブ11の位置及び向きと、穿刺針13の位置及び向きとを用いて、穿刺針13の穿刺経路を表す穿刺ガイドライン28を超音波プローブ11の走査範囲24に重畳させた超音波画像を生成する。そして、超音波診断装置1は、超音波プローブ11の向き又は穿刺針13の向きを用いて、超音波画像を傾けて表示する。このため、超音波診断装置1は、フリー穿刺が行われる場合にも、超音波画像を直感的にわかりやすく表示することができる。
(第3の実施形態)
 上述した実施形態では、超音波画像が実空間における向きで表示される場合を説明したが、実施形態はこれに限定されるものではない。例えば、超音波診断装置1は、穿刺ガイドラインの向きが操作者の任意の表示角度になるように、超音波画像を傾けて表示することができる。そこで、第3の実施形態では、超音波診断装置1が、穿刺ガイドラインの向きが操作者の任意の表示角度になるように、超音波画像を傾けて表示する場合について説明する。
 第3の実施形態に係る超音波診断装置1の構成は、図1において説明した超音波診断装置1の構成と基本的に同様であるが、プローブ用センサ14a及び穿刺針用センサ14bを両方とも有していなくても良い点が相違する。そこで、第3の実施形態では、第1の実施形態と相違する点について説明することとし、同様の点については説明を省略する。
 第3の実施形態に係る入力装置16は、穿刺針13の穿刺経路を表す穿刺ガイドライン28を表示する表示角度の指示を操作者から受け付ける。例えば、入力装置16は、穿刺ガイドライン28を、表示領域の縦方向に対してロール角「-45度」で表示する旨の指示を操作者から受け付ける。そして、入力装置16は、操作者によって指示された表示角度を表示制御部171へ送信する。
 また、入力装置16は、第1の実施形態と同様に、超音波プローブ11に対して穿刺針13を所定の位置及び向きで挿入する旨の指示を操作者から受け付ける。例えば、入力装置16は、超音波ビームの送信位置から5cmの位置から、超音波プローブ11に対してロール角「-60度」で穿刺針13が取り付けられている旨の指示を操作者から受け付ける。そして、入力装置16は、操作者によって指示された超音波プローブ11に対する穿刺針13の位置及び向きを表示制御部171へ送信する。
 第3の実施形態に係る表示制御部171は、指示された表示角度に応じて、超音波画像を傾けて表示する。
 図10は、第3の実施形態に係る表示制御部171の処理を説明するための図である。図10において、左図は、検査台上に横たわった被検体Pの腹部の横断面と、腹部に当接される超音波プローブ11の向きとの位置関係の一例である。また、図10において、右図は、左図に例示した位置関係で得られる超音波画像がモニタの表示領域に表示される場合を例示する。なお、図10において、表示領域の横方向は、右方向を正の方向とし、表示領域の縦方向は、下方向を正の方向とする。
 図10の左図に示すように、穿刺針13が超音波プローブ11に対してロール角「-60度」で取り付けられた状態で超音波画像が生成される場合を例示する。この場合、表示制御部171は、穿刺ガイドライン28を表示領域の縦方向に対してロール角「-45度」で表示する旨の指示と、超音波プローブ11に対してロール角「-60度」で穿刺針13が取り付けられている旨の指示とを入力装置16から受信する。
 そして、図10の右図に示すように、表示制御部171は、穿刺ガイドライン28が表示領域の縦方向に対してロール角「-45度」になるように、穿刺ガイドライン28が重畳された超音波画像を傾けてモニタ17に表示させる。具体的には、表示制御部171は、超音波ビームの送信方向に対してロール角「-60度」で穿刺針13が取り付けられているので、超音波画像の走査範囲24をロール角「+15度」傾けて表示する。
 上述してきたように、第3の実施形態に係る超音波診断装置1は、穿刺針13の穿刺経路を表す穿刺ガイドライン28を表示する表示角度の指示を操作者から受け付ける。そして、超音波診断装置1は、穿刺ガイドライン28を超音波プローブ11の走査範囲24に重畳させた超音波画像を生成する。そして、超音波診断装置1は、指示された表示角度に応じて、超音波画像の走査範囲を傾けて表示する。このため、第2の実施形態に係る超音波診断装置1は、穿刺ガイドラインの向きが操作者の任意の表示角度になるように、超音波画像を傾けて表示することができる。
 なお、第3の実施形態においては、プローブ用センサ14a及び穿刺針用センサ14bを両方とも有していない場合を説明したが、両方を有していても良い。この場合、超音波診断装置1は、フリー穿刺が行われる場合の超音波画像(図9に例示の超音波画像)を、穿刺ガイドラインの向きが操作者の任意の表示角度になるように、傾けて表示することができる。
 すなわち、超音波診断装置1は、プローブ用センサ14aを用いて、重力方向に対する当該超音波プローブ11の位置及び向きを検知するとともに、穿刺針用センサ14bを用いて、重力方向に対する穿刺針13の位置及び向きを検知する。そして、超音波診断装置1は、超音波プローブ11の位置及び向きと、穿刺針13の位置及び向きとを用いて、穿刺針13の穿刺経路を表す穿刺ガイドライン28を超音波プローブ11の走査範囲24に重畳させた超音波画像を生成する。そして、超音波診断装置1は、超音波プローブ11の位置及び向き、穿刺針13の位置及び向き、及び、指示された表示角度に応じて、超音波画像の走査範囲24を傾けて表示する。
(第4の実施形態)
 上述した実施形態では、超音波画像の向きを変えて表示する場合を説明したが、実施形態はこれに限定されるものではない。例えば、超音波診断装置1は、超音波画像の向きを変えて表示する場合に、他の種類の画像の向きを変えて並べて表示しても良い。そこで、第4の実施形態では、超音波診断装置1が、超音波画像の向きを変えて表示する場合に、他の種類の画像の向きを変えて並べて表示する場合について説明する。
 第4の実施形態に係る超音波診断装置1の構成は、図1において説明した超音波診断装置1の構成と基本的に同様であるが、表示制御部171における処理の一部が相違する。そこで、第4の実施形態では、第1の実施形態と相違する点について説明することとし、同様の点については説明を省略する。
 第4の実施形態に係る表示制御部171は、生成した超音波画像と、生成した超音波画像とは異なる他の種類の画像との位置合わせを行い、生成した超音波画像の向きを変えて表示する場合に、位置合わせを行った他の種類の画像の向きを変えて表示する。
 図11から図13は、第4の実施形態に係る表示制御部171の処理を説明するための図である。図11から図13において、左図は、検査台上に横たわった被検体Pの腹部の横断面と、腹部に当接される超音波プローブ11の向きとの位置関係の一例である。また、図11から図13において、右図は、左図に例示した位置関係で得られる超音波画像と、その超音波画像に対応する2次元X線CT(Computed Tomography)画像(以下、CT画像と略記)29がモニタ17の表示領域に表示される場合を例示する。なお、図11から図13において、表示領域の横方向は、右方向を正の方向とし、表示領域の縦方向は、下方向を正の方向とする。
 図11を用いて、表示制御部171が位置合わせを行う処理について説明する。図11に示すように、表示制御部171は、例えば、超音波プローブ11が被検体Pの腹部に真上から当接された状態で生成された超音波画像と、略同一断面のCT画像29とをモニタ17に表示させる。ここで、モニタ17に表示されるCT画像29は、検査対象となる被検体Pのターゲット部位が撮影されたX線CTボリュームデータからMPR処理により生成される一断面である。例えば、操作者は、ターゲット部位が描出されたCT画像29がモニタ17に表示されるように、入力装置16を介してMPR処理用の切断面の位置を調整する。そして、表示制御部171は、操作者が調節した切断面(以下、初期断面)によりX線CTボリュームデータを切断したCT画像29を画像生成部140に生成させ、CT画像29をモニタ17に表示させる。
 また、操作者は、モニタ17に表示された超音波画像と略同一断面のCT画像29が表示されるように、X線CTボリュームデータにおける初期断面の位置を再調整する。そして、操作者は、モニタ17に表示されたCT画像29と超音波画像とが略同一断面であると判断した場合、入力装置16を用いて確定ボタンを押下する。表示制御部171は、確定ボタンが押下された時点でプローブ用センサ14aから取得した超音波プローブ11の3次元位置情報を初期位置情報と設定する。また、表示制御部171は、確定ボタンが押下された時点でのX線CTボリュームデータにおける初期断面の位置を、最終的な初期断面の位置として決定する。なお、ここでは、操作者によって確定ボタンが押下されることで位置合わせが行われる場合を例示したが、実施形態はこれに限定されるものではなく、超音波画像と略同一断面のCT画像29を自動的に抽出し、位置合わせを行う場合であっても良い。
 その後、表示制御部171は、プローブ用センサ14aから取得した超音波プローブ11の実空間における位置及び向きと初期位置情報とから、超音波プローブ11の走査断面に関する移動情報を取得し、取得した移動情報に基づいて初期断面の位置を変更することで、MPR用の切断面を再設定する。そして、表示制御部171は、再設定した切断面によりX線CTボリュームデータからCT画像29を画像生成部140に生成させ、CT画像29と超音波画像とを並列させた画像データを生成する。これにより、表示制御部171は、超音波画像と、その超音波画像と略同一断面のCT画像29とを、モニタ17の画面に同時に表示する。
 図12を用いて、表示制御部171が超音波画像の向きを変えて表示する場合に、位置合わせを行った他の種類の画像の向きを変えて表示する処理について説明する。図12の左図に示すように、超音波プローブ11が被検体Pの腹部に対してロール角「+30度」で当接された状態で超音波画像が生成される場合を例示する。この場合、表示制御部171は、超音波プローブ11の向きとして、ロール角「+30度」を抽出する。
 そして、図12の右図に示すように、表示制御部171は、超音波画像の走査範囲24を、ロール角「+30度」傾けてモニタ17に表示させる場合に、位置合わせを行った略同一断面のCT画像29の向きを連動させて傾ける。この結果、超音波画像における重力方向21及びCT画像29における21が表示領域の縦方向にそれぞれ一致することとなる。すなわち、超音波画像及びCT画像29に表示される被検体Pの断層像の向きが、実空間における被検体Pの向きに一致しているので、図12の超音波画像及びCT画像29は、閲覧者にとって直感的にわかりやすく表示されている。
 これに対して、図13には、表示制御部171が超音波画像の向きを変えずに表示する場合を例示する。図13の左図に示すように、超音波プローブ11が被検体Pの腹部に対してロール角「+30度」で当接された状態で超音波画像が生成される場合を例示する。この場合、図13の右図に示すように、超音波画像及びCT画像29に表示される被検体Pの断層像の向きが、実空間における被検体Pの向きと異なるので、図13の超音波画像及びは、閲覧者にとって違和感を与えてしまう可能性がある。
 上述してきたように、第4の実施形態に係る超音波診断装置1は、超音波画像と、超音波画像とは異なる他の種類の画像との位置合わせを行い、超音波画像の向きを変えて表示する場合に、位置合わせを行った他の種類の画像の向きを変えて表示する。このため、超音波診断装置1は、超音波画像と位置合わせが行われた画像についても、直感的にわかりやすく表示することができる。
 なお、第4の実施形態では、超音波画像と、CT画像29とを連動させて向きを変えて表示する場合を説明したが、これに限定されるものではない。例えば、第4の実施形態に係る超音波診断装置1は、PET(Positron Emission Tomography)画像やMR(Magnetic Resonance)画像等の他の医用画像と、超音波画像との位置合わせを行って、両者を連動させて向きを変えて表示しても良い。また、例えば、超音波診断装置1は、超音波画像とは異なる所定の画像との位置合わせを行い、両者を連動させて向きを変えて表示しても良い。具体例を挙げると、超音波診断装置1は、超音波画像と、代表的な症例の超音波画像や同一患者の過去の超音波画像等と位置合わせを行って、両者を連動させて向きを変えて表示しても良い。例えば、超音波診断装置1は、超音波画像と、病変部位と他の部位との間の解剖学的な位置関係が描出されたイラストと位置合わせを行って、両者を連動させて向きを変えて表示しても良い。また、超音波診断装置1は、3つ以上の画像を連動させても良い。
(第5の実施形態)
 また、例えば、超音波診断装置1は、フリー穿刺において、穿刺ガイドラインの向きが操作者の任意の表示角度になるように、超音波画像を傾けて表示しても良い。そこで、第5の実施形態では、超音波診断装置1が、フリー穿刺において、穿刺ガイドラインの向きが操作者の任意の表示角度になるように、超音波画像を傾けて表示する場合について説明する。
 第5の実施形態に係る超音波診断装置1の構成は、図1において説明した超音波診断装置1の構成と基本的に同様であるが、プローブ用センサ14a及び穿刺針用センサ14bを両方とも有する点と、入力装置16、画像生成部140、及び表示制御部171によって行われる処理の一部が相違する。そこで、第5の実施形態では、第1の実施形態と相違する点について説明することとし、同様の点については説明を省略する。
 第5の実施形態に係る入力装置16は、穿刺針13の穿刺経路を表す穿刺ガイドライン28を表示する表示角度の指示を操作者から受け付ける。例えば、入力装置16は、穿刺ガイドライン28を、表示領域の縦方向に対してロール角「0度」で表示する旨の指示を操作者から受け付ける。そして、入力装置16は、操作者によって指示された表示角度を表示制御部171へ送信する。
 第5の実施形態に係る画像生成部140は、第2の実施形態において説明した機能と同様の機能を有する。すなわち、第5の実施形態に係る画像生成部140は、超音波プローブ11の位置及び向きと、穿刺針13の位置及び向きとを用いて、穿刺針13の穿刺経路を表す穿刺ガイドライン28を超音波プローブ11の走査範囲に重畳させた超音波画像を生成する。
 第5の実施形態に係る表示制御部171は、指示された表示角度に応じて、超音波画像を傾けて表示する。
 図14A及び図14Bは、第5の実施形態に係る画像生成部140及び表示制御部171の処理を説明するための図である。図14A及び図14Bでは、フリー穿刺において、穿刺ガイドラインの向きが表示領域の縦方向に対してロール角「0度」になるように、超音波画像を傾けて表示する場合を説明する。具体的には、図14A及び図14Bでは、フリー穿刺が行われている最中に、超音波プローブ11の位置及び向きが、ロール角「30度」の状態(図14A)からロール角「0度」の状態(図14B)に変化する場合を説明する。図14A及び図14Bにおいて、左図は、検査台上に横たわった被検体Pの腹部の横断面と、腹部に当接される超音波プローブ11の位置及び向きと、被検体Pに挿入される穿刺針13の位置及び向きとの位置関係の一例である。また、図14A及び図14Bにおいて、右図は、左図に例示した位置関係で得られる超音波画像がモニタの表示領域に表示される場合を例示する。なお、図14A及び図14Bにおいて、表示領域の横方向は、右方向を正の方向とし、表示領域の縦方向は、下方向を正の方向とする。
 図14Aの左図を用いて、画像生成部140の処理を説明する。例えば、画像生成部140は、超音波プローブ11の位置及び向き(ロール角「30度」)をプローブ用センサ14aから取得するとともに、穿刺針13の位置及び向き(ロール角「-30度」)を穿刺針用センサ14bから取得する。そして、画像生成部140は、超音波プローブ11と穿刺針13との位置関係に基づいて、走査範囲24に対する穿刺ガイドライン28の角度を算出する。図14Aの左図に示す例では、超音波プローブ11は重力方向21に対してロール角「30度」で被検体Pの腹部に当接されており、穿刺針13は重力方向21に対してロール角「-30度」で被検体Pの腹部に挿入されている。この場合、画像生成部140は、走査範囲24を走査する超音波ビームの送信方向25に対する穿刺ガイドライン28の角度がロール角「-60度」であると算出する。続いて、画像生成部140は、走査範囲24において、走査平面と穿刺ガイドライン28との交点を算出する。ここで、交点が算出されるのは、フリー穿刺では、必ずしも穿刺針13が走査平面上にあるとは限らず、穿刺針13が走査平面に交差している場合があるからである。そして、画像生成部140は、走査範囲24の走査平面(交点)よりも手前側にある穿刺ガイドライン28を実線で表示し、奥側にある穿刺ガイドライン28を破線で表示するように、穿刺ガイドライン28を走査範囲24に重畳させた超音波画像を生成する(図14Aの右図)。この超音波画像において、超音波ビームの送信方向25に対する穿刺ガイドライン28の角度は、「-60度」である。
 続いて、図14Aの右図を用いて、表示制御部171の処理を説明する。表示制御部171は、穿刺ガイドライン28を表示領域の縦方向に対してロール角「0度」(表示角度)で表示する旨の指示を入力装置16から受信する。そして、表示制御部171は、画像生成部140によって生成された超音波画像を、穿刺ガイドライン28が表示領域の縦方向に対してロール角「0度」になるように傾けてモニタ17に表示させる。
 ここで、超音波プローブ11の位置及び向きが、ロール角「30度」の状態(図14Aの左図)からロール角「0度」の状態(図14Bの左図)に変化した場合には、画像生成部140及び表示制御部171は、以下のように処理を行う。
 図14Bの左図を用いて、画像生成部140の処理を説明する。画像生成部140は、超音波プローブ11の位置及び向き(ロール角「0度」)をプローブ用センサ14aから取得するとともに、穿刺針13の位置及び向き(ロール角「-30度」)を穿刺針用センサ14bから取得する。図14Bの左図に示す例では、超音波プローブ11は重力方向21に対してロール角「0度」で被検体Pの腹部に当接されており、穿刺針13は重力方向21に対してロール角「-30度」で被検体Pの腹部に挿入されている。この場合、画像生成部140は、走査範囲24を走査する超音波ビームの送信方向25に対する穿刺ガイドライン28の角度がロール角「-30度」であると算出し、上述の処理と同様に、穿刺ガイドライン28を走査範囲24に重畳させた超音波画像を生成する。この超音波画像において、超音波ビームの送信方向25に対する穿刺ガイドライン28の角度は、「-30度」である。
 続いて、図14Bの右図を用いて、表示制御部171の処理を説明する。表示制御部171は、画像生成部140によって生成された超音波画像を、穿刺ガイドライン28が表示領域の縦方向に対してロール角「0度」(表示角度)になるように傾けてモニタ17に表示させる。
 このように、第5の実施形態に係る超音波診断装置1は、フリー穿刺において、穿刺ガイドラインの向きが操作者の任意の表示角度になるように、超音波画像を傾けて表示することができる。例えば、超音波診断装置1は、フリー穿刺において、超音波プローブ11の位置及び向きがロール角「30度」の状態(図14Aの左図)からロール角「0度」の状態(図14Bの左図)に変化した場合にも、穿刺ガイドライン28の向きを一定の角度で表示することができる(図14Aの右図及び図14Bの右図)。このため、超音波診断装置1は、フリー穿刺においても穿刺ガイドラインを基準とし、超音波画像を直感的にわかりやすく表示することができる。
(第6の実施形態)
 さて、これまで第1から第5の実施形態について説明したが、上述した実施形態以外にも、種々の異なる形態にて実施されてもよい。
(医用画像処理装置)
 上述した実施形態では、超音波診断装置1が、生成した超音波画像の向きを、超音波プローブ11の向き又は穿刺針13の向きに応じて傾けて表示する場合を説明したが、実施形態はこれに限定されるものではない。例えば、医用画像処理装置が、超音波診断装置1によって生成された超音波画像を再生する場合に、超音波プローブ11の向き又は穿刺針13の向きに応じて超音波画像を傾けて表示することもできる。
 図15は、第6の実施形態に係る医用情報システムの構成を説明するための図である。図15に示すように、第6の実施形態に係る医用情報システムは、超音波診断装置1と、医用画像診断装置2と、医用画像保管装置3と、医用画像処理装置4とを備える。各装置は、例えば、病院内に設置された院内LAN(Local Area Network)2により、直接的又は間接的に相互に通信可能な状態となっている。例えば、医用情報システムにPACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像データ等を相互に送受信する。
 医用画像診断装置2は、X線診断装置、X線CT装置、MRI装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT-CT装置、PET装置とX線CT装置とが一体化されたPET-CT装置、検体検査装置等の装置である。例えば、医用画像診断装置2は、被験者を撮影する撮影技師からの操作に応じて被験者を撮影し、医用画像データや検査結果を生成する。
 医用画像保管装置3は、医用画像データを保管する装置である。例えば、医用画像保管装置3は、医用画像データを記憶するデータベースを備え、医用画像診断装置2により生成された医用画像データや検査結果をデータベースに格納し、これを保管する。
 医用画像処理装置4は、医用画像データに対して画像処理を行う画像処理装置である。例えば、医用画像処理装置4は、医用画像保管装置3から医用画像データや検査結果を取得し、取得した医用画像データや検査結果をモニタに表示する。
 図15に示すように、医用画像処理装置4は、取得部4aと、表示制御部4bと、画像データ記憶部4cとを備える。
 取得部4aは、超音波診断装置1において生成された超音波画像データを取得し、これを画像データ記憶部4cに格納する。例えば、取得部4aは、超音波画像と、超音波画像が生成された時の超音波プローブ11の向き、又は、穿刺針13の向きとを取得する。そして、取得部4aは、取得した超音波画像と、超音波画像が生成された時の超音波プローブ11の向き、又は、穿刺針13の向きとをフレームごとに対応付けて、画像データ記憶部4cに格納する。
 表示制御部4bは、超音波診断装置1によって生成された超音波画像を、その超音波画像が生成されたタイミングの超音波プローブ11の向き又は穿刺針13の向きに応じて傾けて表示する。なお、表示制御部4bは、図1において説明した表示制御部171と同様の機能を有する。
 画像データ記憶部4cは、超音波画像と、超音波画像が生成された時の超音波プローブ11の向き、又は、穿刺針13の向きとをフレームごとに対応付けて記憶する。
 これにより、第6の実施形態に係る医用画像処理装置4は、超音波診断装置1において生成された超音波画像を、直感的にわかりやすく表示することができる。
 なお、図15にて説明した内容は、あくまで一例に過ぎない。例えば、第2の実施形態にて説明したように、フリー穿刺が行われた場合には、超音波プローブ11の位置及び向きと、穿刺針13の位置及び向きとをフレームごとに記憶しても良い。具体的には、取得部4aは、超音波画像と、超音波画像が生成された時の超音波プローブ11の位置及び向きと、穿刺針13の位置及び向きとを取得する。そして、取得部4aは、取得した超音波画像と、超音波画像が生成された時の超音波プローブ11の位置及び向きと、穿刺針13の位置及び向きとをフレームごとに対応付けて、画像データ記憶部4cに格納する。このため、超音波診断装置1は、フリー穿刺が行われる場合にも、超音波画像を直感的にわかりやすく表示するとともに、その時の穿刺針13の位置及び向きを表示することができる。
 また、例えば、画像データ記憶部4cは、必ずしもフレームごとに、超音波画像が生成された時の超音波プローブ11の向き、又は、穿刺針13の向きを記憶しなくても良い。つまり、画像データ記憶部4cは、所定の期間に含まれる複数フレームの超音波画像データに対応づけて、所定の期間における超音波プローブ11の向き又は穿刺針13の向きを記憶しても良い。この場合、表示制御部4bは、画像データ記憶部4cに記憶された超音波プローブ11の向き又は穿刺針13の向きに応じて、所定の期間に含まれる複数フレームの超音波画像の向きを変えて表示する。
 具体的には、例えば、穿刺が行われている間には、超音波プローブ11の向きや穿刺針13の向きは一定の角度に保たれる場合が多い。つまり、穿刺が行われている間、時系列で並ぶ複数フレームの超音波画像データに対応づけられた超音波プローブ11の向きや穿刺針13の向きは、ほぼ同一の角度である。このような場合には、これら複数フレームの超音波画像データに対して、唯一の超音波プローブ11の向き、又は、唯一の穿刺針13の向きを記憶しても良い。例えば、医用画像処理装置4において、取得部4aは、複数フレームの超音波画像データにそれぞれ対応づけられた超音波プローブ11の向きの平均角度(平均値)を算出する。そして、取得部4aは、複数フレームの超音波画像データと、算出した平均角度とを対応づけて、画像データ記憶部4cに格納する。これにより、例えば、医用画像処理装置4は、記憶すべきデータ量を低減したり、表示にかかる処理付加を低減したりすることができる。なお、複数フレームの超音波画像データに対応づけられる超音波プローブ11の向きや穿刺針13の向きが同一の角度となるのは、穿刺に限らず、医師が他の処置を行う場合や一定時間観察する場合などであっても良い。
 すなわち、医用画像診断装置2において、画像データ記憶部4cは、超音波画像と、超音波プローブ11の向き又は被検体に挿入される穿刺針の向きとを対応付けて記憶する。表示制御部4bは、画像データ記憶部4cに記憶された超音波プローブ11の向き又は穿刺針13の向きに応じて、超音波画像の向きを変えて表示する。
(並列表示)
 また、例えば、超音波診断装置1は、超音波プローブ11の向き又は穿刺針13の向きに応じて超音波画像の向きを変えた場合の画像と、変える前の画像とを、同時に並列表示しても良い。具体例を挙げると、超音波診断装置1は、図5の右図と、図3Bの右図とを同時に並列表示しても良い。
(穿刺ガイドレールを備える超音波プローブ)
 また、上述した実施形態では、穿刺アダプタ12を用いることで、超音波プローブ11に対して穿刺針13を所定の位置及び向きで取り付ける場合を説明したが、実施形態はこれに限定されるものではない。例えば、超音波プローブ11が穿刺ガイドレールを備える場合であっても良い。この穿刺ガイドレールは、超音波プローブ11に対して所定の位置及び向きで備えられている。このため、超音波診断装置1において、穿刺ガイドレールを備える超音波プローブ11を用いることで、穿刺アダプタ12を用いることなく、超音波プローブ11に対して穿刺針13を所定の位置及び向きで取り付けることが可能となる。なお、穿刺ガイドレールは、挿入部とも称される。
(画像処理による穿刺針の検知)
 上述した実施形態では、超音波プローブ11や穿刺針13に設けられたセンサによって穿刺針13の向きを検知する場合を説明したが、超音波画像上に描出される穿刺針の向きを画像処理によって検知し、その方向に応じて超音波画像の向きを変えて表示しても良い。具体的には、例えば超音波診断装置1又は医用画像処理装置4は、図示しない画像処理部を備える。当該画像処理部は、超音波画像における所定の閾値以上の輝度値を有する部分を穿刺針13に係る像と認識し、当該超音波画像における穿刺針13の向きを検知する。表示制御部171は、当該画像処理部によって検知された穿刺針13の向きと、操作者によって予め設定された表示角度と、が実質的に一致するように、当該超音波画像の向きを変えて所定の表示手段に表示させる。この場合、超音波プローブ11や穿刺針13にセンサを設ける必要はなく、超音波プローブ11や穿刺針13の構成をより簡略化することができる。
 以上説明した少なくともひとつの実施形態によれば、超音波画像を直感的にわかりやすく表示することができる。
 以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。
 例えば、図1に例示した超音波診断装置1の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く超音波診断装置1が有することを要しない。すなわち、超音波診断装置1の各構成要素の分散・統合の具体的形態は図示のものに限定されるものではない。一例としては、第4の実施形態に係る表示制御部171において、位置合わせを行う処理は、表示制御部171とは異なる処理部が実行することとしても良い。 

Claims (9)

  1.  超音波プローブによって受信された反射波に基づいて、超音波画像を生成する生成部と、
     被検体に挿入される穿刺針の向きを検知する検知部と、
     検知された前記穿刺針の向きに応じて、生成された超音波画像の向きを変えて表示する表示制御部と、
     を備える、超音波診断装置。
  2.  前記検知部は、前記穿刺針の向きとして、実空間における、前記超音波プローブに装着された穿刺アダプタ又は前記超音波プローブの挿入部から挿入される穿刺針の向きを検知し、
     前記表示制御部は、前記穿刺針の向きと、前記超音波プローブに対する前記穿刺アダプタ又は前記挿入部の向きとを用いて、前記超音波画像の向きを変えて表示する、請求項1に記載の超音波診断装置。
  3.  前記検知部は、超音波プローブに設置されたセンサを用いて、重力方向に対する当該超音波プローブの位置及び向きを検知するとともに、穿刺針に設置されたセンサを用いて、重力方向に対する当該穿刺針の位置及び向きを検知し、
     前記生成部は、前記超音波プローブの位置及び向きと、前記穿刺針の位置及び向きとを用いて、当該穿刺針の穿刺経路を表す穿刺ガイドラインを前記超音波プローブの走査範囲に重畳させた超音波画像を生成する、請求項1に記載の超音波診断装置。
  4.  前記生成部は、前記超音波画像として、前記穿刺針の穿刺経路を表す穿刺ガイドラインを前記超音波プローブの走査範囲に重畳させた超音波画像を生成する、請求項1に記載の超音波診断装置。
  5.  前記穿刺ガイドラインを表示する表示角度の指示を操作者から受け付ける受付部を更に備え、
     前記表示制御部は、前記表示角度で前記穿刺ガイドラインが表示されるように、当該穿刺ガイドラインが重畳された前記超音波画像の向きを変えて表示する、請求項3又は4に記載の超音波診断装置。
  6.  超音波プローブによって受信された反射波に基づいて、超音波画像を生成する生成部と、
     前記超音波プローブの向き又は被検体に挿入される穿刺針の向きを検知する検知部と、
     前記超音波画像と、前記超音波画像とは異なる所定の画像との位置合わせを行い、前記検知部によって検知された前記超音波プローブの向き又は前記穿刺針の向きに応じて、前記超音波画像及び前記所定の画像の向きを変えて表示する表示制御部と、
     を備える、超音波診断装置。
  7.  超音波画像と、超音波プローブの向き又は被検体に挿入される穿刺針の向きとを対応付けて記憶する記憶部と、
     前記記憶部に記憶された前記超音波プローブの向き又は前記穿刺針の向きに応じて、前記超音波画像の向きを変えて表示する表示制御部と、
     を備えることを特徴とする医用画像処理装置。
  8.  前記記憶部は、前記超音波画像と、当該超音波画像が生成された時の前記超音波プローブの向き又は前記穿刺針の向きとをフレームごとに対応付けて記憶し、
     前記表示制御部は、前記超音波画像のフレームごとに対応づけられた前記超音波プローブの向き又は前記穿刺針の向きに応じて、前記超音波画像の向きを変えて表示する、請求項7に記載の医用画像処理装置。
  9.  前記記憶部は、所定の期間に含まれる複数フレームの超音波画像と、当該所定の期間における前記超音波プローブの向き又は前記穿刺針の向きとを対応付けて記憶し、
     前記表示制御部は、前記記憶部に記憶された前記超音波プローブの向き又は前記穿刺針の向きに応じて、前記所定の期間に含まれる複数フレームの超音波画像の向きを変えて表示する、請求項7に記載の医用画像処理装置。
PCT/JP2014/053657 2013-02-22 2014-02-17 超音波診断装置及び医用画像処理装置 WO2014129425A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201480008751.6A CN104994792B (zh) 2013-02-22 2014-02-17 超声波诊断装置以及医用图像处理装置
US14/802,496 US20150320391A1 (en) 2013-02-22 2015-07-17 Ultrasonic diagnostic device and medical image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013033654A JP2014161444A (ja) 2013-02-22 2013-02-22 超音波診断装置、医用画像処理装置及び制御プログラム
JP2013-033654 2013-02-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/802,496 Continuation US20150320391A1 (en) 2013-02-22 2015-07-17 Ultrasonic diagnostic device and medical image processing device

Publications (1)

Publication Number Publication Date
WO2014129425A1 true WO2014129425A1 (ja) 2014-08-28

Family

ID=51391217

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/053657 WO2014129425A1 (ja) 2013-02-22 2014-02-17 超音波診断装置及び医用画像処理装置

Country Status (4)

Country Link
US (1) US20150320391A1 (ja)
JP (1) JP2014161444A (ja)
CN (1) CN104994792B (ja)
WO (1) WO2014129425A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015099835A1 (en) * 2013-12-27 2015-07-02 General Electric Company System and method for displaying ultrasound images

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6071282B2 (ja) * 2011-08-31 2017-02-01 キヤノン株式会社 情報処理装置、超音波撮影装置および情報処理方法
US11147536B2 (en) * 2013-02-28 2021-10-19 Rivanna Medical Llc Localization of imaging target regions and associated systems, devices and methods
WO2014138918A1 (en) * 2013-03-13 2014-09-18 The University Of British Columbia Apparatus, system and method for imaging a medical instrument
JP6462331B2 (ja) * 2014-11-19 2019-01-30 キヤノンメディカルシステムズ株式会社 超音波診断装置、医用画像処理装置及び画像診断システム
JP6078134B1 (ja) * 2015-10-15 2017-02-08 株式会社日立製作所 医療システム
CN105596030A (zh) * 2015-12-22 2016-05-25 汕头市超声仪器研究所有限公司 一种基于模式识别的全自动穿刺针显影增强方法
JP6112689B1 (ja) * 2016-02-17 2017-04-12 株式会社菊池製作所 重畳画像表示システム
JP6873163B2 (ja) * 2016-06-16 2021-05-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 外部微小凸面−リニア超音波プローブのための画像の向きの特定
JP2020512166A (ja) * 2017-03-20 2020-04-23 エグザクト イメージング インコーポレイテッド 超音波システムの操作者を視覚的に支援するための方法およびシステム
CN113040878B (zh) * 2021-03-25 2022-08-02 青岛海信医疗设备股份有限公司 超声穿刺针的位置信息处理方法、超声设备及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60158809U (ja) * 1984-03-30 1985-10-22 株式会社島津製作所 セクタ走査形超音波診断装置
JPH07124156A (ja) * 1993-11-08 1995-05-16 Ge Yokogawa Medical Syst Ltd 超音波診断装置並びに超音波プローブの回転角検出方法及び超音波診断画像表示方法
JPH10118070A (ja) * 1996-10-16 1998-05-12 Olympus Optical Co Ltd 超音波診断装置
JP2000185041A (ja) * 1998-10-14 2000-07-04 Toshiba Corp 超音波診断装置
US20030065265A1 (en) * 2000-03-02 2003-04-03 Acuson Corporation Medical diagnostic ultrasound system and method for scanning plane orientation
JP2005169070A (ja) * 2003-06-27 2005-06-30 Toshiba Corp 画像処理表示装置及びその制御方法
JP2005323669A (ja) * 2004-05-12 2005-11-24 Toshiba Corp 穿刺治療のための超音波診断装置
JP2006087599A (ja) * 2004-09-22 2006-04-06 Toshiba Corp 超音波診断装置
WO2006085571A1 (ja) * 2005-02-09 2006-08-17 Hitachi Medical Corporation 超音波診断装置及び超音波撮像方法
JP2008237787A (ja) * 2007-03-29 2008-10-09 Ge Medical Systems Global Technology Co Llc 超音波プローブおよび超音波撮像装置
JP2010172701A (ja) * 2009-01-28 2010-08-12 Medison Co Ltd 映像指示子を提供する超音波システムおよび方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3193514B2 (ja) * 1993-04-01 2001-07-30 ジーイー横河メディカルシステム株式会社 超音波診断装置のディジタルスキャンコンバータ
WO1997003609A1 (en) * 1995-07-16 1997-02-06 Ultra-Guide Ltd. Free-hand aiming of a needle guide
JP3662827B2 (ja) * 2000-10-02 2005-06-22 アロカ株式会社 超音波探触子及び超音波診断装置
JP4388255B2 (ja) * 2002-05-21 2009-12-24 アロカ株式会社 穿刺用超音波探触子
US8102392B2 (en) * 2003-06-27 2012-01-24 Kabushiki Kaisha Toshiba Image processing/displaying apparatus having free moving control unit and limited moving control unit and method of controlling the same
US8123691B2 (en) * 2003-08-19 2012-02-28 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus for fixedly displaying a puncture probe during 2D imaging
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
JP5305635B2 (ja) * 2007-10-31 2013-10-02 株式会社東芝 医用画像表示装置
JP5575534B2 (ja) * 2010-04-30 2014-08-20 株式会社東芝 超音波診断装置
JP5337782B2 (ja) * 2010-10-13 2013-11-06 富士フイルム株式会社 超音波診断装置
JP2013135776A (ja) * 2011-12-28 2013-07-11 Toshiba Corp 超音波診断装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60158809U (ja) * 1984-03-30 1985-10-22 株式会社島津製作所 セクタ走査形超音波診断装置
JPH07124156A (ja) * 1993-11-08 1995-05-16 Ge Yokogawa Medical Syst Ltd 超音波診断装置並びに超音波プローブの回転角検出方法及び超音波診断画像表示方法
JPH10118070A (ja) * 1996-10-16 1998-05-12 Olympus Optical Co Ltd 超音波診断装置
JP2000185041A (ja) * 1998-10-14 2000-07-04 Toshiba Corp 超音波診断装置
US20030065265A1 (en) * 2000-03-02 2003-04-03 Acuson Corporation Medical diagnostic ultrasound system and method for scanning plane orientation
JP2005169070A (ja) * 2003-06-27 2005-06-30 Toshiba Corp 画像処理表示装置及びその制御方法
JP2005323669A (ja) * 2004-05-12 2005-11-24 Toshiba Corp 穿刺治療のための超音波診断装置
JP2006087599A (ja) * 2004-09-22 2006-04-06 Toshiba Corp 超音波診断装置
WO2006085571A1 (ja) * 2005-02-09 2006-08-17 Hitachi Medical Corporation 超音波診断装置及び超音波撮像方法
JP2008237787A (ja) * 2007-03-29 2008-10-09 Ge Medical Systems Global Technology Co Llc 超音波プローブおよび超音波撮像装置
JP2010172701A (ja) * 2009-01-28 2010-08-12 Medison Co Ltd 映像指示子を提供する超音波システムおよび方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015099835A1 (en) * 2013-12-27 2015-07-02 General Electric Company System and method for displaying ultrasound images

Also Published As

Publication number Publication date
CN104994792B (zh) 2017-05-10
US20150320391A1 (en) 2015-11-12
CN104994792A (zh) 2015-10-21
JP2014161444A (ja) 2014-09-08

Similar Documents

Publication Publication Date Title
WO2014129425A1 (ja) 超音波診断装置及び医用画像処理装置
JP5230589B2 (ja) 超音波装置、超音波撮像プログラム及び超音波撮像方法
JP6274421B2 (ja) 超音波診断装置及びその制御プログラム
JP6242569B2 (ja) 医用画像表示装置及びx線診断装置
JP6081299B2 (ja) 超音波診断装置
JP5400466B2 (ja) 画像診断装置、画像診断方法
US20160338672A1 (en) Ultrasound diagnosis apparatus and ultrasound imaging method
JP6073563B2 (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
JP6109556B2 (ja) 超音波診断装置及び画像処理プログラム
JP6125380B2 (ja) 超音波診断装置、医用画像処理装置及び画像処理プログラム
WO2014046214A1 (ja) 画像処理システム、x線診断装置及び画像処理方法
WO2013115388A1 (ja) 超音波診断装置、画像処理装置及びプログラム
JP6720001B2 (ja) 超音波診断装置、及び医用画像処理装置
CN104822323A (zh) 超声和x射线模态的整合
JP6305773B2 (ja) 超音波診断装置、画像処理装置及びプログラム
JP5868479B2 (ja) 超音波診断装置、超音波画像処理装置、医用画像診断装置及び医用画像処理装置
JP2013118998A (ja) 医用画像診断装置、超音波診断装置及びプログラム
JP6334013B2 (ja) 超音波診断装置
JP2013143978A (ja) 超音波診断装置
JP2013005994A (ja) 超音波診断装置及び画像処理プログラム
JP2014239841A (ja) 超音波診断装置、医用画像処理装置及び制御プログラム
JP5701362B2 (ja) 画像診断装置、画像診断方法
JP7237512B2 (ja) 超音波診断装置
JP2018175715A (ja) 超音波診断装置、医用画像処理装置、及び医用画像処理プログラム
JP2013236863A (ja) 超音波診断装置及び画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14753684

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14753684

Country of ref document: EP

Kind code of ref document: A1