WO2014034948A1 - 超音波診断装置及び画像処理方法 - Google Patents

超音波診断装置及び画像処理方法 Download PDF

Info

Publication number
WO2014034948A1
WO2014034948A1 PCT/JP2013/073706 JP2013073706W WO2014034948A1 WO 2014034948 A1 WO2014034948 A1 WO 2014034948A1 JP 2013073706 W JP2013073706 W JP 2013073706W WO 2014034948 A1 WO2014034948 A1 WO 2014034948A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
ultrasonic
volume data
unit
data
Prior art date
Application number
PCT/JP2013/073706
Other languages
English (en)
French (fr)
Inventor
新一 橋本
智行 武口
玲子 野田
太一郎 塩寺
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN201380002044.1A priority Critical patent/CN103781424A/zh
Publication of WO2014034948A1 publication Critical patent/WO2014034948A1/ja
Priority to US14/637,096 priority patent/US9524551B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing

Definitions

  • Embodiments described herein relate generally to an ultrasonic diagnostic apparatus and an image processing method.
  • an ultrasonic diagnostic apparatus is smaller than other medical image diagnostic apparatuses such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, and the ultrasonic probe is simply applied from the body surface. Since it is a device that can display in real time an image to be examined such as heart and liver by a simple operation, it is widely used in today's medical care.
  • ultrasonic images have a narrow field of view compared to X-ray CT images and MRI images, making it difficult to grasp the three-dimensional position and direction of the observation site, and the image quality depends on the patient and the examiner. And change.
  • an ultrasonic diagnostic apparatus having a function of simultaneously displaying an ultrasonic image and a medical image (X-ray CT image, MRI image, etc.) having substantially the same cross section as the ultrasonic image has been put into practical use. Yes.
  • Such an ultrasonic diagnostic apparatus synchronously aligns the image position of a two-dimensional X-ray CT image or MRI image having substantially the same cross section as the cross section subjected to ultrasonic scanning, based on the position information of the ultrasonic probe. Thus, it is generated from X-ray CT volume data and MRI volume data.
  • the operator can simultaneously observe, for example, an ultrasonic image and an X-ray CT image having substantially the same cross section as the ultrasonic image.
  • the operator can observe an ultrasonic image in which the three-dimensional position of the portion that is generally observed with a narrow visual field region is difficult to understand.
  • the operator can observe a wide range of peripheral parts not depicted in the ultrasonic image by simultaneously observing an X-ray CT image or an MRI image as a reference image.
  • the operator can easily recognize the three-dimensional position and direction of the ultrasonic image.
  • the operator can obtain, from the reference image, morphological information of a portion that cannot be clearly confirmed in the ultrasonic image.
  • the problem to be solved by the present invention is an ultrasonic diagnostic apparatus and image that can display an image for reference of an ultrasonic image even when there is no volume data for reference of the subject from which the ultrasonic image is captured. It is to provide a processing method.
  • the ultrasonic diagnostic apparatus includes an extraction unit and a control unit.
  • the extraction unit extracts reference image data corresponding to the ultrasound image data displayed on the display unit from the volume data group.
  • the control unit displays the ultrasonic image data and the reference image data on the display unit.
  • the extraction unit acquires information related to an imaging part of ultrasonic image data displayed on the display unit, and sets a search area for searching the reference image data from the volume data group based on the information.
  • FIG. 1 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 2 is a diagram for explaining a conventional simultaneous display function.
  • FIG. 3 is a diagram illustrating an example of the volume data group storage unit.
  • FIG. 4 is a diagram for explaining an example of processing of the acquisition unit according to the first embodiment.
  • FIG. 5 is a diagram (1) for explaining the search area setting unit according to the first embodiment.
  • FIG. 6 is a diagram (2) for explaining the search area setting unit according to the first embodiment.
  • FIG. 7 is a diagram (3) for explaining the search area setting unit according to the first embodiment.
  • FIG. 8 is a diagram illustrating an example of reference image data.
  • FIG. 9 is a diagram (1) illustrating an example of a guide display screen.
  • FIG. 9 is a diagram (1) illustrating an example of a guide display screen.
  • FIG. 10 is a diagram (2) illustrating an example of the guide display screen.
  • FIG. 11 is a diagram for explaining follow-up synchronization in the guide display function.
  • FIG. 12 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 13 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the second embodiment.
  • FIG. 14 is a diagram for explaining an example of processing of the acquisition unit according to the second embodiment.
  • FIG. 15 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the second embodiment.
  • FIG. 16 is a diagram for explaining the third embodiment.
  • FIG. 17 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the third embodiment.
  • FIG. 17 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the third embodiment.
  • FIG. 18 is a diagram for explaining the fourth embodiment.
  • FIG. 19 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the fourth embodiment.
  • FIG. 20 is a diagram for explaining the fifth embodiment.
  • FIG. 21 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the fifth embodiment.
  • FIG. 1 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment.
  • the ultrasonic diagnostic apparatus according to the first embodiment includes an ultrasonic probe 1, a monitor 2, an input device 3, a position sensor 4, a transmitter 5, and an apparatus body 10. Have.
  • the apparatus main body 10 is connected to the external apparatus 6 via the network 100.
  • the ultrasonic probe 1 has a plurality of vibrators, and the plurality of vibrators generate ultrasonic waves based on a drive signal supplied from a transmission / reception unit 11 included in the apparatus main body 10 to be described later.
  • the vibrator included in the ultrasonic probe 1 is, for example, a piezoelectric vibrator.
  • the ultrasonic probe 1 receives a reflected wave signal from the subject P and converts it into an electrical signal.
  • the ultrasonic probe 1 includes a matching layer provided in the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like.
  • the ultrasonic probe 1 is detachably connected to the apparatus main body 10.
  • the transmitted ultrasonic waves are transmitted from the ultrasonic probe 1 to the subject P
  • the transmitted ultrasonic waves are reflected one after another at the discontinuous surface of the acoustic impedance in the body tissue of the subject P
  • the ultrasonic probe is used as a reflected wave signal. 1 is received by a plurality of piezoelectric vibrators.
  • the amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected.
  • the reflected wave signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving object in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift.
  • a 1D array probe in which a plurality of piezoelectric vibrators are arranged in a row is connected to the apparatus main body 10 as an ultrasonic probe 1 for two-dimensional scanning of the subject P.
  • the 1D array probe as the ultrasonic probe 1 is a sector probe that performs sector scanning, a convex probe that performs offset sector scanning, a linear probe that performs linear scanning, or the like.
  • a mechanical 4D probe or a 2D array probe may be connected to the apparatus main body 10 as the ultrasonic probe 1 for three-dimensional scanning of the subject P.
  • the mechanical 4D probe is capable of two-dimensional scanning using a plurality of piezoelectric vibrators arranged in a line like a 1D array probe, and swings the plurality of piezoelectric vibrators at a predetermined angle (swing angle). By doing so, three-dimensional scanning is possible.
  • the 2D array probe can be three-dimensionally scanned by a plurality of piezoelectric vibrators arranged in a matrix and can be two-dimensionally scanned by focusing and transmitting ultrasonic waves.
  • the position sensor 4 and the transmitter 5 are devices for acquiring position information of the ultrasonic probe 1.
  • the position sensor 4 is a magnetic sensor attached to the ultrasonic probe 1.
  • the transmitter 5 is a device that is arranged at an arbitrary position and that forms a magnetic field outward from the device itself.
  • the position sensor 4 detects a three-dimensional magnetic field formed by the transmitter 5. Then, the position sensor 4 calculates the position (coordinates and angle) of the device itself in the space with the transmitter 5 as the origin, based on the detected magnetic field information, and transmits the calculated position to the device body 10. Here, the position sensor 4 transmits the three-dimensional coordinates and angle at which the device itself is located to the apparatus body 10 as the three-dimensional position information of the ultrasonic probe 1.
  • this embodiment is applicable even when the position information of the ultrasonic probe 1 is acquired by a system other than the position detection system using the position sensor 4 and the transmitter 5.
  • this embodiment may be a case where the position information of the ultrasonic probe 1 is acquired using a gyro sensor, an acceleration sensor, or the like.
  • the input device 3 is connected to the device body 10 via an interface unit 20 described later.
  • the input device 3 includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, and the like.
  • the input device 3 accepts various setting requests from the operator of the ultrasonic diagnostic apparatus and transfers the accepted various setting requests to the apparatus main body 10.
  • the monitor 2 displays a GUI (Graphical User Interface) for the operator of the ultrasonic diagnostic apparatus to input various setting requests using the input device 3, and displays ultrasonic image data generated in the apparatus main body 10. Or display.
  • GUI Graphic User Interface
  • the external device 6 is a device connected to the device main body 10 via an interface unit 20 described later.
  • the external device 6 is a PACS (Picture Archiving and Communication System) database that is a system for managing various medical image data, an electronic medical record system database that manages an electronic medical record with attached medical images, or the like.
  • the external device 6 is various medical image diagnostic apparatuses other than the ultrasonic diagnostic apparatus shown in FIG. 1, such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or the like.
  • the apparatus main body 10 acquires various medical image data unified in an image format conforming to DICOM (Digital Imaging and Communications in Medicine) from the external apparatus 6 via the interface unit 20. Can do.
  • the apparatus main body 10 acquires reference volume data to be compared with ultrasonic image data generated by the own apparatus from the external apparatus 6 via the interface unit 20 described later.
  • the reference volume data is volume data captured by a medical image diagnostic apparatus other than the ultrasonic diagnostic apparatus shown in FIG.
  • the reference volume data is volume data captured by various medical image diagnostic apparatuses other than the ultrasonic diagnostic apparatus.
  • the apparatus main body 10 is an apparatus that generates ultrasonic image data based on a reflected wave signal received by the ultrasonic probe 1.
  • the apparatus main body 10 shown in FIG. 1 can generate two-dimensional ultrasound image data based on a two-dimensional reflected wave signal, and can generate three-dimensional ultrasound image data based on a three-dimensional reflected wave signal.
  • the first embodiment is applicable even when the apparatus main body 10 is an apparatus dedicated to two-dimensional data.
  • the apparatus main body 10 includes a transmission / reception unit 11, a B-mode processing unit 12, a Doppler processing unit 13, an image generation unit 14, an image memory 15, an internal storage unit 16, and an extraction unit 17.
  • the transmission / reception unit 11 controls ultrasonic transmission / reception performed by the ultrasonic probe 1 based on an instruction from the control unit 19 described later.
  • the transmission / reception unit 11 includes a pulse generator, a transmission delay unit, a pulser, and the like, and supplies a drive signal to the ultrasonic probe 1.
  • the pulse generator repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency.
  • the transmission delay unit generates a delay time for each piezoelectric vibrator necessary for focusing the ultrasonic wave generated from the ultrasonic probe 1 into a beam and determining transmission directivity. Give for each rate pulse.
  • the pulser applies a drive signal (drive pulse) to the ultrasonic probe 1 at a timing based on the rate pulse.
  • the transmission delay unit arbitrarily adjusts the transmission direction of the ultrasonic wave transmitted from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.
  • the transmission / reception unit 11 has a function capable of instantaneously changing the transmission frequency, the transmission drive voltage, and the like in order to execute a predetermined scan sequence based on an instruction from the control unit 19 described later.
  • the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit capable of instantaneously switching the value or a mechanism for electrically switching a plurality of power supply units.
  • the transmission / reception unit 11 includes a preamplifier, an A / D (Analog / Digital) converter, a reception delay unit, an adder, and the like.
  • the transmission / reception unit 11 performs various processing on the reflected wave signal received by the ultrasonic probe 1 and reflects it. Generate wave data.
  • the preamplifier amplifies the reflected wave signal for each channel.
  • the A / D converter A / D converts the amplified reflected wave signal.
  • the reception delay unit gives a delay time necessary for determining the reception directivity.
  • the adder performs an addition process on the reflected wave signal processed by the reception delay unit to generate reflected wave data. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized, and a comprehensive beam for ultrasonic transmission / reception is formed by the reception directivity and the transmission directivity.
  • the transmission / reception unit 11 transmits a two-dimensional ultrasonic beam from the ultrasonic probe 1 when the subject P is two-dimensionally scanned. Then, the transmission / reception unit 11 generates two-dimensional reflected wave data from the two-dimensional reflected wave signal received by the ultrasonic probe 1. In addition, when the subject P is three-dimensionally scanned, the transmission / reception unit 11 transmits a three-dimensional ultrasonic beam from the ultrasonic probe 1. Then, the transmission / reception unit 11 generates three-dimensional reflected wave data from the three-dimensional reflected wave signal received by the ultrasonic probe 1.
  • the form of the output signal from the transmitter / receiver 11 can be selected from various forms such as a signal including phase information called an RF (Radio Frequency) signal or amplitude information after envelope detection processing. Is possible.
  • RF Radio Frequency
  • the B-mode processing unit 12 and the Doppler processing unit 13 are signal processing units that perform various types of signal processing on the reflected wave data generated from the reflected wave signal by the transmission / reception unit 11.
  • the B-mode processing unit 12 receives the reflected wave data from the transmission / reception unit 11, performs logarithmic amplification, envelope detection processing, and the like, and generates data (B-mode data) in which the signal intensity is expressed by brightness.
  • the Doppler processing unit 13 performs frequency analysis on velocity information from the reflected wave data received from the transmission / reception unit 11 and extracts data (Doppler data) obtained by extracting moving body information such as velocity, dispersion, and power due to the Doppler effect at multiple points.
  • the moving body is, for example, a blood flow, a tissue such as a heart wall, or a contrast agent.
  • the B-mode processing unit 12 and the Doppler processing unit 13 illustrated in FIG. 1 can process both two-dimensional reflected wave data and three-dimensional reflected wave data. That is, the B-mode processing unit 12 generates two-dimensional B-mode data from the two-dimensional reflected wave data, and generates three-dimensional B-mode data from the three-dimensional reflected wave data. The Doppler processing unit 13 generates two-dimensional Doppler data from the two-dimensional reflected wave data, and generates three-dimensional Doppler data from the three-dimensional reflected wave data.
  • the image generation unit 14 generates ultrasonic image data from the data generated by the B mode processing unit 12 and the Doppler processing unit 13. That is, the image generation unit 14 generates two-dimensional B-mode image data in which the intensity of the reflected wave is expressed by luminance from the two-dimensional B-mode data generated by the B-mode processing unit 12. Further, the image generation unit 14 generates two-dimensional Doppler image data representing moving body information from the two-dimensional Doppler data generated by the Doppler processing unit 13.
  • the two-dimensional Doppler image data is velocity image data, distributed image data, power image data, or image data obtained by combining these.
  • the image generation unit 14 generally converts (scan converts) a scanning line signal sequence of ultrasonic scanning into a scanning line signal sequence of a video format represented by a television or the like, and displays ultrasonic waves for display. Generate image data. Specifically, the image generation unit 14 generates ultrasonic image data for display by performing coordinate conversion in accordance with the ultrasonic scanning mode of the ultrasonic probe 1. In addition to the scan conversion, the image generation unit 14 performs various image processing, such as image processing (smoothing processing) for regenerating an average luminance image using a plurality of image frames after scan conversion, Image processing (edge enhancement processing) using a differential filter is performed in the image. Further, the image generation unit 14 synthesizes incidental information (character information of various parameters, scales, body marks, etc.) with the ultrasonic image data.
  • image processing smoothing processing
  • Image processing edge enhancement processing
  • the B-mode data and the Doppler data are ultrasonic image data before the scan conversion process
  • the data generated by the image generation unit 14 is ultrasonic image data for display after the scan conversion process.
  • the B-mode data and Doppler data are also called raw data.
  • the image generation unit 14 generates “two-dimensional B-mode” that is two-dimensional ultrasonic image data for display from “two-dimensional B-mode data or two-dimensional Doppler data” that is two-dimensional ultrasonic image data before scan conversion processing. Image data and 2D Doppler image data "are generated.
  • the image generation unit 14 generates three-dimensional B-mode image data by performing coordinate conversion on the three-dimensional B-mode data generated by the B-mode processing unit 12. Further, the image generation unit 14 generates three-dimensional Doppler image data by performing coordinate conversion on the three-dimensional Doppler data generated by the Doppler processing unit 13. The image generation unit 14 generates “3D B-mode image data or 3D Doppler image data” as “3D ultrasound image data (ultrasound volume data)”.
  • the image generation unit 14 performs a rendering process on the volume data in order to generate various two-dimensional image data for displaying the volume data on the monitor 2.
  • the rendering process performed by the image generation unit 14 includes, for example, a process of generating MPR image data from volume data by performing a cross-section reconstruction method (MPR: Multi Planer Reconstruction).
  • MPR Multi Planer Reconstruction
  • the rendering processing performed by the image generation unit 14 includes, for example, volume rendering (VR) processing for generating two-dimensional image data reflecting three-dimensional information.
  • the image generation unit 14 can perform the above-described rendering processing on volume data captured by another medical image diagnostic apparatus.
  • volume data includes three-dimensional X-ray CT image data (hereinafter referred to as X-ray CT volume data) captured by an X-ray CT apparatus, and three-dimensional MRI image data (hereinafter referred to as MRI volume data) captured by an MRI apparatus. ).
  • X-ray CT volume data three-dimensional X-ray CT image data
  • MRI volume data three-dimensional MRI image data captured by an MRI apparatus.
  • the image generation unit 14 can perform the above-described rendering process on ultrasonic volume data captured by an ultrasonic diagnostic apparatus other than the ultrasonic diagnostic apparatus illustrated in FIG.
  • the image memory 15 is a memory for storing image data for display generated by the image generation unit 14.
  • the image memory 15 can also store data generated by the B-mode processing unit 12 and the Doppler processing unit 13.
  • the B-mode data and Doppler data stored in the image memory 15 can be called by an operator after diagnosis, for example, and become ultrasonic image data for display via the image generation unit 14.
  • the image memory 15 also stores image data generated by the extraction unit 17 described later.
  • the internal storage unit 16 stores a control program for performing ultrasonic transmission / reception, image processing and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), various data such as a diagnostic protocol and various body marks. To do.
  • the internal storage unit 16 is also used for storing image data stored in the image memory 15 as necessary. The data stored in the internal storage unit 16 can be transferred to the external device 6 via the interface unit 20 described later.
  • the extraction unit 17 is a processing unit that performs various processes on the volume data group stored in the volume data group storage unit 18. As shown in FIG. 1, it has the acquisition part 17a, the search area
  • the control unit 19 controls the entire processing of the ultrasonic diagnostic apparatus. Specifically, the control unit 19 is based on various setting requests input from the operator via the input device 3 and various control programs and various data read from the internal storage unit 16. The processing of the processing unit 12, the Doppler processing unit 13, the image generation unit 14, and the extraction unit 17 is controlled. Further, the control unit 19 controls the display 2 to display the display image data stored in the image memory 15 or the internal storage unit 16. In addition, the control unit 19 transfers medical image data received from the operator via the input device 3 from the external device 6 to the internal storage unit 16 and the volume data group storage unit 18 via the network 100 and the interface unit 20. To control.
  • the interface unit 20 is an interface to the input device 3, the network 100, and the external device 6.
  • Various setting information and various instructions from the operator received by the input device 3 are transferred to the control unit 19 by the interface unit 20.
  • a transfer request for image data received by the input device 3 from the operator is notified to the external device 6 via the network 100 by the interface unit 20.
  • the image data transferred by the external device 6 is stored in the internal storage unit 16 and the volume data group storage unit 18 by the interface unit 20.
  • the ultrasonic diagnostic apparatus according to the first embodiment can execute a “synchronous display function” that has recently been put into practical use. That is, the ultrasonic diagnostic apparatus according to the first embodiment supplies medical image data having substantially the same cross section as the cross section of the two-dimensional ultrasonic scan performed to generate the two-dimensional ultrasonic image data to the image generation unit 14. It can be generated and displayed on the monitor 2.
  • the operator before performing an ultrasonic examination of the subject P using the ultrasonic probe 1, the operator makes a transfer request for X-ray CT volume data obtained by imaging the examination site of the subject P. Further, the operator adjusts the position of the cutting surface for MPR processing via the input device 3 so that the X-ray CT image data depicting the examination site of the subject P is displayed on the monitor 2.
  • the image generation unit 14 generates X-ray CT image data obtained by cutting the X-ray CT volume data with a cutting plane (hereinafter referred to as an initial section) adjusted by the operator.
  • the X-ray CT image data generated by the image generation unit 14 is displayed.
  • the operator operates the ultrasonic probe 1 so that ultrasonic scanning of the same cross section as the X-ray CT image data displayed on the monitor 2 is performed.
  • the operator presses a confirmation button of the input device 3.
  • the control unit 19 sets the three-dimensional position information of the ultrasonic probe 1 acquired from the position sensor 4 at the time when the confirmation button is pressed as the initial position information.
  • FIG. 2 is a diagram for explaining a conventional simultaneous display function.
  • the control unit 19 acquires the three-dimensional position information of the ultrasonic probe 1 when the ultrasonic image data 200 shown in FIG. 2 is generated from the position detection system including the position sensor 4 and the transmitter 5. And the control part 19 resets the cut surface for MPR by acquiring the movement information of the acquired three-dimensional position information and initial position information, and changing the position of an initial cross section based on the acquired movement information. To do. Then, under the control of the control unit 19, the image generation unit 14 generates X-ray CT image data 102 from the X-ray CT volume data 101 shown in FIG. Under the control of the control unit 19, the monitor 2 displays the X-ray CT image data 102 and the ultrasonic image data 200 in parallel as shown in FIG.
  • the operator can simultaneously observe an ultrasonic image and an X-ray CT image having substantially the same cross section as the ultrasonic image. Thereby, the operator can observe an ultrasonic image in which the three-dimensional position of the portion where the field-of-view area is generally narrow is difficult to grasp in an easy-to-understand manner.
  • the conventional simultaneous display function cannot be used when there is no X-ray CT volume data or MRI volume data of the subject P to be subjected to ultrasonic examination.
  • the extraction unit shown in FIG. 1 is used to display the reference image of the ultrasonic image even when there is no reference volume data of the subject P on which the ultrasonic image is captured. 17 is performed.
  • the extraction unit 17 uses a reference volume data group other than the subject P to realize a simultaneous display function with the ultrasound image data of the subject P.
  • the simultaneous display function performed in the present embodiment is referred to as a “guide display function” in order to distinguish it from the conventional simultaneous display function.
  • the volume data group storage unit 18 referred to by the extraction unit 17 stores a volume data group.
  • the volume data group stored in the volume data group storage unit 18 is a volume data group captured by the medical image diagnostic apparatus.
  • the volume data group stored in the volume data group storage unit 18 is a volume data group captured by a medical image diagnostic apparatus other than the ultrasonic diagnostic apparatus shown in FIG.
  • the volume data group stored in the volume data group storage unit 18 is a volume data group captured by another type of medical image diagnostic apparatus different from the ultrasonic diagnostic apparatus.
  • the volume data group stored in the volume data group storage unit 18 is a volume data group of an arbitrary subject.
  • the volume data group is a volume data group of an arbitrary subject imaged by another type of medical image diagnostic apparatus different from the ultrasonic diagnostic apparatus. That is, the volume data group includes volume data groups of subjects other than the subject P to be subjected to ultrasonic examination, and is used to generate reference image data that is observed simultaneously with the ultrasound image data of the subject P. Reference volume data group.
  • the volume data group stored in the volume data group storage unit 18 is an X-ray CT volume data group of a subject other than the subject P
  • the X-ray CT volume data group that is the reference volume data group is stored in the volume data group storage unit 18 from the external device 6 via the interface unit 20, for example.
  • this embodiment is applicable even when the reference volume data group is an MRI volume data group or when the X-ray CT volume data group and the MRI volume data group are mixed.
  • the present embodiment is applicable even when the volume data group storage unit 18 is various databases connected to the apparatus main body as the external apparatus 6.
  • FIG. 3 is a diagram illustrating an example of a volume data group storage unit.
  • the volume data group storage unit 18 stores “reference volume data (1) to reference volume data (n)” as reference volume data groups.
  • These reference volume data are X-ray CT volume data obtained by imaging the whole body and X-ray CT volume data obtained by imaging a specific part.
  • the volume data group storage unit 18 stores incidental information of each reference volume data.
  • the volume data group storage unit 18 stores “imaging region: upper abdomen” as incidental information of the reference volume data.
  • the volume data group storage unit 18 uses “coordinates of the region corresponding to the neck” or “chest” as incidental information of the reference volume data. The coordinates of the area corresponding to “, etc.” are stored. By referring to such incidental information, the extraction unit 17 can set an area corresponding to the “chest” in the whole body X-ray CT volume data, for example.
  • the volume data group storage unit 18 may store position information (coordinates) of organs (heart in the chest, liver in the upper abdomen, etc.) included in the reference volume data as supplementary information.
  • This position information can be acquired, for example, by processing a reference volume data by a device having a segmentation processing function.
  • the extraction unit 17 can set, for example, an area corresponding to the “heart” in the chest X-ray CT volume data.
  • the volume data group storage unit 18 stores information on the posture of the subject (subject other than the subject P) at the time of imaging as supplementary information of each reference volume data. Such information is used, for example, to specify the axial surface, coronal surface, sagittal surface, body axis direction, etc. of the subject in the reference volume data. Further, the volume data group storage unit 18 stores information associating the voxel size of the volume data with the size of the real space as incidental information of each reference volume data. Such information is used, for example, for scaling the ultrasonic image data and the reference volume data. Further, the volume data group storage unit 18 may store information (height, weight, body shape, etc.) relating to the body of the subject of the reference volume data as supplementary information of each reference volume data.
  • the extraction unit 17 extracts reference image data corresponding to the ultrasound image data displayed on the monitor 2 from the reference volume data group stored in the volume data group storage unit 18. That is, the extraction unit 17 extracts reference image data similar to ultrasound image data displayed on the monitor 2 from a reference volume data group of an arbitrary subject stored in the volume data group storage unit 18.
  • the volume data from which the reference image data is to be extracted is volume data of an arbitrary subject imaged by the medical image diagnostic apparatus. Specifically, the volume data from which the reference image data is extracted is volume data of an arbitrary subject imaged by another type of medical image diagnostic apparatus different from the ultrasonic diagnostic apparatus.
  • the volume data to be extracted from the reference image data is volume data (X-rays) of subjects other than the subject P imaged by another type of medical image diagnostic device different from the ultrasonic diagnostic device.
  • CT volume data volume data
  • the volume data from which the reference image data is to be extracted is volume data (X-ray CT volume data or MRI volume data) of a subject other than the subject P that is the imaging target of the ultrasound image data displayed on the monitor 2. Etc.).
  • the acquisition unit 17 a included in the extraction unit 17 acquires information related to the imaging part of the ultrasonic image data displayed on the monitor 2. Then, the search region setting unit 17b included in the extraction unit 17 sets a search region for searching for reference image data from the reference volume data group based on the information acquired by the acquisition unit 17a.
  • the acquisition unit 17 a acquires position information of the ultrasonic probe 1 from a position detection system using the position sensor 4 and the transmitter 5. Then, the search region setting unit 17b (or the acquisition unit 17a) according to the first embodiment acquires information related to the imaging region based on the positional information of the ultrasonic probe 1 at the time of generating the ultrasonic image data. Then, the search area setting unit 17b according to the first embodiment sets a search area based on information about the imaging region. In other words, the search area setting unit 17b narrows down the search range for the reference image data from the reference volume data group based on the information regarding the imaging region.
  • FIG. 4 is a diagram for explaining an example of processing of the acquisition unit according to the first embodiment.
  • a position detection system using the position sensor 4 and the transmitter 5 is used as in the conventional simultaneous display function.
  • a function required for the position detection system is to detect at least at which position on the body surface of the subject P the ultrasonic probe 1 is in contact.
  • the operator contacts the ultrasonic probe 1 to which the position sensor 4 is attached in a predetermined direction at a preset position. For example, as shown in the left diagram of FIG. 4, the operator abuts the ultrasonic probe 1 to which the position sensor 4 is attached to the navel of the subject P, and the ultrasonic probe 1 is axial to the subject P. It abuts in the direction of scanning the surface.
  • the operator inputs the physical information of the subject P using the input device 3. For example, as shown in the left diagram of FIG. 4, the operator sets the body information that the height of the subject P is “170 cm” and the posture of the subject P lying on the bed is “the supine position”. input. Further, although not shown, the operator has the body information of the subject P such that the head of the subject P is located near the transmitter 5 and the leg of the subject P is located far from the transmitter 5. Enter or select body orientation information. Although not shown in the drawing, the operator uses each part of the subject P (head, neck, chest, right arm, left arm, upper abdomen, lower abdomen, upper leg, lower leg as body information of the subject P).
  • Etc. is entered to specify the position (distance, direction) from the navel.
  • physical information such as selection from race information and average value data, and input of measurement values.
  • body information such as body weight, slim shape, normal, obesity, and large obesity may be input as body information. Based on the body shape information, it is possible to further narrow down the search area performed in the subsequent processing.
  • the acquisition unit 17a acquires position information of the ultrasonic probe 1 at the time when initial information is registered.
  • This position information is information indicating the coordinates of the body surface where the navel of the subject P is located and the direction (angle) of the axial surface of the subject P.
  • the operator After registering the initial information, the operator moves the ultrasonic probe 1 from the initial position and scans the examination site as shown in the right diagram of FIG. Then, for example, when the operator determines that the ultrasound image data displayed on the monitor 2 is an image depicting the examination site, the operator presses the “guide display function activation button” of the input device 3. .
  • the acquiring unit 17a acquires the position information of the ultrasonic probe 1 when the ultrasonic image data displayed on the monitor 2 is generated. Specifically, the acquisition unit 17a acquires the scanning part information and the scanning direction information of the ultrasonic image data from the position information (coordinates and angles) transmitted by the position sensor 4 as shown in the right diagram of FIG. . For example, the acquisition unit 17a acquires the moving distance and moving direction of the ultrasonic probe 1 calculated from the coordinates of the scanning part of the ultrasonic image data and the coordinates of the initial information as the scanning part information. For example, the acquisition unit 17a acquires the inclination of the ultrasonic probe 1 calculated from the scanning direction of the ultrasonic image data and the direction of the initial information as scanning direction information.
  • the search area setting unit 17b sets (narrows down) the search area.
  • 5 to 7 are diagrams for explaining the search area setting unit according to the first embodiment.
  • the search region setting unit 17b determines that the imaging region of the ultrasonic image data is “head, neck, chest, right arm, left arm, Which part of the “upper abdomen, lower abdomen, upper leg, and lower leg” is determined.
  • the search region setting unit 17b determines that the imaging region is the upper abdomen from the scanning region information and the body information of the subject P. In such a case, the search area setting unit 17b selects reference volume data corresponding to the “upper abdomen” from the reference volume data group. For example, as shown in FIG. 6, the search area setting unit 17b selects “reference volume data (5), reference volume data (11), reference volume data (20),...” From the reference volume data group. . As described above, the search area setting unit 17b narrows down the reference volume data including the imaging part of the ultrasound image data as volume data to be searched for the reference image data as the search area setting process.
  • each reference volume data is defined based on the imaging region determined by the search area setting unit 17b.
  • Each reference volume data may be volume data that overlaps a plurality of parts. Note that the definition of the imaging region shown in FIG. 5 is merely an example, and the imaging region may be defined in a more detailed area.
  • the search area setting unit 17b can narrow down the reference volume data from the body information (information on the height, body shape, etc.) of the subject P described above. For example, the search area setting unit 17b acquires the physical information of the reference volume data together with the imaging part from the incidental information of each reference volume data.
  • the search area setting unit 17b obtains the physical information of the subject P from “reference volume data (5), reference volume data (11), reference volume data (20),...” Shown in FIG. Reference volume data to which supplementary information including similar physical information is assigned is selected. Further, the search area setting unit 17b may further determine the search area in the reference volume data narrowed down by the above process by determining the imaged organ from the scanning part information and the body information of the subject P. For example, the search region setting unit 17b determines that the imaged organ is the “liver” from the scanned part information and the body information of the subject P.
  • the search area setting unit 17b corresponds to each “liver” of “reference volume data (5), reference volume data (11), reference volume data (20),...” Shown in FIG. An area is acquired from the accompanying information of each volume data, and the area is set as a search area. That is, the search area setting unit 17b sets, as the search area setting processing, an area for searching for the reference image data using the reference image data selected based on the imaging region, based on the organ depicted in the ultrasound image data. You may do it.
  • the search area setting unit 17b sets the direction of the cut surface for cutting the reference volume data from the scanning direction information acquired by the acquisition unit 17a.
  • the search area setting unit 17b generates the MPR image data obtained by cutting “reference volume data (5), reference volume data (11), reference volume data (20),. Is set by scanning direction information. That is, the search area setting unit 17b sets a cross-sectional direction when searching for reference image data from each of the narrowed-down reference volume data based on the position information of the ultrasonic probe 1 as a search area setting process.
  • the search area setting unit 17b further searches the reference image data from each volume data based on the position information of the ultrasonic probe 1 and the visual field area information of the ultrasonic image data as the search area setting processing.
  • a cross-sectional direction and a cross-sectional area may be set.
  • the visual field area information of the ultrasonic image data is “depth information (Depth) of ultrasonic image data” and “view angle” that can be acquired from ultrasonic transmission / reception conditions.
  • the search area setting unit 17b can acquire the scanning shape of the ultrasonic image data using the visual field area information.
  • the search area setting unit 17b acquires visual field area information from the control unit 19, for example.
  • the search region setting unit 17b searches the reference image data for a region corresponding to the scanning shape of the ultrasonic image data acquired from the visual field region information, for example, on the cut surface obtained by cutting the reference volume data in the set cross-sectional direction. Can be set as a cross-sectional area.
  • the search area setting unit 17b further corresponds to the depth direction of the ultrasound image data on the cut surface of the reference volume data from the incidental information (position) and scanning direction information of the reference volume data. Also set the direction.
  • the search region setting unit 17b performs the search region setting process based on at least one information selected from the imaging region, body information, imaging organ, position information of the ultrasound probe 1, and field-of-view region information of ultrasound image data. Execute.
  • the alignment unit 17c included in the extraction unit 17 performs alignment between the ultrasonic image data and the volume data group of the search area by pattern matching. That is, the alignment unit 17c according to the first embodiment identifies the cut surface used for generating and extracting reference image data similar to the ultrasound image data from the reference volume data by the alignment process.
  • the positioning unit 17c performs pattern matching between two-dimensional image data.
  • the alignment unit 17c sets the shape and size of an area for performing pattern matching between two-dimensional image data using the cross-sectional area when the cross-sectional area is set together with the cross-sectional direction.
  • the registration unit 17c sends “reference volume data (5), reference volume data (11), reference volume data (20),...” To the MPR image generation unit 17d by the search area setting unit 17b. Cut by a plurality of cut surfaces in the set direction. Thereby, a plurality of MRP image data is generated as a candidate image data group of the reference image data.
  • each candidate image data constituting the candidate image data group directions corresponding to the azimuth direction and the depth direction of the ultrasonic image data are specified. Further, the pixel size of each candidate image data and ultrasonic image data constituting the candidate image data group is scaled by the accompanying information of each reference volume data described above.
  • the alignment unit 17c identifies a cross section corresponding to the ultrasonic image data using a known alignment processing method.
  • the image generation unit 14 performs smoothing (spatial average) processing on image data in which the luminance information dynamic range of the ultrasonic image data displayed on the monitor 2 is narrowed. Is generated.
  • image data is image data obtained by patterning tissue shape information (hereinafter referred to as ultrasonic shape pattern data).
  • ultrasonic shape pattern data image data obtained by patterning tissue shape information
  • the image generation unit 14 performs the same process on the candidate image data, and obtains image data in which tissue shape information is patterned (hereinafter, CT shape pattern data). Generate.
  • the alignment unit 17c performs brightness reversal and various size adjustments (fine adjustment of the overall size) on the CT shape pattern data, and the degree of similarity between the shape pattern data is determined by cross-correlation, autocorrelation, Judgment is made using mutual information, standardized mutual information, correlation ratio, and the like.
  • the alignment unit 17c determines similarity between the entire ultrasonic shape pattern data and each CT shape pattern data, and narrows down CT shape pattern data similar to the ultrasonic shape pattern data. Then, for example, the alignment unit 17c divides the narrowed CT shape pattern data and the ultrasonic shape pattern data into a plurality of meshes, and determines the similarity with each mesh. Then, for example, the alignment unit 17c selects the CT shape pattern data having the highest similarity value, and specifies the position of the cut surface of the candidate image data from which the CT shape pattern data is generated.
  • the alignment unit 17c may finely adjust the direction of the set cutting plane and select the CT shape pattern data having the highest similarity.
  • FIG. 8 is a diagram illustrating an example of reference image data.
  • MPR image data is reference image data similar to ultrasonic image data, as shown in FIG.
  • the MPR image generation unit 17d may draw a frame line indicating a region corresponding to the ultrasonic image data in the reference image data as illustrated in FIG. 8 based on the processing result of the alignment unit 17c. it can.
  • the MPR image generation unit 17d may be processed by the image generation unit 14. Moreover, this embodiment is applicable even when only the imaging region is narrowed down by the search area setting unit 17b.
  • the alignment unit 17c uses the candidate image data group obtained by cutting the reference volume data of the region including the imaging part of the ultrasonic image data at the cutting planes in a plurality of directions to generate reference image data. Is identified. In such a case, the alignment unit 17c may perform pattern matching between each reference volume data of the region including the imaging part of the ultrasonic image data and the two-dimensional ultrasonic image data.
  • the control unit 19 displays the ultrasonic image data and the reference image data on the monitor 2.
  • 9 and 10 are diagrams illustrating an example of the guide display screen.
  • the monitor 2 displays ultrasonic image data and reference image data as shown in FIG.
  • reference image data in which a frame line indicating a region corresponding to the ultrasound image data is superimposed is displayed on the upper left of the ultrasound image data.
  • control unit 19 does not display the reference image data itself, but indicates, for example, the scanning area of the ultrasonic image data on the volume rendering image data of the reference volume data (11) from which the reference image data is extracted. You may display the image data on which the schematic diagram was superimposed. On the guide display screen shown in FIG. 10, image data in which a schematic diagram is superimposed on volume rendering image data is displayed at the lower right of the ultrasound image data.
  • the extraction part 17 performs the extraction process of reference image data again with the update of ultrasonic image data. That is, in the first embodiment using the position detection system, after identifying the cut surface corresponding to the ultrasonic image data by pattern matching, the extraction unit 17 performs the ultrasonic probe 1 similarly to the conventional synchronous display function. The cut surface of the reference image data is moved in synchronization with the change in the position information.
  • FIG. 11 is a diagram for explaining follow-up synchronization in the guide display function.
  • the alignment unit 17c changes the cut surface in the reference volume data (11) according to the change amount of the position information. Update.
  • FIG. 12 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the first embodiment.
  • the processing after the registration of the initial information for performing the guide display function is completed and the ultrasound probe 1 is moved from the initial position and the examination site is scanned will be described. To do.
  • the control unit 19 of the ultrasonic diagnostic apparatus determines whether or not a request for starting the guide display function has been received (step S101).
  • the control unit 19 waits until an activation request is accepted.
  • the acquisition unit 17a acquires the current position information of the ultrasound probe 1 (Step S102), and the search region setting unit 17b receives the reference volume.
  • a search area in the data group is set (step S103).
  • the alignment unit 17c performs pattern matching between the ultrasonic image data and the candidate image data group (step S104).
  • the alignment unit 17c selects candidate image data having the highest similarity to the ultrasonic image data by pattern matching, and identifies the position of the cut surface in the reference volume data of the selected candidate image data.
  • the MPR image generation unit 17d generates reference image data from the cut surface identified by the alignment unit 17c (step S105), and the monitor 2 controls the ultrasonic image data and the reference image data under the control of the control unit 19. Is displayed (step S106). And the control part 19 determines whether the completion
  • the alignment unit 17c determines whether or not the position information of the ultrasound probe 1 acquired by the acquisition unit 17a has changed (Step S108).
  • the control unit 19 returns to Step S107 and determines whether or not a request for terminating the guide display function has been received.
  • Step S108 when the position information has changed (Yes at Step S108), the alignment unit 17c updates the cut surface based on the amount of change in the position information, thereby causing the MPR image generation unit 17d to regenerate reference image data. (Step S109). Under the control of the control unit 19, the monitor 2 displays the ultrasonic image data and the regenerated reference image data (step S110), and the control unit 19 returns to step S107 to end the guide display function. Determine whether the request has been accepted.
  • the control unit 19 terminates the guide display function.
  • the reference image data similar to the ultrasound image data of the subject P is extracted using the reference volume data group other than the subject P.
  • a guide display function equivalent to the simultaneous display function can be realized. Therefore, in the first embodiment, it is possible to display an image for reference of an ultrasonic image even when there is no volume data for reference of the subject from which the ultrasonic image is captured. Further, in the first embodiment, the alignment processing of the image data of different subjects can be automatically performed, so that the burden on the operator can be reduced.
  • the person himself / herself follows and synchronizes with the change in the position information of the ultrasonic probe 1. Change the cutting plane for extracting reference image data from no reference volume data. Therefore, in the first embodiment, even when reference volume data that is not the user is used, the conventional position detection system can be used, and the guide display function can be realized at low cost.
  • the direction of the cut surface (cross-sectional direction) can be set by acquiring not only the imaging region of the ultrasonic image data but also the scanning direction by the position detection system. Therefore, in the first embodiment, it is possible to improve the extraction accuracy of reference image data and shorten the extraction processing time of reference image data. Further, in the first embodiment, in addition to the setting process of the imaging region and the cross-sectional direction, by further performing the setting process based on the information of the organ that is the imaging region and the cross-sectional area, the reference image data extraction accuracy is further improved. Improvement and further shortening of the extraction processing time of the reference image data can be realized.
  • FIG. 13 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the second embodiment.
  • the ultrasonic diagnostic apparatus according to the second embodiment includes a position sensor 4 and a transmitter 5 as compared with the ultrasonic diagnostic apparatus according to the first embodiment shown in FIG.
  • the position detection system has been removed.
  • the extraction unit 17 according to the second embodiment extracts reference image data from the reference volume data group.
  • the acquisition unit 17a according to the second embodiment acquires information related to the imaging region of the ultrasound image data from the input information input by the operator. Then, the search area setting unit 17b according to the second embodiment sets a search area based on the input information.
  • the search area is set by input information input by the operator.
  • the input information is, for example, information on an examination site that is designated by an operator on an examination item setting screen as preset information related to ultrasonic examination.
  • the acquisition unit 17a acquires “imaging region: chest” from the input information of “examination region: heart” designated by the inspection professional set.
  • this input information is a body mark selected by the operator.
  • the acquisition unit 17a acquires “imaging region: upper abdomen” because the liver body mark is designated.
  • FIG. 14 is a diagram for explaining an example of processing of the acquisition unit according to the second embodiment.
  • the control unit 19 displays a human body model diagram on the monitor 2 as shown in FIG. Then, for example, as shown in FIG. 14, the operator designates the left upper abdomen as an imaging region using a mouse or the like. Thereby, the acquisition unit 17a acquires “imaging region: upper abdomen”.
  • the search area setting unit 17b according to the second embodiment narrows down the search area to reference volume data associated with “imaging region: upper abdomen” based on the input information.
  • the input information may be information on an organ that is an imaging region.
  • the search area setting unit 17b sets the “liver” area in the reference volume data associated with “imaging region: upper abdomen” as the search area.
  • search area setting processing based on physical information may be performed.
  • the alignment unit 17c identifies the position of the cut surface where reference image data similar to the displayed ultrasonic image data can be generated. Thereby, the MPR image generation unit 17d generates reference image data.
  • the alignment unit 17c according to the second embodiment performs pattern matching using the candidate image data group obtained by cutting the reference volume data of the region including the imaging region of the ultrasonic image data with a plurality of cut surfaces. . Thereby, the alignment part 17c identifies the cut surface for producing
  • the search area may be further narrowed down by the operator inputting the ultrasonic scanning direction information described in the first embodiment as information on the imaging region.
  • the extraction part 17 performs the extraction process of reference image data again with the update of ultrasonic image data.
  • the second embodiment that does not use the position detection system, in order to move the cut surface of the reference image data in synchronization with the update of the ultrasonic image data, the cut surface corresponding to the latest ultrasonic image data is identified. In order to do this, it is necessary to sequentially perform pattern matching processing.
  • the alignment unit 17c When performing such processing, the alignment unit 17c detects, for example, the feature amount of the displayed ultrasonic image data and determines whether or not the detected feature amount has changed. If the alignment unit 17c determines that the ultrasonic image data has been updated from the change in the feature amount, the alignment unit 17c performs pattern matching processing. However, if the pattern matching process is frequently repeated, the processing load increases, and as a result, the real-time property of the guide display function may be reduced.
  • the reference image data is reproduced again. It is preferable to perform an extraction process.
  • FIG. 15 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the second embodiment.
  • a process after the inspection site is scanned by the ultrasonic probe 1 will be described.
  • a case where the reference image data re-extraction process is executed at the request of the operator will be described.
  • the control unit 19 of the ultrasonic diagnostic apparatus determines whether or not an activation request for the guide display function has been received (step S ⁇ b> 201).
  • the control unit 19 waits until an activation request is accepted.
  • the acquisition unit 17a determines whether or not input information specifying the imaging region is input from the operator (Step S202).
  • the acquisition unit 17a stands by until input information is input.
  • the acquisition unit 17a acquires an imaging region, and the search region setting unit 17b sets a search region in the reference volume data group (Step S203). Then, the alignment unit 17c performs pattern matching between the ultrasound image data and the candidate image data group (step S204). The alignment unit 17c selects candidate image data having the highest similarity to the ultrasonic image data by pattern matching, and identifies the position of the cut surface in the reference volume data of the selected candidate image data.
  • the MPR image generation unit 17d generates reference image data from the cut surface identified by the alignment unit 17c (step S205), and the monitor 2 controls the ultrasonic image data and the reference image data under the control of the control unit 19. Are displayed (step S206). And the control part 19 determines whether the completion
  • the alignment unit 17c determines whether an update request for reference image data is accepted (Step S208).
  • the control unit 19 returns to Step S207 and determines whether or not an end request for the guide display function is accepted.
  • step S208 when an update request for reference image data is received (Yes at step S208), the process returns to step S204, and pattern matching processing using the ultrasonic image data displayed at the time of the update request is performed.
  • step S207 affirmation the control part 19 complete
  • the guide display function can be realized without installing the position detection system of the ultrasonic probe 1. Therefore, in the second embodiment, the guide display function can be realized at low cost.
  • FIG. 16 is a diagram for explaining the third embodiment.
  • the ultrasonic diagnostic apparatus is configured similarly to the ultrasonic diagnostic apparatus according to the first embodiment shown in FIG. That is, the acquisition unit 17a according to the third embodiment acquires the position information of the ultrasonic probe 1 from the position sensor 4 as in the first embodiment. Then, the search area setting unit 17b according to the third embodiment sets a search area for searching for reference image data from the reference volume data group from the position information of the ultrasonic probe 1. Then, the alignment unit 17c according to the third embodiment selects reference volume data including candidate image data most similar to the ultrasound image data by pattern matching, and generates reference image data from the selected reference volume data. Identify the cut surface to do.
  • the reference volume data corresponding to the selection region set by the search region setting unit 17b in synchronization with the change in the position information of the ultrasound probe 1 is selected by the alignment unit 17c.
  • the cut surface for extracting the reference image data is changed from the reference volume data.
  • the scanning area by the ultrasonic probe 1 may deviate from the initially set search area. Therefore, when the extraction unit 17 according to the third embodiment determines from the amount of change in the position information of the ultrasound probe 1 that the ultrasonic scanning region is outside the search region, the extraction unit 17 responds to the amount of change. Then, the search area is updated. Then, the extraction unit 17 according to the third embodiment re-extracts reference image data from the updated reference volume data group of the search area.
  • the search area setting unit 17b calculates the amount of change in the position information of the ultrasound probe 1 acquired by the acquisition unit 17a.
  • the amount of change is the moving distance and moving direction of the ultrasonic probe 1.
  • the search area setting unit 17b always calculates the change amount while the tracking synchronization is performed. Then, the search area setting unit 17b determines, for example, whether or not the scanning site is located in the “upper abdomen” based on the calculated change amount.
  • the search region setting unit 17 b has moved the scanning region from “upper abdomen” and moved from “upper abdomen” to “chest”. Is detected.
  • the search area setting unit 17b changes the reference volume data to be extracted of the reference image data from the reference volume data group of “imaging region: upper abdomen” to the reference volume data group of “imaging region: chest”. To do.
  • the search area setting unit 17b selects “reference volume data (1), reference volume data (13), reference volume data (25),...” From the reference volume data group. .
  • the search area setting unit 17b also sets the direction of the cut surface in “reference volume data (1), reference volume data (13), reference volume data (25),...”.
  • the search area setting process executed when the area is out of the area is not only the setting of the imaging region and the cross-sectional direction, but also the other setting process described in the first embodiment is further performed. Also good.
  • the alignment unit 17c and the MPR image generation unit 17d perform the processing described in the first embodiment with the ultrasonic image data currently displayed, the “reference volume data (1), and the reference volume data (13). ), Reference volume data (25),...
  • FIG. 17 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the third embodiment.
  • FIG. 17 shows an example of processing after the tracking synchronization based on the position information described in the first embodiment is started.
  • the search area setting unit 17b of the ultrasonic diagnostic apparatus determines whether or not the ultrasonic scanning area is outside the search area (step S301). . If it is not out of the region (No at step S301), the tracking synchronization is continued. Then, the search area setting unit 17b continues to determine whether or not the ultrasonic scanning area is outside the search area.
  • the search area setting unit 17b resets the search area in the reference volume data group from the position information of the ultrasonic probe 1. (Step S302). Specifically, the search area setting unit 17b performs reselection of the reference volume data and resetting of the cut surface corresponding to the scanning direction.
  • the alignment unit 17c performs pattern matching between the ultrasonic image data and the candidate image data group (step S303).
  • the candidate image data group is the MPR image data group of the reset search area.
  • the alignment unit 17c selects candidate image data having the highest similarity to the ultrasonic image data by pattern matching, and identifies the position of the cut surface in the reference volume data of the selected candidate image data.
  • the MPR image generation unit 17d generates reference image data from the cut surface identified by the alignment unit 17c (step S304), and the monitor 2 controls the ultrasonic image data and the reference image data under the control of the control unit 19. Is displayed (step S305). And the control part 19 determines whether the completion
  • the alignment unit 17c determines whether or not the position information of the ultrasound probe 1 acquired by the acquisition unit 17a has changed (Step S307).
  • the control unit 19 returns to Step S306 and determines whether or not a request to end the guide display function has been received.
  • the search area setting unit 17b determines again whether or not the ultrasonic scanning area is outside the search area (Step S308).
  • the search region setting unit 17b returns to Step S302 and resets the search region.
  • the alignment unit 17c updates the cut surface based on the change amount of the position information, and refers to the MPR image generation unit 17d.
  • Image data is regenerated (step S309).
  • the monitor 2 displays the ultrasonic image data and the regenerated reference image data (step S310), and the control unit 19 returns to step S306 to end the guide display function. Determine whether the request has been accepted.
  • step S306 affirmation the control part 19 complete
  • the monitor 2 may display that the scan area is out of the set area.
  • the reference image data is regenerated only when the operator who has been notified that the region is out of the region inputs that the search region is changed and the re-extraction processing of the reference image data is permitted. It may be a case where an extraction process is executed.
  • the reference image data is not the image data of the user, it is necessary to reselect the reference volume data for generating candidate image data every time the scanning region is changed.
  • the reference volume data is reselected. Therefore, in the third embodiment, reference image data similar to ultrasound image data can be displayed even when the scanning region is greatly changed.
  • FIG. 18 is a diagram for explaining the fourth embodiment.
  • the functions of the ultrasonic diagnostic apparatus according to the fourth embodiment can be applied to any of the ultrasonic diagnostic apparatuses according to the first to third embodiments.
  • the ultrasonic diagnostic apparatus according to the fourth embodiment is configured similarly to the ultrasonic diagnostic apparatus according to the first embodiment will be described.
  • the operator refers to the reference image data displayed in step S106 of the flowchart shown in FIG.
  • the operator inputs a reference image data re-extraction request.
  • the extraction unit 17 determines the next candidate from the reference volume data group.
  • the reference image data is re-extracted.
  • the registration unit 17c according to the fourth embodiment uses the reference volume data (11) including the candidate image data having the highest similarity as the reference volume data for performing the registration process.
  • the reference volume data (5) including the candidate image data whose similarity is the next point is the reference volume data (5) including the candidate image data whose similarity is the next point.
  • the alignment unit 17c identifies the cut surface of the reference volume data (5).
  • the alignment unit 17c according to the fourth embodiment may re-execute the alignment process (pattern matching) process between each reference volume data in the search range and the ultrasonic image data.
  • the alignment unit 17c according to the fourth embodiment changes from the cross-correlation method to the autocorrelation method, and executes the pattern matching process again.
  • FIG. 19 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the fourth embodiment.
  • the control unit 19 of the ultrasonic diagnostic apparatus determines whether or not a re-extraction request for reference image data has been received from the operator (step S401). If the re-extraction request is not accepted (No at Step S401), the control unit 19 waits until the re-extraction request is accepted without sending an instruction to the alignment unit 17c.
  • the alignment unit 17c selects the next candidate reference volume data according to an instruction from the control unit 19 (Step S402). Then, the MPR image generation unit 17d regenerates the reference image data of the next candidate using the cut plane identified by the pattern matching between the reference volume data of the next candidate and the ultrasonic image data. (Step S403), the process ends.
  • the reference image data generated in step S403 is displayed again on the monitor 2.
  • the reference image data re-extraction process can be executed. Therefore, in the fourth embodiment, by repeating the re-extraction process, it is possible to display reference image data that can be recognized by the operator as being sensibly consistent.
  • FIG. 20 is a diagram for explaining the fifth embodiment.
  • the ultrasonic diagnostic apparatus has the following functions added to the ultrasonic diagnostic apparatus according to the first embodiment or the third embodiment that acquires the position information of the ultrasonic probe 1. Is done.
  • the operator collects a two-dimensional ultrasonic image data group to be subjected to pattern matching.
  • the two-dimensional ultrasound image data group shown in the upper left diagram of FIG. 20 is collected by sliding the ultrasound probe 1 that is a 1D array probe in a state of being in contact with the body surface of the subject P.
  • the acquisition unit 17a acquires the position information of the ultrasonic probe 1 when collecting the two-dimensional ultrasonic image data group.
  • the search area setting unit 17b sets a search area based on the position information of the ultrasonic probe 1 when the two-dimensional ultrasonic image data group is collected.
  • the alignment unit 17c arranges the two-dimensional ultrasonic image data group in the three-dimensional space based on the position information of the ultrasonic probe 1 when the two-dimensional ultrasonic image data group is collected. As a result, the alignment unit 17c reconstructs ultrasonic volume data from the two-dimensional ultrasonic image data group as shown in the upper right diagram of FIG.
  • the alignment unit 17c performs pattern matching between the reference volume data (11) selected as the reference volume data of the search area and the ultrasonic volume data. At this time, the alignment unit 17c changes the direction of the ultrasonic volume data based on the position information (three-dimensional scanning direction information) as shown in the lower right diagram of FIG. Pattern matching with 11) is performed.
  • the alignment unit 17c selects the reference volume data having the highest degree of similarity with the ultrasonic volume data, and specifies the three-dimensional region corresponding to the ultrasonic volume data in the selected reference volume data. Then, the alignment unit 17c selects the position of the cut surface corresponding to the two-dimensional ultrasonic image data (for example, the two-dimensional ultrasonic image data of the final frame) specified in the two-dimensional ultrasonic image data group. Identified by the reference volume data.
  • the MPR image generation unit 17d generates reference image data similar to the two-dimensional ultrasonic image data of the final frame.
  • FIG. 21 is a flowchart for explaining a guide display function performed by the ultrasonic diagnostic apparatus according to the fifth embodiment.
  • the registration of the initial information for performing the guide display function is completed, and further, the processing after the ultrasonic probe 1 is moved from the initial position and the examination site is three-dimensionally scanned. Will be described.
  • the control unit 19 of the ultrasonic diagnostic apparatus determines whether a plurality of two-dimensional ultrasonic image data has been collected and a guide display function activation request has been received. (Step S501). Here, when an activation request is not accepted (No at Step S501), the control unit 19 waits until an activation request is accepted.
  • the acquisition unit 17a acquires the position information of the ultrasound probe 1 at the time of generating each two-dimensional ultrasound image data (Step S502), and the search region
  • the setting unit 17b sets a search area in the reference volume data group (step S503).
  • the alignment unit 17c reconstructs the ultrasound volume data from the two-dimensional ultrasound image data, and performs pattern matching between the ultrasound volume data and the reference volume data set as the search area (step S504).
  • the alignment unit 17c selects the reference volume data having the highest similarity to the ultrasound image volume data by pattern matching, and specifies the three-dimensional region corresponding to the ultrasound volume data in the selected reference volume data. To do.
  • the alignment unit 17c identifies the position of the cut surface corresponding to the two-dimensional ultrasonic image data designated in the two-dimensional ultrasonic image data group by using the selected reference volume data.
  • the MPR image generation unit 17d generates reference image data from the cut surface identified by the alignment unit 17c (step S505), and the monitor 2 controls the ultrasonic image data and the reference image data under the control of the control unit 19. Is displayed (step S506). And the control part 19 determines whether the completion
  • the alignment unit 17c determines whether or not the position information of the ultrasound probe 1 acquired by the acquisition unit 17a has changed (Step S508). If the position information has not changed (No at Step S508), the control unit 19 returns to Step S507 and determines whether or not an end request for the guide display function has been received.
  • the alignment unit 17c updates the cut surface based on the change amount of the position information, thereby causing the MPR image generation unit 17d to regenerate the reference image data. (Step S509).
  • the monitor 2 displays the ultrasonic image data and the regenerated reference image data (step S510), and the control unit 19 returns to step S507 to end the guide display function. Determine whether the request has been accepted.
  • the control unit 19 terminates the guide display function.
  • this embodiment is applicable even when a mechanical 4D probe or a 2D array probe is used as the ultrasonic probe 1 in order to reconstruct the ultrasonic volume data. Also in this embodiment, the out-of-region detection process described in the third embodiment may be performed.
  • reference image data having a high degree of similarity can be extracted with high accuracy.
  • the alignment unit 17c compares the ultrasonic image data with the ultrasonic image data when performing pattern matching between the ultrasonic image data and the volume data group of the search area.
  • a target region may be set.
  • the operator sets a region for calculating the similarity on the ultrasound image data in order to perform alignment.
  • the operator uses the input device 3 to select only an image area having clear morphological information as an area for similarity comparison, excluding a noise area and an area with poor image quality.
  • the alignment unit 17c performs pattern matching using the setting area received by the input device 3. Thereby, it is possible to further reduce the load in the alignment process.
  • the setting of the similarity comparison area in the ultrasonic image data may be performed, for example, when the alignment unit 17c detects a noise area or an area with poor image quality.
  • the similarity comparison area setting in the ultrasonic image data may be performed by the control unit 19 by automatically detecting the area having the maximum contrast value as an image area having clear form information.
  • the reference volume data which is the volume data from which the reference image data is extracted, is volume data of a subject other than the subject P has been described.
  • the volume data from which the reference image data is extracted may be volume data simulating a human body.
  • the reference volume data may be extracted from an artificially created human volume data group.
  • the artificial volume data group is, for example, a plurality of volume data created for various body information using a known computer graphic technique.
  • the artificial volume data group includes a plurality of phantoms created by elaborately simulating internal tissues of a human body based on various body information, and medical image diagnostic apparatuses (ultrasound diagnostic apparatus, X-ray CT apparatus, MRI). Volume data group obtained by imaging with a device or the like. This also makes it possible to display an image for reference of an ultrasound image even when there is no reference volume data for the subject from which the ultrasound image is captured.
  • the reference image data may be extracted from a volume data group in which a volume data group of a subject other than the subject P and a volume data group of a human body are mixed.
  • the reference image data may be a case where an arbitrary subject including the subject P is extracted from a volume data group obtained by imaging with a medical image diagnostic apparatus.
  • the search area is set, that is, the search area is narrowed down based on the information related to the imaging region.
  • the reference image data corresponding to the ultrasonic image data displayed on the monitor 2 is the object to be imaged of the ultrasonic image data by the image processing methods described in the first to fifth embodiments.
  • the sample P can also be quickly extracted from the volume data group obtained by imaging in the past.
  • the reference image data corresponding to the ultrasound image data of the subject P displayed on the monitor 2 by the image processing method described above is an ultrasound volume data group obtained by imaging the subject P in the past, It can also be quickly extracted from the X-ray CT volume data group and the MRI volume data group.
  • the volume data group storage unit 18 stores “a plurality of subjects other than the subject P”. “Volume data group obtained by imaging specimens with various medical image diagnostic apparatuses”, “Volume data group simulating human body”, and “Volume data groups obtained by imaging subject P with various medical image diagnostic apparatuses” It may be executed in a state where at least one volume data group is stored.
  • each component of each device illustrated for explaining the first to fifth embodiments is functionally conceptual and does not necessarily have to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration is functionally or physically distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
  • all or a part of each processing function performed in each device can be realized by a CPU and a program that is analyzed and executed by the CPU, or can be realized as hardware by wired logic.
  • the image processing methods described in the first to fifth embodiments can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation.
  • This image processing program can be distributed via a network such as the Internet.
  • the image processing program is recorded on a computer-readable non-transitory recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, a DVD, a flash memory such as a USB memory and an SD card memory. It can also be executed by being read from a non-transitory recording medium by a computer.
  • the reference image of the ultrasonic image is displayed. Can be displayed.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

 実施形態の超音波診断装置は、抽出部(17)と制御部(19)とを備える。抽出部(17)は、ボリュームデータ群から、表示部(2)に表示される超音波画像データに対応する参照画像データを抽出する。制御部(19)は、前記超音波画像データと前記参照画像データとを前記表示部(2)に表示させる。前記抽出部(17)は、前記表示部(2)に表示される超音波画像データの撮像部位に関する情報を取得し、当該情報に基づいて、前記ボリュームデータ群から前記参照画像データを探索する探索領域を設定する。

Description

超音波診断装置及び画像処理方法
 本発明の実施形態は、超音波診断装置及び画像処理方法に関する。
 従来、超音波診断装置は、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等の他の医用画像診断装置に比べ小型であり、また、超音波プローブを体表から当てるだけの簡便な操作により心臓や肝臓等の検査対象の画像をリアルタイムで表示可能な装置であることから、今日の医療において広く用いられている。一方、超音波画像は、X線CT画像やMRI画像と比較して視野領域が狭いことから観察部位の3次元的な位置や方向等を把握しにくかったり、画質が患者や検査者に依存して変わってしまったりする。
 そこで、近年、超音波画像と、当該超音波画像と略同一断面の医用画像(X線CT画像やMRI画像等)とを、リアルタイムで同時に表示させる機能を有する超音波診断装置が実用化されている。かかる超音波診断装置は、超音波プローブの位置情報に基づいて、超音波走査が行なわれた断面と略同一断面の2次元のX線CT画像やMRI画像を、画像位置を同期位置合わせすることで、X線CTボリュームデータやMRIボリュームデータから生成する。
 かかる機能により、操作者は、例えば、超音波画像と、当該超音波画像と略同一断面のX線CT画像とを同時に観察することができる。これにより、操作者は、一般的に視野領域が狭く観察している部分の3次元的な位置が把握しにくい超音波画像を、より分かり易く観察することができる。例えば、操作者は、X線CT画像やMRI画像を参照画像として同時に観察することで、超音波画像で描出されていない周辺部位を広範囲で観察することができる。その結果、操作者は、超音波画像の3次元的な位置や方向を認識しやすくなる。また、操作者は、超音波画像では明瞭に確認できない部分の形体的な情報を参照画像から得ることができる。
 しかし、上記の機能は、超音波診断を受診する患者のX線CTボリュームデータやMRIボリュームデータが無い場合、使用することができなかった。
特開2007-195882号公報
 本発明が解決しようとする課題は、超音波画像が撮像された被検体の参照用のボリュームデータが無い場合でも、超音波画像の参照用の画像を表示することができる超音波診断装置及び画像処理方法を提供することである。
 実施形態の超音波診断装置は、抽出部と制御部とを備える。抽出部は、ボリュームデータ群から、表示部に表示される超音波画像データに対応する参照画像データを抽出する。制御部は、前記超音波画像データと前記参照画像データとを前記表示部に表示させる。前記抽出部は、前記表示部に表示される超音波画像データの撮像部位に関する情報を取得し、当該情報に基づいて、前記ボリュームデータ群から前記参照画像データを探索する探索領域を設定する。
図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。 図2は、従来の同時表示機能を説明するための図である。 図3は、ボリュームデータ群記憶部の一例を示す図である。 図4は、第1の実施形態に係る取得部の処理の一例を説明するための図である。 図5は、第1の実施形態に係る探索領域設定部を説明するための図(1)である。 図6は、第1の実施形態に係る探索領域設定部を説明するための図(2)である。 図7は、第1の実施形態に係る探索領域設定部を説明するための図(3)である。 図8は、参照画像データの一例を示す図である。 図9は、ガイド表示画面の一例を示す図(1)である。 図10は、ガイド表示画面の一例を示す図(2)である。 図11は、ガイド表示機能における追従同期を説明するための図である。 図12は、第1の実施形態に係る超音波診断装置が行なうガイド表示機能を説明するためのフローチャートである。 図13は、第2の実施形態に係る超音波診断装置の構成例を示すブロック図である。 図14は、第2の実施形態に係る取得部の処理の一例を説明するための図である。 図15は、第2の実施形態に係る超音波診断装置が行なうガイド表示機能を説明するためのフローチャートである。 図16は、第3の実施形態を説明するための図である。 図17は、第3の実施形態に係る超音波診断装置が行なうガイド表示機能を説明するためのフローチャートである。 図18は、第4の実施形態を説明するための図である。 図19は、第4の実施形態に係る超音波診断装置が行なうガイド表示機能を説明するためのフローチャートである。 図20は、第5の実施形態を説明するための図である。 図21は、第5の実施形態に係る超音波診断装置が行なうガイド表示機能を説明するためのフローチャートである。
 以下、添付図面を参照して、超音波診断装置の実施形態を詳細に説明する。
(第1の実施形態)
 まず、第1の実施形態に係る超音波診断装置の構成について説明する。図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。図1に例示するように、第1の実施形態に係る超音波診断装置は、超音波プローブ1と、モニタ2と、入力装置3と、位置センサ4と、トランスミッター5と、装置本体10とを有する。また、装置本体10は、ネットワーク100を介して外部装置6と接続される。
 超音波プローブ1は、複数の振動子を有し、これら複数の振動子は、後述する装置本体10が有する送受信部11から供給される駆動信号に基づき超音波を発生する。超音波プローブ1が有する振動子は、例えば、圧電振動子である。超音波プローブ1は、被検体Pからの反射波信号を受信して電気信号に変換する。また、超音波プローブ1は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。なお、超音波プローブ1は、装置本体10と着脱自在に接続される。
 超音波プローブ1から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ1が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。
 例えば、本実施形態では、被検体Pの2次元走査用に、複数の圧電振動子が一列で配置された1Dアレイプローブが超音波プローブ1として装置本体10と接続される。例えば、超音波プローブ1としての1Dアレイプローブは、セクタ走査を行なうセクタプローブや、オフセットセクタ走査を行なうコンベックスプローブ、リニア走査を行なうリニアプローブ等である。
 或いは、例えば、本実施形態では、被検体Pの3次元走査用に、メカニカル4Dプローブや2Dアレイプローブが超音波プローブ1として装置本体10と接続されても良い。メカニカル4Dプローブは、1Dアレイプローブのように一列で配列された複数の圧電振動子を用いて2次元走査が可能であるとともに、複数の圧電振動子を所定の角度(揺動角度)で揺動させることで3次元走査が可能である。また、2Dアレイプローブは、マトリックス状に配置された複数の圧電振動子により3次元走査が可能であるとともに、超音波を集束して送信することで2次元走査が可能である。
 位置センサ4及びトランスミッター5は、超音波プローブ1の位置情報を取得するための装置である。例えば、位置センサ4は、超音波プローブ1に取り付けられる磁気センサである。また、例えば、トランスミッター5は、任意の位置に配置され、自装置を中心として外側に向かって磁場を形成する装置である。
 位置センサ4は、トランスミッター5によって形成された3次元の磁場を検出する。そして、位置センサ4は、検出した磁場の情報に基づいて、トランスミッター5を原点とする空間における自装置の位置(座標及び角度)を算出し、算出した位置を装置本体10に送信する。ここで、位置センサ4は、自装置が位置する3次元の座標及び角度を、超音波プローブ1の3次元位置情報として、装置本体10に送信する。
 なお、本実施形態は、位置センサ4及びトランスミッター5を用いた位置検出システム以外のシステムにより、超音波プローブ1の位置情報を取得する場合であっても適用可能である。例えば、本実施形態は、ジャイロセンサや加速度センサ等を用いて、超音波プローブ1の位置情報を取得する場合であっても良い。
 入力装置3は、後述するインターフェース部20を介して装置本体10と接続される。入力装置3は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール等を有する。かかる入力装置3は、超音波診断装置の操作者からの各種設定要求を受け付け、受け付けた各種設定要求を装置本体10に転送する。
 モニタ2は、超音波診断装置の操作者が入力装置3を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体10において生成された超音波画像データ等を表示したりする。
 外部装置6は、後述するインターフェース部20を介して装置本体10と接続される装置である。例えば、外部装置6は、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication System)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベース等である。或いは、外部装置6は、例えば、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等、図1に示す超音波診断装置以外の各種医用画像診断装置である。
 第1の実施形態に係る装置本体10は、DICOM(Digital Imaging and Communications in Medicine)に則った画像フォーマットに統一された各種医用画像のデータを、インターフェース部20を介して外部装置6から取得することができる。例えば、装置本体10は、後述するインターフェース部20を介して、自装置で生成した超音波画像データの比較対象となる参照用のボリュームデータを、外部装置6から取得する。ここで、参照用のボリュームデータは、図1に示す超音波診断装置以外の医用画像診断装置により撮像されたボリュームデータである。例えば、参照用のボリュームデータは、超音波診断装置以外の各種医用画像診断装置により撮像されたボリュームデータである。
 装置本体10は、超音波プローブ1が受信した反射波信号に基づいて超音波画像データを生成する装置である。図1に示す装置本体10は、2次元の反射波信号に基づいて2次元の超音波画像データを生成可能であり、3次元の反射波信号に基づいて3次元の超音波画像データを生成可能な装置である。ただし、第1の実施形態は、装置本体10が、2次元データ専用の装置である場合であっても適用可能である。
 装置本体10は、図1に示すように、送受信部11と、Bモード処理部12と、ドプラ処理部13と、画像生成部14と、画像メモリ15と、内部記憶部16と、抽出部17と、ボリュームデータ群記憶部18と、制御部19と、インターフェース部20とを有する。
 送受信部11は、後述する制御部19の指示に基づいて、超音波プローブ1が行なう超音波送受信を制御する。送受信部11は、パルス発生器、送信遅延部、パルサ等を有し、超音波プローブ1に駆動信号を供給する。パルス発生器は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部は、超音波プローブ1から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器が発生する各レートパルスに対し与える。また、パルサは、レートパルスに基づくタイミングで、超音波プローブ1に駆動信号(駆動パルス)を印加する。送信遅延部は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。
 なお、送受信部11は、後述する制御部19の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、又は、複数の電源ユニットを電気的に切り替える機構によって実現される。
 また、送受信部11は、プリアンプ、A/D(Analog/Digital)変換器、受信遅延部、加算器等を有し、超音波プローブ1が受信した反射波信号に対して各種処理を行って反射波データを生成する。プリアンプは、反射波信号をチャネル毎に増幅する。A/D変換器は、増幅された反射波信号をA/D変換する。受信遅延部は、受信指向性を決定するために必要な遅延時間を与える。加算器は、受信遅延部によって処理された反射波信号の加算処理を行なって反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。
 送受信部11は、被検体Pを2次元走査する場合、超音波プローブ1から2次元の超音波ビームを送信させる。そして、送受信部11は、超音波プローブ1が受信した2次元の反射波信号から2次元の反射波データを生成する。また、送受信部11は、被検体Pを3次元走査する場合、超音波プローブ1から3次元の超音波ビームを送信させる。そして、送受信部11は、超音波プローブ1が受信した3次元の反射波信号から3次元の反射波データを生成する。
 なお、送受信部11からの出力信号の形態は、RF(Radio Frequency)信号と呼ばれる位相情報が含まれる信号である場合や、包絡線検波処理後の振幅情報である場合等、種々の形態が選択可能である。
 Bモード処理部12及びドプラ処理部13は、送受信部11が反射波信号から生成した反射波データに対して、各種の信号処理を行なう信号処理部である。Bモード処理部12は、送受信部11から反射波データを受信し、対数増幅、包絡線検波処理等を行なって、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。また、ドプラ処理部13は、送受信部11から受信した反射波データから速度情報を周波数解析し、ドプラ効果による速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。ここで、移動体とは、例えば、血流や、心壁等の組織、造影剤である。
 なお、図1に例示するBモード処理部12及びドプラ処理部13は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。すなわち、Bモード処理部12は、2次元の反射波データから2次元のBモードデータを生成し、3次元の反射波データから3次元のBモードデータを生成する。また、ドプラ処理部13は、2次元の反射波データから2次元のドプラデータを生成し、3次元の反射波データから3次元のドプラデータを生成する。
 画像生成部14は、Bモード処理部12及びドプラ処理部13が生成したデータから超音波画像データを生成する。すなわち、画像生成部14は、Bモード処理部12が生成した2次元のBモードデータから反射波の強度を輝度で表した2次元Bモード画像データを生成する。また、画像生成部14は、ドプラ処理部13が生成した2次元のドプラデータから移動体情報を表す2次元ドプラ画像データを生成する。2次元ドプラ画像データは、速度画像データ、分散画像データ、パワー画像データ、又は、これらを組み合わせた画像データである。
 ここで、画像生成部14は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像生成部14は、超音波プローブ1による超音波の走査形態に応じて座標変換を行なうことで、表示用の超音波画像データを生成する。また、画像生成部14は、スキャンコンバート以外に種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行なう。また、画像生成部14は、超音波画像データに、付帯情報(種々のパラメータの文字情報、目盛り、ボディマーク等)を合成する。
 すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像生成部14が生成するデータは、スキャンコンバート処理後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。画像生成部14は、スキャンコンバート処理前の2次元超音波画像データである「2次元Bモードデータや2次元ドプラデータ」から、表示用の2次元超音波画像データである「2次元のBモード画像データや2次元ドプラ画像データ」を生成する。
 更に、画像生成部14は、Bモード処理部12が生成した3次元のBモードデータに対して座標変換を行なうことで、3次元Bモード画像データを生成する。また、画像生成部14は、ドプラ処理部13が生成した3次元のドプラデータに対して座標変換を行なうことで、3次元ドプラ画像データを生成する。画像生成部14は、「3次元のBモード画像データや3次元ドプラ画像データ」を「3次元超音波画像データ(超音波ボリュームデータ)」として生成する。
 更に、画像生成部14は、ボリュームデータをモニタ2にて表示するための各種2次元画像データを生成するために、ボリュームデータに対してレンダリング処理を行なう。画像生成部14が行なうレンダリング処理としては、例えば、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像データを生成する処理がある。また、画像生成部14が行なうレンダリング処理としては、例えば、3次元の情報を反映した2次元画像データを生成するボリュームレンダリング(VR:Volume Rendering)処理がある。
 更に、画像生成部14は、他の医用画像診断装置が撮像したボリュームデータに対して、上記のレンダリング処理を行なうことができる。かかるボリュームデータは、X線CT装置により撮像された3次元のX線CT画像データ(以下、X線CTボリュームデータ)や、MRI装置により撮像された3次元のMRI画像データ(以下、MRIボリュームデータ)である。また、画像生成部14は、図1に示す超音波診断装置以外の超音波診断装置により撮像された超音波ボリュームデータに対しても、上記のレンダリング処理を行なうことができる。
 画像メモリ15は、画像生成部14が生成した表示用の画像データを記憶するメモリである。また、画像メモリ15は、Bモード処理部12やドプラ処理部13が生成したデータを記憶することも可能である。画像メモリ15が記憶するBモードデータやドプラデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像生成部14を経由して表示用の超音波画像データとなる。なお、画像メモリ15は、後述する抽出部17が生成した画像データも記憶する。
 内部記憶部16は、超音波送受信、画像処理及び表示処理を行なうための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディマーク等の各種データを記憶する。また、内部記憶部16は、必要に応じて、画像メモリ15が記憶する画像データの保管等にも使用される。また、内部記憶部16が記憶するデータは、後述するインターフェース部20を経由して、外部装置6へ転送することができる。
 抽出部17は、ボリュームデータ群記憶部18が記憶するボリュームデータ群に対して各種処理を行なう処理部である。図1に示すように、取得部17aと、探索領域設定部17bと、位置合わせ部17cと、MPR画像生成部17dとを有する。なお、抽出部17がボリュームデータ群記憶部18を用いて実行する処理については、後に詳述する。
 制御部19は、超音波診断装置の処理全体を制御する。具体的には、制御部19は、入力装置3を介して操作者から入力された各種設定要求や、内部記憶部16から読込んだ各種制御プログラム及び各種データに基づき、送受信部11、Bモード処理部12、ドプラ処理部13、画像生成部14及び抽出部17の処理を制御する。また、制御部19は、画像メモリ15や内部記憶部16が記憶する表示用の画像データをモニタ2にて表示するように制御する。また、制御部19は、操作者から入力装置3を介して受け付けた医用画像データが外部装置6からネットワーク100及びインターフェース部20を介して内部記憶部16やボリュームデータ群記憶部18に転送されるように制御する。
 インターフェース部20は、入力装置3、ネットワーク100及び外部装置6に対するインターフェースである。入力装置3が受け付けた操作者からの各種設定情報及び各種指示は、インターフェース部20により、制御部19に転送される。例えば、入力装置3が操作者から受け付けた画像データの転送要求は、インターフェース部20により、ネットワーク100を介して外部装置6に通知される。また、外部装置6が転送した画像データは、インターフェース部20により、内部記憶部16やボリュームデータ群記憶部18に格納される。
 以上、第1の実施形態に係る超音波診断装置の全体構成について説明した。かかる構成において、第1の実施形態に係る超音波診断装置は、近年、実用化された「同期表示機能」を実行可能である。すなわち、第1の実施形態に係る超音波診断装置は、2次元超音波画像データを生成するために行なわれた2次元超音波走査の断面と略同一断面の医用画像データを画像生成部14に生成させ、モニタ2に表示させることができる。
 例えば、操作者は、超音波プローブ1を用いて被検体Pの超音波検査を行なう前に、被検体Pの検査部位を撮影したX線CTボリュームデータの転送要求を行なう。また、操作者は、被検体Pの検査部位が描出されたX線CT画像データがモニタ2に表示されるように、入力装置3を介してMPR処理用の切断面の位置を調整する。
 そして、制御部19の制御により、画像生成部14は、操作者が調節した切断面(以下、初期断面)によりX線CTボリュームデータを切断したX線CT画像データを生成し、モニタ2は、画像生成部14が生成したX線CT画像データを表示する。操作者は、モニタ2に表示されたX線CT画像データと同一断面の超音波走査が行なわれるように、超音波プローブ1を操作する。そして、操作者は、モニタ2に表示されたX線CT画像データと超音波画像データとが略同一断面であると判断した場合、例えば、入力装置3の確定ボタンを押下する。制御部19は、確定ボタンが押下された時点で位置センサ4から取得した超音波プローブ1の3次元位置情報を初期位置情報と設定する。図2は、従来の同時表示機能を説明するための図である。
 その後、制御部19は、位置センサ4及びトランスミッター5で構成される位置検出システムから、図2に示す超音波画像データ200の生成時における超音波プローブ1の3次元位置情報を取得する。そして、制御部19は、取得した3次元位置情報と初期位置情報との移動情報を取得し、取得した移動情報に基づいて初期断面の位置を変更することで、MPR用の切断面を再設定する。そして、制御部19の制御により、画像生成部14は、制御部19が再設定した切断面により、図2に示すX線CTボリュームデータ101からX線CT画像データ102を生成する。そして、制御部19の制御により、モニタ2は、図2に示すように、X線CT画像データ102と超音波画像データ200とを並列表示する。
 かかる従来の同時表示機能により、操作者は、例えば、超音波画像と、当該超音波画像と略同一断面のX線CT画像とを同時に観察することができる。これにより、操作者は、一般的に視野領域が狭く観察している部分の3次元的な位置が把握しにくい超音波画像をより分かり易く観察することができる。しかし、従来の同時表示機能は、超音波検査を行なう被検体PのX線CTボリュームデータやMRIボリュームデータが無い場合、使用することができなかった。
 そこで、第1の実施形態では、超音波画像が撮像された被検体Pの参照用のボリュームデータが無い場合でも、超音波画像の参照用の画像を表示するために、図1に示す抽出部17の処理が行なわれる。すなわち、抽出部17は、被検体P以外の参照用のボリュームデータ群を使用して、被検体Pの超音波画像データとの同時表示機能を実現する。なお、以下では、本実施形態で行なわれる同時表示機能を、従来の同時表示機能と区別するために、「ガイド表示機能」と記載する。
 まず、抽出部17が参照するボリュームデータ群記憶部18は、ボリュームデータ群を記憶する。ボリュームデータ群記憶部18が記憶するボリュームデータ群は、医用画像診断装置により撮像されたボリュームデータ群である。具体的には、ボリュームデータ群記憶部18が記憶するボリュームデータ群は、図1に示す超音波診断装置以外の医用画像診断装置により撮像されたボリュームデータ群である。より具体的には、ボリュームデータ群記憶部18が記憶するボリュームデータ群は、超音波診断装置とは異なる他の種類の医用画像診断装置により撮像されたボリュームデータ群である。ここで、ボリュームデータ群記憶部18が記憶するボリュームデータ群は、任意の被検体のボリュームデータ群である。本実施形態では、上記ボリュームデータ群は、超音波診断装置とは異なる他の種類の医用画像診断装置により撮像された任意の被検体のボリュームデータ群である。すなわち、上記ボリュームデータ群は、超音波検査が行なわれる被検体P以外の被検体のボリュームデータ群を含み、被検体Pの超音波画像データと同時に観察される参照画像データを生成するために用いられる参照用のボリュームデータ群である。
 以下では、ボリュームデータ群記憶部18が記憶するボリュームデータ群が、被検体P以外の被検体のX線CTボリュームデータ群である場合について説明する。参照ボリュームデータ群であるX線CTボリュームデータ群は、例えば、外部装置6から、インターフェース部20を介して、ボリュームデータ群記憶部18に格納される。なお、本実施形態は、参照用のボリュームデータ群が、MRIボリュームデータ群である場合や、X線CTボリュームデータ群及びMRIボリュームデータ群が混在する場合であっても適用可能である。また、本実施形態は、ボリュームデータ群記憶部18が、外部装置6として装置本体に接続される各種データベースである場合でも適用可能である。
 図3は、ボリュームデータ群記憶部の一例を示す図である。例えば、ボリュームデータ群記憶部18は、図3に示すように、参照ボリュームデータ群として、「参照ボリュームデータ(1)~参照ボリュームデータ(n)」を記憶する。これら参照ボリュームデータは、全身を撮像したX線CTボリュームデータや、特定の部位を撮像したX線CTボリュームデータである。ここで、図3には図示しないが、ボリュームデータ群記憶部18は、各参照ボリュームデータの付帯情報を記憶する。
 例えば、ボリュームデータ群記憶部18は、参照ボリュームデータが「上腹部」を撮像したX線CTボリュームデータである場合、当該参照ボリュームデータの付帯情報として「撮像領域:上腹部」を記憶する。また、例えば、ボリュームデータ群記憶部18は、参照ボリュームデータが全身を撮像したX線CTボリュームデータである場合、当該参照ボリュームデータの付帯情報として「頸部に対応する領域の座標」や「胸部に対応する領域の座標」等を記憶する。かかる付帯情報を参照することで、抽出部17は、例えば、全身X線CTボリュームデータにおける「胸部」に対応する領域を設定することができる。なお、ボリュームデータ群記憶部18は、参照ボリュームデータに含まれる臓器(胸部における心臓や、上腹部における肝臓等)の位置情報(座標)を付帯情報として記憶しても良い。この位置情報は、例えば、セグメンテーション処理機能を有する装置が、参照ボリュームデータに対して処理を行なうことで取得可能である。かかる付帯情報を参照することで、抽出部17は、例えば、胸部X線CTボリュームデータにおける「心臓」に対応する領域を設定することができる。
 また、ボリュームデータ群記憶部18は、各参照ボリュームデータの付帯情報として、撮影時における被検体(被検体P以外の被検体)の体位の情報を記憶する。かかる情報は、例えば、参照ボリュームデータにおける被検体のアキシャル面、コロナル面、サジタル面、体軸方向等を特定するために使用される。また、ボリュームデータ群記憶部18は、各参照ボリュームデータの付帯情報として、ボリュームデータのボクセルサイズと、実空間のサイズとを対応付けた情報を記憶する。かかる情報は、例えば、超音波画像データと参照ボリュームデータとのスケーリングを行なうために使用される。また、ボリュームデータ群記憶部18は、各参照ボリュームデータの付帯情報として、当該参照ボリュームデータの被検体の身体に関する情報(身長、体重、体型等)を記憶しても良い。
 そして、抽出部17は、ボリュームデータ群記憶部18が記憶する参照ボリュームデータ群から、モニタ2に表示される超音波画像データに対応する参照画像データを抽出する。すなわち、抽出部17は、ボリュームデータ群記憶部18が記憶する任意の被検体の参照ボリュームデータ群から、モニタ2に表示される超音波画像データに類似する参照画像データを抽出する。参照画像データの抽出対象となるボリュームデータは、医用画像診断装置により撮像された任意の被検体のボリュームデータである。具体的には、参照画像データの抽出対象となるボリュームデータは、超音波診断装置とは異なる他の種類の医用画像診断装置により撮像された任意の被検体のボリュームデータである。より具体的には、参照画像データの抽出対象となるボリュームデータは、超音波診断装置とは異なる他の種類の医用画像診断装置により撮像された被検体P以外の被検体のボリュームデータ(X線CTボリュームデータ等)である。換言すると、参照画像データの抽出対象となるボリュームデータは、モニタ2で表示される超音波画像データの撮像対象である被検体P以外の被検体のボリュームデータ(X線CTボリュームデータやMRIボリュームデータ等)である。
 まず、抽出部17が有する取得部17aは、モニタ2に表示される超音波画像データの撮像部位に関する情報を取得する。そして、抽出部17が有する探索領域設定部17bは、取得部17aが取得した情報に基づいて、参照ボリュームデータ群から参照画像データを探索する探索領域を設定する。
 具体的には、第1の実施形態に係る取得部17aは、位置センサ4及びトランスミッター5を用いた位置検出システムから、超音波プローブ1の位置情報を取得する。そして、第1の実施形態に係る探索領域設定部17b(又は、取得部17a)は、超音波画像データの生成時における超音波プローブ1の位置情報に基づいて、撮像部位に関する情報を取得する。そして、第1の実施形態に係る探索領域設定部17bは、撮像部位に関する情報に基づいて、探索領域を設定する。換言すると、探索領域設定部17bは、撮像部位に関する情報に基づいて、参照ボリュームデータ群から参照画像データを探索する範囲を絞り込む。
 第1の実施形態に係る取得部17aについて、図4を用いて説明する。図4は、第1の実施形態に係る取得部の処理の一例を説明するための図である。
 第1の実施形態に係るガイド表示機能では、従来の同時表示機能と同様に、位置センサ4及びトランスミッター5を用いた位置検出システムが用いられる。ここで、第1の実施形態において、位置検出システムに求められる機能は、少なくとも、被検体Pの体表のどの位置に、超音波プローブ1が当接されているのかを検出することである。
 このため、まず、操作者は、位置センサ4が取り付けられた超音波プローブ1を、予め設定された位置に、所定方向に当接する。例えば、操作者は、図4の左図に示すように、位置センサ4が取り付けられた超音波プローブ1を、被検体Pの臍に当接し、更に、超音波プローブ1が被検体Pのアキシャル面を走査する方向に当接する。
 更に、操作者は、被検体Pの身体情報を、入力装置3を用いて入力する。例えば、操作者は、図4の左図に示すように、被検体Pの身長が「170cm」であり、ベッドに横たわっている被検体Pの体位が「仰臥位」であるとする身体情報を入力する。また、図示しないが、操作者は、被検体Pの身体情報として、トランスミッター5に近い位置に被検体Pの頭部が位置し、トランスミッター5から遠い位置に被検体Pの脚部が位置するといった身体の方向情報を、入力、又は、選択する。また、図示しないが、操作者は、被検体Pの身体情報として、被検体Pの各部(頭部、頸部、胸部、右腕部、左腕部、上腹部、下腹部、上脚部、下脚部等)が臍から如何なる位置(距離、方向)に位置するかを特定するための情報を入力する。なお、身体情報入力のバリエーションには、他にも、例えば、人種情報や平均値データからの選択であったり、計測値の入力であったり等、様々な方法があり得る。更に、例えば、体重や、やせ形、普通、肥満、肥満大等の体型情報が、身体情報として入力される場合であっても良い。体型情報により、後段の処理で行なわれる探索領域の更なる絞り込み設定が可能となる。
 これにより、ガイド表示機能を行なうための初期情報の登録が完了する。取得部17aは、初期情報が登録された時点の超音波プローブ1の位置情報を取得する。この位置情報は、被検体Pの臍が位置する体表の座標と、被検体Pのアキシャル面の方向(角度)とを示す情報となる。
 初期情報の登録後、操作者は、図4の右図に示すように、超音波プローブ1を初期位置から移動して、検査部位の走査を行なう。そして、操作者は、例えば、モニタ2に表示された超音波画像データが、検査部位が描出された画像であると判断した時点で、入力装置3が有する「ガイド表示機能起動ボタン」を押下する。
 取得部17aは、ガイド表示機能起動要求を受け付けると、モニタ2に表示された超音波画像データの生成時における超音波プローブ1の位置情報を取得する。具体的には、取得部17aは、位置センサ4が送信した位置情報(座標及び角度)から、図4の右図に示すように、超音波画像データの走査部位情報及び走査方向情報を取得する。例えば、取得部17aは、超音波画像データの走査部位の座標と初期情報の座標とから算出した超音波プローブ1の移動距離及び移動方向を、走査部位情報として取得する。また、例えば、取得部17aは、超音波画像データの走査方向と初期情報の方向とから算出した超音波プローブ1の傾きを、走査方向情報として取得する。
 そして、探索領域設定部17bは、探索領域の設定(絞り込み)を行なう。図5~図7は、第1の実施形態に係る探索領域設定部を説明するための図である。例えば、探索領域設定部17bは、図5に示すように、取得部17aが取得した走査部位情報から、超音波画像データの撮像部位が「頭部、頸部、胸部、右腕部、左腕部、上腹部、下腹部、上脚部、下脚部」のどの部位に対応するかを判定する。
 例えば、探索領域設定部17bは、走査部位情報と被検体Pの身体情報とから、撮像部位が上腹部であると判定する。かかる場合、探索領域設定部17bは、参照ボリュームデータ群から、「上腹部」に対応する参照ボリュームデータを選択する。例えば、探索領域設定部17bは、図6に示すように、「参照ボリュームデータ(5)、参照ボリュームデータ(11)、参照ボリュームデータ(20)、・・・」を参照ボリュームデータ群から選択する。このように、探索領域設定部17bは、探索領域の設定処理として、超音波画像データの撮像部位を含む参照ボリュームデータを、参照画像データを探索する対象となるボリュームデータとして絞りこむ。
 すなわち、各参照ボリュームデータに対応付けられる撮影部位は、探索領域設定部17bによって判定される撮像部位に基づいて、定義される。また、各参照ボリュームデータは、複数の部位にオーバーラップするボリュームデータであっても良い。なお、図5に示す撮像部位の定義は、あくまでも一例であり、更に詳細な領域で撮像部位が定義される場合であっても良い。また、探索領域設定部17bは、前述の被検体Pの身体情報(身長や体型等に関する情報)から、参照ボリュームデータの絞り込みを行うことができる。例えば、探索領域設定部17bは、各参照ボリュームデータの付帯情報から、撮像部位とともに、当該参照ボリュームデータの身体情報を取得する。そして、例えば、探索領域設定部17bは、図6に示す「参照ボリュームデータ(5)、参照ボリュームデータ(11)、参照ボリュームデータ(20)、・・・」から、被検体Pの身体情報と類似する身体情報を含む付帯情報が付与されている参照ボリュームデータを選択する。また、探索領域設定部17bは、走査部位情報と被検体Pの身体情報とから、撮像された臓器を判定して、上記の処理により絞り込んだ参照ボリュームデータにおける探索領域を、更に絞り込んでも良い。例えば、探索領域設定部17bは、走査部位情報と被検体Pの身体情報とから、撮像された臓器が「肝臓」であると判定する。かかる場合、例えば、探索領域設定部17bは、図6に示す「参照ボリュームデータ(5)、参照ボリュームデータ(11)、参照ボリュームデータ(20)、・・・」それぞれの「肝臓」に対応する領域を、各ボリュームデータの付帯情報から取得し、当該領域を探索領域として設定する。すなわち、探索領域設定部17bは、探索領域の設定処理として、撮像部位に基づいて選択した参照画像データにて参照画像データを探索する領域を、超音波画像データに描出される臓器に基づいて設定しても良い。
 更に、例えば、探索領域設定部17bは、図7に示すように、取得部17aが取得した走査方向情報から、参照ボリュームデータを切断するための切断面の方向を設定する。例えば、探索領域設定部17bは、「参照ボリュームデータ(5)、参照ボリュームデータ(11)、参照ボリュームデータ(20)、・・・」を切断したMPR画像データを生成する複数の切断面の方向を、走査方向情報により設定する。すなわち、探索領域設定部17bは、探索領域の設定処理として、超音波プローブ1の位置情報に基づいて、絞り込んだ各参照ボリュームデータから参照画像データを探索する際の断面方向を設定する。なお、探索領域設定部17bは、更に、探索領域の設定処理として、超音波プローブ1の位置情報及び超音波画像データの視野領域情報に基づいて、参照画像データを各ボリュームデータから探索する際の断面方向及び断面領域を設定しても良い。ここで、超音波画像データの視野領域情報とは、超音波送受信条件から取得可能な「超音波画像データの深さ情報(Depth)」や「画角」である。探索領域設定部17bは、視野領域情報を用いて、超音波画像データの走査形状を取得することができる。探索領域設定部17bは、例えば、制御部19から視野領域情報を取得する。そして、探索領域設定部17bは、例えば、設定した断面方向で参照ボリュームデータを切断した切断面において、視野領域情報から取得した超音波画像データの走査形状に対応する領域を、参照画像データを探索する断面領域として設定することができる。
 なお、図示しないが、探索領域設定部17bは、更に、参照ボリュームデータの付帯情報(体位)及び走査方向情報から、当該参照ボリュームデータの切断面において、超音波画像データの深さ方向に対応する方向も設定する。探索領域設定部17bは、探索領域の設定処理を、撮像部位、身体情報、撮像臓器、超音波プローブ1の位置情報及び超音波画像データの視野領域情報から選択した少なくとも1つの情報に基づいて、実行する。
 そして、抽出部17が有する位置合わせ部17cは、超音波画像データと探索領域のボリュームデータ群との位置合わせをパターンマッチングにより行なう。すなわち、第1の実施形態に係る位置合わせ部17cは、参照ボリュームデータから超音波画像データに類似する参照画像データを生成して抽出するために用いる切断面を位置合わせ処理により同定する。
 ここで、上記の探索領域設定部17bの設定処理により、超音波画像データの撮像部位を含む領域の参照ボリュームデータが選択され、更に、選択された参照ボリュームデータにおけるMPR処理用の切断面の方向(断面方向)が設定されている。このため、第1の実施形態に係る位置合わせ部17cは、2次元画像データ間のパターンマッチングを行なう。なお、位置合わせ部17cは、断面方向とともに、上記の断面領域が設定されている場合は、断面領域を用いて2次元画像データ間のパターンマッチングを行なう領域の形状及びサイズを設定する。
 例えば、位置合わせ部17cは、MPR画像生成部17dに、「参照ボリュームデータ(5)、参照ボリュームデータ(11)、参照ボリュームデータ(20)、・・・」それぞれを、探索領域設定部17bにより設定された方向の複数の切断面により切断させる。これにより、複数のMRP画像データが、参照画像データの候補画像データ群として生成される。
 なお、候補画像データ群を構成する各候補画像データにおいて、超音波画像データの方位方向及び深さ方向それぞれに対応する方向は、特定されている。また、候補画像データ群を構成する各候補画像データと超音波画像データとのピクセルサイズは、上述した各参照ボリュームデータの付帯情報によりスケーリングされる。
 ここで、位置合わせ部17cは、公知の位置合わせ処理の方法を用いて、超音波画像データに相当する断面を同定する。例えば、位置合わせ部17cの指示により、画像生成部14は、モニタ2で表示される超音波画像データの輝度情報ダイナミックレンジを狭くした画像データに対してスムージング(空間平均)処理を行なった画像データを生成する。かかる画像データは、組織形状の情報がパターン化された画像データ(以下、超音波形状パターンデータ)となる。また、位置合わせ部17cの指示により、画像生成部14は、候補画像データに対しても同様の処理を行なって、組織形状の情報がパターン化された画像データ(以下、CT形状パターンデータ)を生成する。そして、例えば、位置合わせ部17cは、CT形状パターンデータに対して、輝度反転や様々なサイズ調整(全体サイズの微調)を行なって、形状パターンデータ間の類似度を、相互相関や自己相関、相互情報量、標準化相互情報量、相関比等を用いて判定する。
 例えば、位置合わせ部17cは、超音波形状パターンデータ全体と各CT形状パターンデータとで類似度を判定して、超音波形状パターンデータと類似するCT形状パターンデータを絞り込む。そして、例えば、位置合わせ部17cは、絞り込んだCT形状パターンデータと、超音波形状パターンデータとを複数のメッシュに分割し、各メッシュで類似度を判定する。そして、例えば、位置合わせ部17cは、類似度の合計値が最も高いCT形状パターンデータを選択し、当該CT形状パターンデータの生成元である候補画像データの切断面の位置を特定する。
 なお、位置合わせ部17cは、類似度判定を行なう際に、設定された切断面の方向を微調整して、類似度が最も高いCT形状パターンデータを選択しても良い。
 そして、MPR画像生成部17dは、位置合わせ部17cにより特定された切断面により、類似度が最も高いCT形状パターンデータが選択された参照ボリュームデータを切断したMPR画像データを生成し、当該MPR画像データを画像メモリ15に格納する。図8は、参照画像データの一例を示す図である。かかるMPR画像データは、図8に示すように、超音波画像データと類似する参照画像データとなる。なお、MPR画像生成部17dは、位置合わせ部17cの処理結果に基づいて、図8に例示するように、参照画像データにて超音波画像データに対応する領域を示す枠線を描画することができる。
 なお、本実施形態は、MPR画像生成部17dの処理が、画像生成部14により行なわれる場合であっても良い。また、本実施形態は、探索領域設定部17bにより撮像部位のみが絞り込まれる場合であっても適用可能である。かかる場合、位置合わせ部17cは、超音波画像データの撮像部位を含む領域の参照ボリュームデータを複数方向の切断面で切断した候補画像データ群を用いて、参照画像データを生成するための切断面を同定する。また、かかる場合、位置合わせ部17cは、超音波画像データの撮像部位を含む領域の各参照ボリュームデータと、2次元の超音波画像データとの間でパターンマッチングを行なっても良い。
 制御部19は、超音波画像データと参照画像データとをモニタ2に表示させる。図9及び図10は、ガイド表示画面の一例を示す図である。
 例えば、制御部19の制御により、図9に示すように、モニタ2は、超音波画像データと、参照画像データとを表示する。図9に示すガイド表示画面では、超音波画像データの左上に、超音波画像データに対応する領域を示す枠線が重畳された参照画像データが表示される。
 或いは、制御部19は、参照画像データそのものを表示させるのではなく、例えば、参照画像データが抽出された参照ボリュームデータ(11)のボリュームレンダリング画像データ上に、超音波画像データの走査領域を示す模式図が重畳された画像データを表示させても良い。図10に示すガイド表示画面では、超音波画像データの右下に、ボリュームレンダリング画像データに模式図が重畳された画像データが表示される。
 そして、抽出部17は、超音波画像データの更新にともない、参照画像データの抽出処理を再度実行する。すなわち、位置検出システムを用いる第1の実施形態では、パターンマッチングにより超音波画像データに対応する切断面を同定した後は、抽出部17は、従来の同期表示機能と同様に、超音波プローブ1の位置情報の変化に追従同期して、参照画像データの切断面を移動する。図11は、ガイド表示機能における追従同期を説明するための図である。
 例えば、位置合わせ部17cは、図11に示すように、取得部17aが取得した超音波プローブ1の位置情報が変化すると、位置情報の変化量に応じて、参照ボリュームデータ(11)における切断面を更新する。
 次に、図12を用いて、第1の実施形態に係る超音波診断装置が行なうガイド表示機能の処理の一例について説明する。図12は、第1の実施形態に係る超音波診断装置が行なうガイド表示機能を説明するためのフローチャートである。なお、図12に示す一例では、ガイド表示機能を行なうための初期情報の登録が完了し、更に、超音波プローブ1が初期位置から移動されて検査部位の走査が行なわれた後の処理について説明する。
 図12に例示するように、第1の実施形態に係る超音波診断装置の制御部19は、ガイド表示機能の起動要求を受け付けたか否かを判定する(ステップS101)。ここで、起動要求を受け付けない場合(ステップS101否定)、制御部19は、起動要求を受け付けるまで待機する。
 一方、ガイド表示機能の起動要求を受け付けた場合(ステップS101肯定)、取得部17aは、現時点での超音波プローブ1の位置情報を取得し(ステップS102)、探索領域設定部17bは、参照ボリュームデータ群における探索領域を設定する(ステップS103)。そして、位置合わせ部17cは、超音波画像データと候補画像データ群とのパターンマッチングを行なう(ステップS104)。位置合わせ部17cは、パターンマッチングにより、超音波画像データと類似度が最も高くなる候補画像データを選択し、選択した候補画像データの参照ボリュームデータにおける切断面の位置を同定する。
 そして、MPR画像生成部17dは、位置合わせ部17cが同定した切断面により、参照画像データを生成し(ステップS105)、制御部19の制御により、モニタ2は、超音波画像データと参照画像データとを表示する(ステップS106)。そして、制御部19は、ガイド表示機能の終了要求を受け付けたか否かを判定する(ステップS107)。
 ここで、終了要求を受け付けない場合(ステップS107否定)、位置合わせ部17cは、取得部17aが取得した超音波プローブ1の位置情報が変化したか否かを判定する(ステップS108)。位置情報が変化していない場合(ステップS108否定)、制御部19は、ステップS107に戻って、ガイド表示機能の終了要求を受け付けたか否かを判定する。
 一方、位置情報が変化した場合(ステップS108肯定)、位置合わせ部17cは、位置情報の変化量に基づいて、切断面を更新することで、MPR画像生成部17dに参照画像データを再生成させる(ステップS109)。そして、制御部19の制御により、モニタ2は、超音波画像データと再生成された参照画像データとを表示し(ステップS110)、制御部19は、ステップS107に戻って、ガイド表示機能の終了要求を受け付けたか否かを判定する。
 そして、ガイド表示機能の終了要求を受け付けた場合(ステップS107肯定)、制御部19は、ガイド表示機能を終了する。
 上述したように、第1の実施形態では、被検体P以外の参照用のボリュームデータ群を使用して、被検体Pの超音波画像データに類似する参照画像データを抽出することで、従来の同時表示機能と同等のガイド表示機能を実現することができる。従って、第1の実施形態では、超音波画像が撮像された被検体の参照用のボリュームデータが無い場合でも、超音波画像の参照用の画像を表示することができる。また、第1の実施形態では、異なる被検体の画像データの位置合わせ処理を、自動で行なうことができるので、操作者の負担を軽減することができる。
 また、第1の実施形態では、パターンマッチングにより現時点で表示されている超音波画像データに対応する切断面を同定した後は、超音波プローブ1の位置情報の変化に追従同期して、本人ではない参照ボリュームデータから参照画像データを抽出するための切断面を変更する。従って、第1の実施形態では、本人ではない参照ボリュームデータを用いる場合でも、従来の位置検出システムを流用することができ、ガイド表示機能を低コストで実現することができる。
 また、第1の実施形態では、位置検出システムにより超音波画像データの撮像部位だけでなく、走査方向を取得することで、切断面の方向(断面方向)を設定することができる。従って、第1の実施形態では、参照画像データの抽出精度向上と、参照画像データの抽出処理時間の短縮とを実現することができる。また、第1の実施形態では、撮像部位及び断面方向の設定処理に加えて、撮像部位である臓器の情報や、断面領域による設定処理を更に行なうことで、参照画像データの抽出精度の更なる向上と、参照画像データの抽出処理時間の更なる短縮とを実現することができる。
(第2の実施形態)
 第2の実施形態では、位置検出システムを用いずに、参照画像データの抽出を行なう場合について説明する。図13は、第2の実施形態に係る超音波診断装置の構成例を示すブロック図である。
 第2の実施形態に係る超音波診断装置は、図13に示すように、図1に示す第1の実施形態に係る超音波診断装置と比較して、位置センサ4及びトランスミッター5で構成される位置検出システムが削除されている。かかる構成において、第2の実施形態に係る抽出部17は、参照ボリュームデータ群から参照画像データの抽出を行なう。
 まず、第2の実施形態に係る取得部17aは、操作者が入力した入力情報から、超音波画像データの撮像部位に関する情報を取得する。そして、第2の実施形態に係る探索領域設定部17bは、入力情報に基づいて、探索領域を設定する。
 すなわち、第2の実施形態では、探索領域の設定を操作者が入力した入力情報により行なう。入力情報は、例えば、従来、超音波検査に関するプリセットの情報として、検査項目の設定画面で操作者が指定する検査部位の情報である。例えば、取得部17aは、検査プロセットで指定された「検査部位:心臓」の入力情報から、「撮像部位:胸部」を取得する。
 或いは、この入力情報は、操作者が選択したボディマークである。例えば、取得部17aは、肝臓のボディマークが指定されたことから、「撮像部位:上腹部」を取得する。
 或いは、ガイド表示機能専用のGUIとして、操作者が撮像部位を選択指定できる「領域選択メニュー」を表示させても良い。かかるGUIは、例えば、撮像部位が列挙されたリストから操作者が撮像部位を選択可能なインターフェースである。或いは、かかるGUIは、図14に例示するグラフィカルインターフェイスである。図14は、第2の実施形態に係る取得部の処理の一例を説明するための図である。
 例えば、制御部19は、図14に示すように、モニタ2に人体モデル図を表示させる。そして、例えば、操作者は、図14に示すように、左側の上腹部を撮像部位として、マウス等を用いて指定する。これにより、取得部17aは、「撮像部位:上腹部」を取得する。かかる場合、第2の実施形態に係る探索領域設定部17bは、入力情報に基づいて、探索領域を、「撮像部位:上腹部」が対応付けられた参照ボリュームデータに絞りこむ。なお、入力情報は、撮像部位である臓器の情報であっても良い。かかる場合、探索領域設定部17bは、例えば、「撮像部位:上腹部」が対応付けられた参照ボリュームデータにおける「肝臓」の領域を、探索領域として設定する。また、第2の実施形態においても、身体情報に基づく探索領域の設定処理が行なわれても良い。
 そして、位置合わせ部17cは、表示される超音波画像データに類似する参照画像データを生成可能な切断面の位置を同定する。これにより、MPR画像生成部17dは、参照画像データを生成する。ただし、本実施形態では、探索領域設定部17bにより撮像部位のみが設定される。従って、第2の実施形態に係る位置合わせ部17cは、超音波画像データの撮像部位を含む領域の参照ボリュームデータを複数方向の切断面で切断した候補画像データ群を用いて、パターンマッチングを行なう。これにより、位置合わせ部17cは、参照画像データを生成するための切断面を同定する。なお、本実施形態は、操作者が、撮像部位に関する情報として、第1の実施形態で説明した超音波の走査方向情報を入力することで、探索領域の更なる絞り込みが行なわれても良い。
 そして、第2の実施形態においても、抽出部17は、超音波画像データの更新にともない、参照画像データの抽出処理を再度実行する。ただし、位置検出システムを用いない第2の実施形態では、超音波画像データの更新に同期して参照画像データの切断面を移動するために、最新の超音波画像データに対応する切断面を同定するためのパターンマッチング処理を逐次行なう必要がある。
 かかる処理を行なう場合、位置合わせ部17cは、例えば、表示されている超音波画像データの特徴量を検出し、検出した特徴量が変化したか否かの判定を行なう。そして、位置合わせ部17cは、特徴量の変化から、超音波画像データが更新されたと判定すると、パターンマッチング処理を行なう。ただし、パターンマッチング処理を頻繁に繰り返して行なうと処理負荷が高くなり、その結果、ガイド表示機能のリアルタイム性が低減することが考えられる。
 このため、第2の実施形態は、超音波プローブ1を移動して超音波走査断面の更新を行なったと判断した操作者が、参照画像データの更新要求を行なった場合に、参照画像データの再抽出処理を行なうことが好適である。
 次に、図15を用いて、第2の実施形態に係る超音波診断装置が行なうガイド表示機能の処理の一例について説明する。図15は、第2の実施形態に係る超音波診断装置が行なうガイド表示機能を説明するためのフローチャートである。なお、図15に示す一例では、超音波プローブ1により検査部位の走査が行なわれた後の処理について説明する。また、図15に示す一例では、参照画像データの再抽出処理が、操作者の要求により実行される場合について説明する。
 図15に例示するように、第2の実施形態に係る超音波診断装置の制御部19は、ガイド表示機能の起動要求を受け付けたか否かを判定する(ステップS201)。ここで、起動要求を受け付けない場合(ステップS201否定)、制御部19は、起動要求を受け付けるまで待機する。
 一方、ガイド表示機能の起動要求を受け付けた場合(ステップS201肯定)、取得部17aは、操作者から撮像部位を指定した入力情報が入力されたか否かを判定する(ステップS202)。ここで、入力情報が入力されない場合(ステップS202否定)、取得部17aは、入力情報が入力されるまで待機する。
 一方、入力情報が入力された場合(ステップS202肯定)、取得部17aは、撮像部位を取得し、探索領域設定部17bは、参照ボリュームデータ群における探索領域を設定する(ステップS203)。そして、位置合わせ部17cは、超音波画像データと候補画像データ群とのパターンマッチングを行なう(ステップS204)。位置合わせ部17cは、パターンマッチングにより、超音波画像データと類似度が最も高くなる候補画像データを選択し、選択した候補画像データの参照ボリュームデータにおける切断面の位置を同定する。
 そして、MPR画像生成部17dは、位置合わせ部17cが同定した切断面により、参照画像データを生成し(ステップS205)、制御部19の制御により、モニタ2は、超音波画像データと参照画像データとを表示する(ステップS206)。そして、制御部19は、ガイド表示機能の終了要求を受け付けたか否かを判定する(ステップS207)。
 ここで、終了要求を受け付けない場合(ステップS207否定)、位置合わせ部17cは、参照画像データの更新要求を受け付けたか否かを判定する(ステップS208)。更新要求を受け付けない場合(ステップS208否定)、制御部19は、ステップS207に戻って、ガイド表示機能の終了要求を受け付けたか否かを判定する。
 一方、参照画像データの更新要求を受け付けた場合(ステップS208肯定)、ステップS204に戻って、更新要求時に表示されている超音波画像データを用いたパターンマッチング処理が行なわれる。
 そして、ガイド表示機能の終了要求を受け付けた場合(ステップS207肯定)、制御部19は、ガイド表示機能を終了する。
 上述したように、第2の実施形態では、超音波プローブ1の位置検出システムを設置することなく、ガイド表示機能を実現することができる。従って、第2の実施形態では、ガイド表示機能を低コストで実現することができる。
(第3の実施形態)
 第3の実施形態では、超音波プローブ1の位置情報を用いる第1の実施形態の変形例について、図16等を用いて説明する。図16は、第3の実施形態を説明するための図である。
 第3の実施形態に係る超音波診断装置は、図1に示す第1の実施形態に係る超音波診断装置と同様に構成される。すなわち、第3の実施形態に係る取得部17aは、第1の実施系形態と同様に、超音波プローブ1の位置情報を、位置センサ4から取得する。そして、第3の実施形態に係る探索領域設定部17bは、超音波プローブ1の位置情報から、参照ボリュームデータ群から参照画像データを探索する探索領域を設定する。そして、第3の実施形態に係る位置合わせ部17cは、パターンマッチングにより、超音波画像データに最も類似する候補画像データを含む参照ボリュームデータを選択し、選択した参照ボリュームデータから参照画像データを生成するための切断面を同定する。
 その後、第3の実施形態においても、超音波プローブ1の位置情報の変化に追従同期して、探索領域設定部17bが設定した選択領域に対応する参照ボリュームデータであり、位置合わせ部17cが選択した参照ボリュームデータから、参照画像データを抽出するための切断面が変更される。
 ただし、超音波プローブ1による走査領域は、最初に設定された探索領域から外れる場合がある。そこで、第3の実施形態に係る抽出部17は、超音波プローブ1の位置情報の変化量から、超音波走査の領域が探索領域の領域外となったと判定される場合、当該変化量に応じて、当該探索領域を更新する。そして、第3の実施形態に係る抽出部17は、更新後の探索領域の参照ボリュームデータ群から、参照画像データの再抽出を行なう。
 例えば、第3の実施形態に係る探索領域設定部17bは、取得部17aが取得した超音波プローブ1の位置情報の変化量を算出する。かかる変化量は、超音波プローブ1の移動距離及び移動方向である。探索領域設定部17bは、追従同期が行なわれている間、常時、変化量を算出する。そして、探索領域設定部17bは、例えば、走査部位が「上腹部」に位置するか否かを、算出した変化量に基づいて判定する。
 ここで、例えば、図16に示すように、位置情報の変化量から、探索領域設定部17bが、走査部位が「上腹部」外となり、走査部位が「上腹部」から「胸部」に移動したことを検出したとする。かかる場合、探索領域設定部17bは、参照画像データの抽出対象となる参照ボリュームデータを、「撮像部位:上腹部」の参照ボリュームデータ群から、「撮像部位:胸部」の参照ボリュームデータ群に変更する。例えば、探索領域設定部17bは、図16に示すように、「参照ボリュームデータ(1)、参照ボリュームデータ(13)、参照ボリュームデータ(25)、・・・」を参照ボリュームデータ群から選択する。そして、探索領域設定部17bは、「参照ボリュームデータ(1)、参照ボリュームデータ(13)、参照ボリュームデータ(25)、・・・」における切断面の方向の設定も行なう。なお、領域外となった場合において実行される探索領域の設定処理は、撮像部位及び断面方向の設定だけでなく、第1の実施形態で説明した他の設定処理が更に行なわれる場合であっても良い。
 そして、位置合わせ部17c及びMPR画像生成部17dは、第1の実施形態で説明した処理を、現時点で表示されている超音波画像データと、「参照ボリュームデータ(1)、参照ボリュームデータ(13)、参照ボリュームデータ(25)、・・・」とを用いて実行する。
 次に、図17を用いて、第3の実施形態に係る超音波診断装置が行なうガイド表示機能の処理の一例について説明する。図17は、第3の実施形態に係る超音波診断装置が行なうガイド表示機能を説明するためのフローチャートである。なお、図17は、第1の実施形態で説明した位置情報に基づく追従同期が開始された後の処理の一例を示す。
 図17に例示するように、第3の実施形態に係る超音波診断装置の探索領域設定部17bは、超音波走査の領域が探索領域の領域外となったか否かを判定する(ステップS301)。ここで、領域外でない場合(ステップS301否定)、追従同期が継続される。そして、探索領域設定部17bは、引き続き、超音波走査の領域が探索領域の領域外となったか否かを判定する。
 一方、超音波走査の領域が探索領域の領域外となった場合(ステップS301肯定)、探索領域設定部17bは、超音波プローブ1の位置情報から、参照ボリュームデータ群における探索領域を再設定する(ステップS302)。具体的には、探索領域設定部17bは、参照ボリュームデータの再選択と、走査方向に対応する切断面の再設定を行なう。
 そして、位置合わせ部17cは、超音波画像データと候補画像データ群とのパターンマッチングを行なう(ステップS303)。候補画像データ群は、再設定された探索領域のMPR画像データ群となる。位置合わせ部17cは、パターンマッチングにより、超音波画像データと類似度が最も高くなる候補画像データを選択し、選択した候補画像データの参照ボリュームデータにおける切断面の位置を同定する。
 そして、MPR画像生成部17dは、位置合わせ部17cが同定した切断面により、参照画像データを生成し(ステップS304)、制御部19の制御により、モニタ2は、超音波画像データと参照画像データとを表示する(ステップS305)。そして、制御部19は、ガイド表示機能の終了要求を受け付けたか否かを判定する(ステップS306)。
 ここで、終了要求を受け付けない場合(ステップS306否定)、位置合わせ部17cは、取得部17aが取得した超音波プローブ1の位置情報が変化したか否かを判定する(ステップS307)。位置情報が変化していない場合(ステップS307否定)、制御部19は、ステップS306に戻って、ガイド表示機能の終了要求を受け付けたか否かを判定する。
 一方、位置情報が変化した場合(ステップS307肯定)、探索領域設定部17bは、再度、超音波走査の領域が探索領域の領域外となったか否かを判定する(ステップS308)。ここで、領域外となった場合(ステップS308肯定)、探索領域設定部17bは、ステップS302に戻って、探索領域の再設定を行なう。
 一方、超音波走査の領域が探索領域内である場合(ステップS308否定)、位置合わせ部17cは、位置情報の変化量に基づいて、切断面を更新することで、MPR画像生成部17dに参照画像データを再生成させる(ステップS309)。そして、制御部19の制御により、モニタ2は、超音波画像データと再生成された参照画像データとを表示し(ステップS310)、制御部19は、ステップS306に戻って、ガイド表示機能の終了要求を受け付けたか否かを判定する。
 そして、ガイド表示機能の終了要求を受け付けた場合(ステップS306肯定)、制御部19は、ガイド表示機能を終了する。
 なお、本実施形態は、走査部位が設定された探索領域の領域外となったことを検出した場合、領域外となった旨をモニタ2に表示させても良い。また、本実施形態は、領域外となった旨を報知された操作者が、探索領域を変更して参照画像データの再抽出処理を許可する旨を入力した場合にのみ、参照画像データの再抽出処理を実行する場合であっても良い。
 ガイド表示機能では、参照画像データは、本人の画像データではないため、走査部位が変更されるごとに、候補画像データを生成する参照ボリュームデータの再選択を行なう必要がある。上述したように、第3の実施形態では、走査部位が探索領域外となったことを検出した場合、参照ボリュームデータの再選択処理を行なう。従って、第3の実施形態では、走査部位が大きく変更される場合でも、超音波画像データと類似する参照画像データを表示することができる。
(第4の実施形態)
 第4の実施形態では、参照画像データと超音波画像データとが乖離していると操作者が判断した場合に行なわれる処理について、図18等を用いて説明する。図18は、第4の実施形態を説明するための図である。
 第4の実施形態に係る超音波診断装置の機能は、第1の実施形態~第3の実施形態に係る超音波診断装置のいずれにも適用可能である。以下では、第4の実施形態に係る超音波診断装置が、第1の実施形態に係る超音波診断装置と同様に構成される場合について説明する。
 例えば、操作者は、図12に示すフローチャートのステップS106で表示された参照画像データを参照する。ここで、参照画像データに描出された組織形態と、超音波画像データに描出された組織形態とが乖離していると判断した場合、操作者は、参照画像データの再抽出要求を入力する。
 第4の実施形態に係る抽出部17は、モニタ2に表示された超音波画像データと参照画像データとを参照した操作者から再抽出要求を受け付けた場合、参照ボリュームデータ群から、次候補の参照画像データの再抽出を行なう。例えば、第4の実施形態に係る位置合わせ部17cは、図18に示すように、位置合わせ処理を行なう参照ボリュームデータを、類似度が最高であった候補画像データを含む参照ボリュームデータ(11)から、類似度が次点であった候補画像データを含む参照ボリュームデータ(5)に変更する。
 そして、第4の実施形態に係る位置合わせ部17cは、参照ボリュームデータ(5)の切断面を同定する。
 なお、第4の実施形態に係る位置合わせ部17cは、探索範囲の各参照ボリュームデータと、超音波画像データとの位置合わせ処理(パターンマッチング)処理を再実行しても良い。かかる場合、例えば、第4の実施形態に係る位置合わせ部17cは、相互相関法から自己相関法に変更して、パターンマッチング処理を再度実行する。
 次に、図19を用いて、第4の実施形態に係る超音波診断装置が行なうガイド表示機能の処理の一例について説明する。図19は、第4の実施形態に係る超音波診断装置が行なうガイド表示機能を説明するためのフローチャートである。
 図19に例示するように、第4の実施形態に係る超音波診断装置の制御部19は、操作者から参照画像データの再抽出要求を受け付けたか否かを判定する(ステップS401)。ここで、再抽出要求を受け付けない場合(ステップS401否定)、制御部19は、位置合わせ部17cに対して指示を送出せずに、再抽出要求を受け付けるまで待機する。
 一方、再抽出要求を受け付けた場合(ステップS401肯定)、制御部19の指示により、位置合わせ部17cは、次候補の参照ボリュームデータを選択する(ステップS402)。そして、位置合わせ部17cが次候補の参照ボリュームデータと超音波画像データとのパターンマッチングを行なって同定した切断面を用いて、MPR画像生成部17dは、次候補の参照画像データを再生成し(ステップS403)、処理を終了する。ステップS403で生成された参照画像データは、モニタ2に再表示される。
 上述したように、第4の実施形態では、操作者が超音波画像データと参照画像データとの整合性が悪いと判断した場合、参照画像データの再抽出処理を実行することができる。従って、第4の実施形態では、再抽出処理を繰り返すことで、操作者にとって感覚的に整合性があると認識できる参照画像データを表示することができる。
(第5の実施形態)
 第5の実施形態では、位置合わせ部17cが3次元画像データ間によるパターンマッチングを行なう場合について、図20等を用いて説明する。図20は、第5の実施形態を説明するための図である。
 位置合わせ処理は、2次元画像データ間で行なうより、ボリュームデータ間で行なう方が、精度が高い。そこで、第5の実施形態に係る超音波診断装置には、超音波プローブ1の位置情報を取得する第1の実施形態又は第3の実施形態に係る超音波診断装置に、以下の機能が追加される。
 まず、操作者は、パターンマッチングの対象となる2次元の超音波画像データ群を収集する。図20の左上図に示す2次元超音波画像データ群は、被検体Pの体表に当接した状態で、1Dアレイプローブである超音波プローブ1をスライドさせることで収集される。
 取得部17aは、2次元超音波画像データ群の収集時における超音波プローブ1の位置情報を取得する。探索領域設定部17bは、2次元超音波画像データ群の収集時における超音波プローブ1の位置情報に基づいて、探索領域を設定する。
 そして、位置合わせ部17cは、2次元超音波画像データ群の収集時における超音波プローブ1の位置情報に基づいて、2次元超音波画像データ群を3次元空間に配置する。これにより、位置合わせ部17cは、図20の右上図に示すように、2次元超音波画像データ群から超音波ボリュームデータを再構成する。
 そして、位置合わせ部17cは、例えば、図20に示すように、探索領域の参照ボリュームデータとして選択された参照ボリュームデータ(11)と超音波ボリュームデータとのパターンマッチングを行なう。この際、位置合わせ部17cは、例えば、図20の右下図に示すように、位置情報(3次元走査方向情報)に基づいて、超音波ボリュームデータの方向を転換した上で、参照ボリュームデータ(11)とのパターンマッチングを行なう。
 なお、第5の実施形態で実行される類似度算出処理は、第1の実施形態で説明した処理を3次元に拡張することで実現することができる。
 そして、位置合わせ部17cは、超音波ボリュームデータとの類似度が最も高い参照ボリュームデータを選択し、選択した参照ボリュームデータにおいて超音波ボリュームデータに対応する3次元領域を特定する。そして、位置合わせ部17cは、2次元超音波画像データ群の中で指定された2次元超音波画像データ(例えば、最終フレームの2次元超音波画像データ)に対応する切断面の位置を、選択した参照ボリュームデータで同定する。
 これにより、MPR画像生成部17dは、最終フレームの2次元超音波画像データと類似する参照画像データを生成する。
 次に、図21を用いて、第5の実施形態に係る超音波診断装置が行なうガイド表示機能の処理の一例について説明する。図21は、第5の実施形態に係る超音波診断装置が行なうガイド表示機能を説明するためのフローチャートである。なお、図21に示す一例では、ガイド表示機能を行なうための初期情報の登録が完了し、更に、超音波プローブ1が初期位置から移動されて検査部位の3次元走査が行なわれた後の処理について説明する。
 図21に例示するように、第5の実施形態に係る超音波診断装置の制御部19は、複数の2次元超音波画像データが収集され、ガイド表示機能の起動要求を受け付けたか否かを判定する(ステップS501)。ここで、起動要求を受け付けない場合(ステップS501否定)、制御部19は、起動要求を受け付けるまで待機する。
 一方、ガイド表示機能の起動要求を受け付けた場合(ステップS501肯定)、取得部17aは、各2次元超音波画像データ生成時における超音波プローブ1の位置情報を取得し(ステップS502)、探索領域設定部17bは、参照ボリュームデータ群における探索領域を設定する(ステップS503)。そして、位置合わせ部17cは、2次元超音波画像データから超音波ボリュームデータを再構成し、超音波ボリュームデータと探索領域として設定された参照ボリュームデータとのパターンマッチングを行なう(ステップS504)。これにより、位置合わせ部17cは、パターンマッチングにより、超音波画像ボリュームデータと類似度が最も高くなる参照ボリュームデータを選択し、選択した参照ボリュームデータにおいて超音波ボリュームデータに対応する3次元領域を特定する。そして、位置合わせ部17cは、2次元超音波画像データ群の中で指定された2次元超音波画像データに対応する切断面の位置を、選択した参照ボリュームデータで同定する。
 そして、MPR画像生成部17dは、位置合わせ部17cが同定した切断面により、参照画像データを生成し(ステップS505)、制御部19の制御により、モニタ2は、超音波画像データと参照画像データとを表示する(ステップS506)。そして、制御部19は、ガイド表示機能の終了要求を受け付けたか否かを判定する(ステップS507)。
 ここで、終了要求を受け付けない場合(ステップS507否定)、位置合わせ部17cは、取得部17aが取得した超音波プローブ1の位置情報が変化したか否かを判定する(ステップS508)。位置情報が変化していない場合(ステップS508否定)、制御部19は、ステップS507に戻って、ガイド表示機能の終了要求を受け付けたか否かを判定する。
 一方、位置情報が変化した場合(ステップS508肯定)、位置合わせ部17cは、位置情報の変化量に基づいて、切断面を更新することで、MPR画像生成部17dに参照画像データを再生成させる(ステップS509)。そして、制御部19の制御により、モニタ2は、超音波画像データと再生成された参照画像データとを表示し(ステップS510)、制御部19は、ステップS507に戻って、ガイド表示機能の終了要求を受け付けたか否かを判定する。
 そして、ガイド表示機能の終了要求を受け付けた場合(ステップS507肯定)、制御部19は、ガイド表示機能を終了する。
 なお、本実施形態は、超音波ボリュームデータを再構成するために、メカニカル4Dプローブや2Dアレイプローブが超音波プローブ1として用いられる場合であっても適用可能である。また、本実施形態においても、第3の実施形態で説明した領域外検出処理が行なわれても良い。
 上述したように、第5の実施形態では、3次元画像データ間によるパターンマッチングを行なうことで、類似度の高い参照画像データを高精度で抽出することができる。
 なお、上記の第1の実施形態~第5の実施形態において、位置合わせ部17cは、超音波画像データと探索領域のボリュームデータ群とのパターンマッチングを行なう際に、超音波画像データにて比較対象となる領域を設定しても良い。一例として、操作者は、位置合わせを行なうために類似度を算出する領域を、超音波画像データ上で設定する。例えば、操作者は、入力装置3を用いて、ノイズ領域や画質が不良な領域を除いて、明瞭な形態情報のある画像領域のみ、類似度比較の対象とする領域として選択する。位置合わせ部17cは、入力装置3が受け付けた設定領域を用いて、パターンマッチングを行なう。これにより、位置合わせ処理における負荷を更に低減することが可能となる。なお、超音波画像データにおける類似度比較用の領域の設定は、例えば、位置合わせ部17cが、ノイズ領域や画質が不良な領域を検出して行なう場合であっても良い。或いは、超音波画像データにおける類似度比較用の領域設定は、制御部19が、コントラスト値が最大となる領域を明瞭な形態情報のある画像領域として自動検出して行なう場合であっても良い。
 また、上記の第1の実施形態~第5の実施形態では、参照画像データの抽出対象となるボリュームデータである参照ボリュームデータが、被検体P以外の被検体のボリュームデータである場合について説明した。しかし、上記の第1の実施形態~第5の実施形態において、参照画像データの抽出対象となるボリュームデータは、人体を模擬したボリュームデータであっても良い。例えば、参照ボリュームデータは、人工的に作成された人体のボリュームデータ群から抽出される場合であっても良い。かかる人工ボリュームデータ群は、例えば、公知のコンピュータグラフィックの技術を用いて、様々な身体情報ごとに作成された複数のボリュームデータである。或いは、かかる人工ボリュームデータ群は、様々な身体情報に基づいて人体の内部組織を精巧に模擬して作成された複数のファントムを、医用画像診断装置(超音波診断装置、X線CT装置、MRI装置等)で撮像することで得られたボリュームデータ群である。これによっても、超音波画像が撮像された被検体の参照用のボリュームデータが無い場合でも、超音波画像の参照用の画像を表示することができる。また、参照画像データは、被検体P以外の被検体のボリュームデータ群及び人体のボリュームデータ群が混在するボリュームデータ群から抽出される場合であっても良い。
 更に、参照画像データは、被検体Pを含む任意の被検体を、医用画像診断装置で撮像したボリュームデータ群から抽出される場合であっても良い。上述したように、第1の実施形態~第5の実施形態で説明した画像処理方法では、撮像部位に関する情報に基づいて、探索領域の設定、すなわち、探索領域の絞り込みが行なわれる。これにより、第1の実施形態~第5の実施形態で説明した画像処理方法では、位置合わせ処理による参照画像データの抽出処理時間を短縮することができる。
 従って、第1の実施形態~第5の実施形態で説明した画像処理方法により、モニタ2で表示される超音波画像データに対応する参照画像データは、当該超音波画像データの撮像対象である被検体Pを過去に撮像したボリュームデータ群からも迅速に抽出することができる。例えば、上記の画像処理方法により、モニタ2で表示される被検体Pの超音波画像データに対応する参照画像データは、被検体Pを過去に撮像することで得られた超音波ボリュームデータ群、X線CTボリュームデータ群、MRIボリュームデータ群からも、迅速に抽出することができる。
 すなわち、第1の実施形態~第5の実施形態で説明した画像処理方法は、参照画像データの抽出表示を迅速に行なうために、ボリュームデータ群記憶部18に「被検体P以外の複数の被検体を各種医用画像診断装置により撮像して得られたボリュームデータ群」、「人体を模擬したボリュームデータ群」及び「被検体Pを各種医用画像診断装置により撮像して得られたボリュームデータ群」の少なくとも1つのボリュームデータ群が格納された状態で、実行される場合であっても良い。
 なお、第1の実施形態~第5の実施形態を説明するために図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
 また、第1の実施形態~第5の実施形態で説明した画像処理方法は、予め用意された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD、USBメモリ及びSDカードメモリ等のFlashメモリ等、コンピュータで読み取り可能な非一時的な記録媒体に記録され、コンピュータによって非一時的な記録媒体から読み出されることによって実行することもできる。
 以上、説明したとおり、第1の実施形態~第5の実施形態によれば、超音波画像が撮像された被検体の参照用のボリュームデータが無い場合でも、超音波画像の参照用の画像を表示することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (15)

  1.  ボリュームデータ群から、表示部に表示される超音波画像データに対応する参照画像データを抽出する抽出部と、
     前記超音波画像データと前記参照画像データとを前記表示部に表示させる制御部と、
     を備え、
     前記抽出部は、前記表示部に表示される超音波画像データの撮像部位に関する情報を取得し、当該情報に基づいて、前記ボリュームデータ群から前記参照画像データを探索する探索領域を設定する、超音波診断装置。
  2.  前記参照画像データの抽出対象となるボリュームデータは、医用画像診断装置により撮像された任意の被検体のボリュームデータである、請求項1に記載の超音波診断装置。
  3.  前記参照画像データの抽出対象となるボリュームデータは、超音波診断装置とは異なる他の種類の医用画像診断装置により撮像された任意の被検体のボリュームデータである、請求項1に記載の超音波診断装置。
  4.  前記参照画像データの抽出対象となるボリュームデータは、人体を模擬したボリュームデータである、請求項1に記載の超音波診断装置。
  5.  前記抽出部は、前記超音波画像データの生成時における超音波プローブの位置情報に基づいて、前記撮像部位に関する情報を取得する、請求項1に記載の超音波診断装置。
  6.  前記抽出部は、前記探索領域の設定処理として、前記超音波プローブの位置情報及び前記超音波画像データの視野領域情報に基づいて、前記参照画像データを各ボリュームデータから探索する際の断面方向及び断面領域を設定する、請求項5に記載の超音波診断装置。
  7.  前記抽出部は、操作者が入力した入力情報から前記超音波画像データの撮像部位に関する情報を取得し、当該情報に基づいて、前記探索領域を設定する、請求項1に記載の超音波診断装置。
  8.  前記抽出部は、前記超音波画像データと前記探索領域のボリュームデータ群との位置合わせをパターンマッチングにより行なって、前記参照画像データの抽出を行なう、請求項1に記載の超音波診断装置。
  9.  前記抽出部は、2次元画像データ間のパターンマッチングを行なう、請求項8に記載の超音波診断装置。
  10.  前記抽出部は、3次元画像データ間のパターンマッチングを行なう、請求項8に記載の超音波診断装置。
  11.  前記抽出部は、前記超音波画像データと前記探索領域のボリュームデータ群とのパターンマッチングを行なう際に、前記超音波画像データにて比較対象となる領域を設定する、請求項8に記載の超音波診断装置。
  12.  前記抽出部は、超音波画像データの更新にともない、参照画像データの抽出処理を再度実行する、請求項1に記載の超音波診断装置。
  13.  前記抽出部は、前記表示部に表示された前記超音波画像データと前記参照画像データとを参照した操作者から再抽出要求を受け付けた場合、前記ボリュームデータ群から、次候補の参照画像データの再抽出を行なう、請求項1に記載の超音波診断装置。
  14.  前記抽出部は、前記超音波プローブの位置情報の変化量から、超音波走査の領域が前記探索領域の領域外となった場合、当該変化量に応じて、当該探索領域を更新し、参照画像データの再抽出を行なう、請求項5に記載の超音波診断装置。
  15.  抽出部が、ボリュームデータ群から、表示部に表示される超音波画像データに対応する参照画像データを抽出し、
     制御部が、前記超音波画像データと前記参照画像データとを前記表示部に表示させる、
     ことを含み、
     前記抽出部は、前記表示部に表示される超音波画像データの撮像部位に関する情報を取得し、当該情報に基づいて、前記ボリュームデータ群から前記参照画像データを探索する探索領域を設定する、画像処理方法。
PCT/JP2013/073706 2012-09-03 2013-09-03 超音波診断装置及び画像処理方法 WO2014034948A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380002044.1A CN103781424A (zh) 2012-09-03 2013-09-03 超声波诊断装置以及图像处理方法
US14/637,096 US9524551B2 (en) 2012-09-03 2015-03-03 Ultrasound diagnosis apparatus and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012193045 2012-09-03
JP2012-193045 2012-09-03
JP2013182482A JP6238651B2 (ja) 2012-09-03 2013-09-03 超音波診断装置及び画像処理方法
JP2013-182482 2013-09-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/637,096 Continuation US9524551B2 (en) 2012-09-03 2015-03-03 Ultrasound diagnosis apparatus and image processing method

Publications (1)

Publication Number Publication Date
WO2014034948A1 true WO2014034948A1 (ja) 2014-03-06

Family

ID=50183745

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/073706 WO2014034948A1 (ja) 2012-09-03 2013-09-03 超音波診断装置及び画像処理方法

Country Status (4)

Country Link
US (1) US9524551B2 (ja)
JP (1) JP6238651B2 (ja)
CN (1) CN103781424A (ja)
WO (1) WO2014034948A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015171425A (ja) * 2014-03-11 2015-10-01 オリンパス株式会社 超音波観測装置
WO2017158998A1 (ja) * 2016-03-14 2017-09-21 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
EP3165172A4 (en) * 2014-10-16 2018-03-21 Olympus Corporation Ultrasonic observation apparatus

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015039302A1 (en) * 2013-09-18 2015-03-26 Shenzhen Mindray Bio-Medical Electronics Co., Ltd Method and system for guided ultrasound image acquisition
WO2015124388A1 (en) * 2014-02-19 2015-08-27 Koninklijke Philips N.V. Motion adaptive visualization in medical 4d imaging
US10729410B2 (en) 2014-06-18 2020-08-04 Koninklijke Philips N.V. Feature-based calibration of ultrasound imaging systems
JP6462331B2 (ja) * 2014-11-19 2019-01-30 キヤノンメディカルシステムズ株式会社 超音波診断装置、医用画像処理装置及び画像診断システム
US10675006B2 (en) * 2015-05-15 2020-06-09 Siemens Medical Solutions Usa, Inc. Registration for multi-modality medical imaging fusion with narrow field of view
JP6423540B2 (ja) * 2015-08-21 2018-11-14 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
JP6615603B2 (ja) * 2015-12-24 2019-12-04 キヤノンメディカルシステムズ株式会社 医用画像診断装置および医用画像診断プログラム
JP6873647B2 (ja) * 2016-09-30 2021-05-19 キヤノンメディカルシステムズ株式会社 超音波診断装置および超音波診断支援プログラム
US10492764B2 (en) * 2016-11-10 2019-12-03 Canon Medical Systems Corporation Ultrasound diagnosis apparatus, medical image processing apparatus, and medical image processing method
JP7066358B2 (ja) * 2016-11-10 2022-05-13 キヤノンメディカルシステムズ株式会社 超音波診断装置、医用画像処理装置、及び医用画像処理プログラム
JP6849462B2 (ja) * 2017-02-06 2021-03-24 キヤノンメディカルシステムズ株式会社 医用情報処理システム及び医用画像処理装置
CN109620140B (zh) * 2017-10-06 2021-07-27 佳能株式会社 图像处理装置、图像处理方法和存储介质
JP6976869B2 (ja) 2018-01-15 2021-12-08 キヤノンメディカルシステムズ株式会社 超音波診断装置及びその制御プログラム
JP7043363B2 (ja) * 2018-08-03 2022-03-29 富士フイルムヘルスケア株式会社 超音波診断システム
CN110893108A (zh) * 2018-09-13 2020-03-20 佳能医疗系统株式会社 医用图像诊断装置、医用图像诊断方法及超声波诊断装置
CN109124764B (zh) * 2018-09-29 2020-07-14 上海联影医疗科技有限公司 手术引导装置以及手术系统
CN111325077B (zh) * 2018-12-17 2024-04-12 同方威视技术股份有限公司 一种图像显示方法、装置、设备及计算机存储介质
CH718927A2 (de) * 2021-08-17 2023-02-28 Compremium Ag Verfahren System und Computerprogramm zur nichtinvasiven Erfassung einer zeitlichen Entwicklung eines Zustands einer Gewebestruktur sowie Verwendung des Verfahrens zur Gewinnung von Informationen zum elastischen Zustand von Kompartimenten.

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105638A (ja) * 2002-09-20 2004-04-08 Shimadzu Corp 超音波診断装置
WO2009136461A1 (ja) * 2008-05-07 2009-11-12 株式会社日立製作所 超音波診断装置
JP2011083637A (ja) * 2003-05-08 2011-04-28 Hitachi Medical Corp 超音波診断装置
JP2011125570A (ja) * 2009-12-18 2011-06-30 Canon Inc 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195882A (ja) 2006-01-30 2007-08-09 Toshiba Corp 超音波診断装置
JP5416109B2 (ja) 2008-07-22 2014-02-12 株式会社日立メディコ 超音波診断装置とそのスキャン面の座標算出方法
US20110224550A1 (en) * 2008-11-14 2011-09-15 Hitachi Medical Corporation Ultrasound diagnostic system and method for generating standard image data for the ultrasound diagnostic system
US20100158332A1 (en) * 2008-12-22 2010-06-24 Dan Rico Method and system of automated detection of lesions in medical images
KR101120684B1 (ko) * 2009-09-08 2012-03-29 삼성메디슨 주식회사 타원체의 관심영역에 기초하여 3차원 초음파 영상을 제공하는 초음파 시스템 및 방법
US20120155727A1 (en) * 2010-12-15 2012-06-21 General Electric Company Method and apparatus for providing motion-compensated images
JP5717543B2 (ja) * 2011-05-30 2015-05-13 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置及びその制御プログラム
CN103781426B (zh) * 2011-09-08 2016-03-30 株式会社日立医疗器械 超声波诊断装置以及超声波图像显示方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105638A (ja) * 2002-09-20 2004-04-08 Shimadzu Corp 超音波診断装置
JP2011083637A (ja) * 2003-05-08 2011-04-28 Hitachi Medical Corp 超音波診断装置
JP2011083638A (ja) * 2003-05-08 2011-04-28 Hitachi Medical Corp 超音波診断装置
JP2012091042A (ja) * 2003-05-08 2012-05-17 Hitachi Medical Corp 超音波診断装置
WO2009136461A1 (ja) * 2008-05-07 2009-11-12 株式会社日立製作所 超音波診断装置
JP2011125570A (ja) * 2009-12-18 2011-06-30 Canon Inc 画像処理装置、画像処理方法、及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015171425A (ja) * 2014-03-11 2015-10-01 オリンパス株式会社 超音波観測装置
EP3165172A4 (en) * 2014-10-16 2018-03-21 Olympus Corporation Ultrasonic observation apparatus
WO2017158998A1 (ja) * 2016-03-14 2017-09-21 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
JPWO2017158998A1 (ja) * 2016-03-14 2018-09-06 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
CN108778147A (zh) * 2016-03-14 2018-11-09 富士胶片株式会社 超声波诊断装置及超声波诊断装置的控制方法
CN108778147B (zh) * 2016-03-14 2021-04-09 富士胶片株式会社 超声波诊断装置及超声波诊断装置的控制方法

Also Published As

Publication number Publication date
US9524551B2 (en) 2016-12-20
CN103781424A (zh) 2014-05-07
JP6238651B2 (ja) 2017-11-29
US20150178921A1 (en) 2015-06-25
JP2014061291A (ja) 2014-04-10

Similar Documents

Publication Publication Date Title
JP6238651B2 (ja) 超音波診断装置及び画像処理方法
KR102452998B1 (ko) 초음파 진단 장치
US11653897B2 (en) Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus
US20190046153A1 (en) Ultrasonic diagnostic apparatus
JP5645811B2 (ja) 医用画像診断装置、関心領域設定方法、医用画像処理装置、及び関心領域設定プログラム
US10368841B2 (en) Ultrasound diagnostic apparatus
JP5897674B2 (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
JP6162493B2 (ja) 超音波診断装置
JP6109556B2 (ja) 超音波診断装置及び画像処理プログラム
JP6382050B2 (ja) 医用画像診断装置、画像処理装置、画像処理方法及び画像処理プログラム
JP2018057428A (ja) 超音波診断装置および超音波診断支援プログラム
JP6956483B2 (ja) 超音波診断装置、及び走査支援プログラム
KR20160076868A (ko) 의료영상 장치, 영상 처리 장치 및 영상 융합 방법
JP6125380B2 (ja) 超音波診断装置、医用画像処理装置及び画像処理プログラム
JP6833533B2 (ja) 超音波診断装置および超音波診断支援プログラム
JP6720001B2 (ja) 超音波診断装置、及び医用画像処理装置
JP7171228B2 (ja) 超音波診断装置及び医用情報処理プログラム
JP6334013B2 (ja) 超音波診断装置
JP6419413B2 (ja) 超音波診断装置及び位置合わせプログラム
JP2014239841A (ja) 超音波診断装置、医用画像処理装置及び制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13833414

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13833414

Country of ref document: EP

Kind code of ref document: A1