WO2014142037A1 - 超音波診断装置及び画像処理装置 - Google Patents

超音波診断装置及び画像処理装置 Download PDF

Info

Publication number
WO2014142037A1
WO2014142037A1 PCT/JP2014/056072 JP2014056072W WO2014142037A1 WO 2014142037 A1 WO2014142037 A1 WO 2014142037A1 JP 2014056072 W JP2014056072 W JP 2014056072W WO 2014142037 A1 WO2014142037 A1 WO 2014142037A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
interest
image data
predetermined
image
Prior art date
Application number
PCT/JP2014/056072
Other languages
English (en)
French (fr)
Inventor
淙 姚
哲也 川岸
嶺 喜隆
米山 直樹
寛樹 吉新
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN201480013750.0A priority Critical patent/CN105188555B/zh
Publication of WO2014142037A1 publication Critical patent/WO2014142037A1/ja
Priority to US14/850,807 priority patent/US11298109B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • G01S7/52038Details of receivers using analysis of echo signal for target characterisation involving non-linear properties of the propagation medium or of the reflective target
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode

Definitions

  • Embodiments described herein relate generally to an ultrasonic diagnostic apparatus and an image processing apparatus.
  • the ultrasound contrast agent may be omitted and referred to as a contrast agent.
  • the contrast echo method is intended to evaluate blood flow dynamics by, for example, injecting a contrast medium from a vein to enhance a blood flow signal in an examination of the heart or liver.
  • microbubbles function as a reflection source.
  • Sonazoid registered trademark
  • a microbubble encapsulating perfluorobutane gas with phospholipid is a second-generation ultrasound contrast agent called Sonazoid (registered trademark) recently released in Japan.
  • Sonazoid registered trademark
  • the state of reflux of the contrast agent can be stably observed by using transmission ultrasonic waves having a low and medium sound pressure that does not destroy microbubbles.
  • an operator such as a doctor increases and decreases the signal intensity from the inflow to the outflow of the contrast agent refluxed by the bloodstream. Can be observed.
  • researches are being conducted to perform benign / malignant differential diagnosis of mass lesions or diagnosis of “diffuse” diseases, etc., based on the difference in signal intensity over time.
  • the change with time in the signal intensity indicating the reflux kinetics of the contrast agent usually differs from simple morphological information, and usually needs to be interpreted in real time or after recording a moving image. Accordingly, the time required for interpretation of the reflux kinetics of the contrast agent is generally longer.
  • a method has been proposed in which the inflow time information of a contrast medium that is normally observed in a moving image is mapped onto a single still image. This method generates and displays a still image in which the difference in peak time of a contrast medium signal is expressed in different hues. By referring to this still image, the radiogram interpreter can easily grasp the inflow time at various points in the tomographic plane of the diagnostic site.
  • anti-angiogenic agents which are anticancer agents that have been studied in recent years, may destroy the blood vessels that feed the tumor, causing fragmentation and narrowing of the tumor blood vessels. Confirmed by observation. If contrast ultrasound observation can be visualized or quantified in a blood vessel that has been fragmented by an angiogenesis inhibitor in contrast-enhanced ultrasound imaging, the contrast-enhanced echo method can also be expected to be applied to determine therapeutic effects.
  • contrast ultrasound observation can be visualized or quantified in a blood vessel that has been fragmented by an angiogenesis inhibitor in contrast-enhanced ultrasound imaging
  • the contrast-enhanced echo method can also be expected to be applied to determine therapeutic effects.
  • the problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus and an image processing apparatus capable of improving the accuracy of quantitative analysis by the contrast echo method.
  • the ultrasonic diagnostic apparatus of the embodiment includes a first extraction unit, a second extraction unit, and a position setting unit.
  • the first extraction unit extracts the first position by comparing fundamental wave components among a plurality of pieces of image data acquired by ultrasonically scanning a subject to which a contrast agent has been administered.
  • the second extraction unit extracts a second position by comparing harmonic components between the plurality of image data.
  • the position setting unit sets the first position or the second position as a position of a region of interest for performing a predetermined analysis in at least one of the plurality of image data.
  • FIG. 1 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 2 is a diagram for explaining an example of a processing target of the candidate position extraction unit according to the first embodiment.
  • FIG. 3A is a diagram for explaining an extraction example of a region of interest in a fundamental image by a candidate position extraction unit according to the first embodiment.
  • FIG. 3B is a diagram for explaining an extraction example of a region of interest in a harmonic image by the candidate position extraction unit according to the first embodiment.
  • FIG. 4A is a diagram for explaining an example of processing by the position setting unit according to the first embodiment.
  • FIG. 4B is a diagram illustrating an example of information on the region of interest stored by the position setting unit according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of a region of interest set by the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 6 is a flowchart (1) illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 7 is a flowchart (2) illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 8 is a flowchart (3) illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 9 is a diagram for explaining an example in the case of using three-dimensional time-series data by the ultrasonic diagnostic apparatus according to the second embodiment.
  • FIG. 1 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus 100 according to the first embodiment.
  • the ultrasonic diagnostic apparatus according to the first embodiment includes an ultrasonic probe 1, a monitor 2, an input device 3, and an apparatus main body 10.
  • the ultrasonic probe 1 includes a plurality of piezoelectric vibrators, and the plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission / reception unit 11 included in the apparatus main body 10 described later.
  • the ultrasonic probe 1 receives a reflected wave from the subject P and converts it into an electrical signal.
  • the ultrasonic probe 1 includes a matching layer provided in the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like.
  • the ultrasonic probe 1 is detachably connected to the apparatus main body 10.
  • the transmitted ultrasonic waves are transmitted from the ultrasonic probe 1 to the subject P
  • the transmitted ultrasonic waves are reflected one after another at the discontinuous surface of the acoustic impedance in the body tissue of the subject P
  • the ultrasonic probe is used as a reflected wave signal. 1 is received by a plurality of piezoelectric vibrators.
  • the amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected.
  • the reflected wave signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving object in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift.
  • the apparatus main body 10 is connected as an ultrasonic probe 1 for two-dimensional scanning to a 1D array probe in which a plurality of piezoelectric vibrators are arranged in a row.
  • the apparatus main body 10 is connected to a mechanical 4D probe or a 2D array probe as the ultrasonic probe 1 for three-dimensional scanning.
  • the mechanical 4D probe is capable of two-dimensional scanning using a plurality of piezoelectric vibrators arranged in a line like a 1D array probe, and swings the plurality of piezoelectric vibrators at a predetermined angle (swing angle). By doing so, three-dimensional scanning is possible.
  • the 2D array probe can be three-dimensionally scanned by a plurality of piezoelectric vibrators arranged in a matrix and can be two-dimensionally scanned by focusing and transmitting ultrasonic waves.
  • This embodiment can be applied to the case where the subject P is two-dimensionally scanned by the ultrasonic probe 1 or three-dimensionally scanned.
  • the input device 3 includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, a joystick, etc., receives various setting requests from an operator of the ultrasonic diagnostic apparatus, The various setting requests received are transferred. For example, the input device 3 accepts various operations for executing quantitative analysis by the contrast echo method from the operator.
  • the monitor 2 displays a GUI (Graphical User Interface) for an operator of the ultrasonic diagnostic apparatus to input various setting requests using the input device 3, an ultrasonic image generated in the apparatus main body 10, The position of the region of interest in the sound wave image is displayed.
  • GUI Graphic User Interface
  • the apparatus main body 10 is an apparatus that generates ultrasonic image data based on a reflected wave signal received by the ultrasonic probe 1.
  • the apparatus main body 10 shown in FIG. 1 is an apparatus that can generate two-dimensional ultrasonic image data based on two-dimensional reflected wave data received by the ultrasonic probe 1.
  • the apparatus main body 10 shown in FIG. 1 is an apparatus that can generate three-dimensional ultrasonic image data based on three-dimensional reflected wave data received by the ultrasonic probe 1.
  • the three-dimensional ultrasound image data may be referred to as “volume data”.
  • the apparatus main body 10 includes a transmission / reception unit 11, a B-mode processing unit 12, a Doppler processing unit 13, an image generation unit 14, an image processing unit 15, an image memory 16, and an internal storage unit. 17 and a control unit 18.
  • the transmission / reception unit 11 includes a pulse generator, a transmission delay unit, a pulser, and the like, and supplies a drive signal to the ultrasonic probe 1.
  • the pulse generator repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency.
  • the transmission delay unit generates a delay time for each piezoelectric vibrator necessary for focusing the ultrasonic wave generated from the ultrasonic probe 1 into a beam and determining transmission directivity. Give for each rate pulse.
  • the pulser applies a drive signal (drive pulse) to the ultrasonic probe 1 at a timing based on the rate pulse. That is, the transmission delay unit arbitrarily adjusts the transmission direction of the ultrasonic wave transmitted from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.
  • the transmission / reception unit 11 has a function capable of instantaneously changing a transmission frequency, a transmission drive voltage, and the like in order to execute a predetermined scan sequence based on an instruction from the control unit 18 described later.
  • the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit capable of instantaneously switching the value or a mechanism for electrically switching a plurality of power supply units.
  • the transmission / reception unit 11 includes a preamplifier, an A / D (Analog / Digital) converter, a reception delay unit, an adder, and the like.
  • the transmission / reception unit 11 performs various processing on the reflected wave signal received by the ultrasonic probe 1 and reflects it. Generate wave data.
  • the preamplifier amplifies the reflected wave signal for each channel.
  • the A / D converter A / D converts the amplified reflected wave signal.
  • the reception delay unit gives a delay time necessary for determining the reception directivity.
  • the adder performs an addition process on the reflected wave signal processed by the reception delay unit to generate reflected wave data. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized, and a comprehensive beam for ultrasonic transmission / reception is formed by the reception directivity and the transmission directivity.
  • the transmission / reception unit 11 transmits a two-dimensional ultrasonic beam from the ultrasonic probe 1 when the subject P is two-dimensionally scanned. Then, the transmission / reception unit 11 generates two-dimensional reflected wave data from the two-dimensional reflected wave signal received by the ultrasonic probe 1. In addition, when the subject P is three-dimensionally scanned, the transmission / reception unit 11 transmits a three-dimensional ultrasonic beam from the ultrasonic probe 1. Then, the transmission / reception unit 11 generates three-dimensional reflected wave data from the three-dimensional reflected wave signal received by the ultrasonic probe 1.
  • the form of the output signal from the transmitter / receiver 11 can be selected from various forms such as a signal including phase information called an RF (Radio Frequency) signal or amplitude information after envelope detection processing. Is possible.
  • RF Radio Frequency
  • the B-mode processing unit 12 receives the reflected wave data from the transmission / reception unit 11, performs logarithmic amplification, envelope detection processing, and the like, and generates data (B-mode data) in which the signal intensity is expressed by brightness. .
  • the B-mode processing unit 12 can change the frequency band to be visualized by changing the detection frequency.
  • a contrast echo method for example, contrast harmonic imaging (CHI) can be executed. That is, the B-mode processing unit 12 generates reflected wave data (harmonic data or frequency-divided data) using a microbubble as a reflection source from the reflected wave data of the subject P into which the ultrasound contrast agent has been injected. The reflected wave data (fundamental wave data) using the tissue in the subject P as a reflection source can be separated. Thereby, the B-mode processing unit 12 can extract harmonic data or frequency-divided data from the reflected wave data of the subject P, and generate B-mode data for generating contrast image data. In addition, the B mode processing unit 12 can extract the fundamental wave data from the reflected wave data of the subject P and generate B mode data for generating tissue image data.
  • CHI contrast harmonic imaging
  • the Doppler processing unit 13 performs frequency analysis on velocity information from the reflected wave data received from the transmission / reception unit 11, extracts blood flow, tissue, and contrast agent echo components due to the Doppler effect, and obtains moving body information such as velocity, dispersion, and power. Data extracted for multiple points (Doppler data) is generated.
  • the B-mode processing unit 12 and the Doppler processing unit 13 can process both two-dimensional reflected wave data and three-dimensional reflected wave data. That is, the B-mode processing unit 12 generates two-dimensional B-mode data from the two-dimensional reflected wave data, and generates three-dimensional B-mode data from the three-dimensional reflected wave data.
  • the Doppler processing unit 13 generates two-dimensional Doppler data from the two-dimensional reflected wave data, and generates three-dimensional Doppler data from the three-dimensional reflected wave data.
  • the image generation unit 14 generates ultrasonic image data from the data generated by the B mode processing unit 12 and the Doppler processing unit 13. That is, the image generation unit 14 generates two-dimensional B-mode image data in which the intensity of the reflected wave is expressed by luminance from the two-dimensional B-mode data generated by the B-mode processing unit 12. Further, the image generation unit 14 generates two-dimensional Doppler image data representing moving body information from the two-dimensional Doppler data generated by the Doppler processing unit 13.
  • the two-dimensional Doppler image data is a velocity image, a dispersion image, a power image, or an image obtained by combining these.
  • the image generation unit 14 generally converts (scan converts) a scanning line signal sequence of ultrasonic scanning into a scanning line signal sequence of a video format represented by a television or the like, and displays ultrasonic waves for display. Generate image data. Specifically, the image generation unit 14 generates ultrasonic image data for display by performing coordinate conversion in accordance with the ultrasonic scanning mode of the ultrasonic probe 1. In addition to the scan conversion, the image generation unit 14 performs various image processing, such as image processing (smoothing processing) for regenerating an average luminance image using a plurality of image frames after scan conversion, Image processing (edge enhancement processing) using a differential filter is performed in the image. In addition, the image generation unit 14 synthesizes character information, scales, body marks, and the like of various parameters with the ultrasound image data.
  • image processing smoothing processing
  • Image processing edge enhancement processing
  • the B-mode data and the Doppler data are ultrasonic image data before the scan conversion process, and the data generated by the image generation unit 14 is ultrasonic image data for display after the scan conversion process.
  • the B-mode data and Doppler data are also called raw data.
  • the image generation unit 14 generates three-dimensional B-mode image data by performing coordinate conversion on the three-dimensional B-mode data generated by the B-mode processing unit 12. Further, the image generation unit 14 generates three-dimensional Doppler image data by performing coordinate conversion on the three-dimensional Doppler data generated by the Doppler processing unit 13. In other words, the image generation unit 14 generates “three-dimensional B-mode image data or three-dimensional Doppler image data” as “three-dimensional ultrasound image data (volume data)”.
  • the image generation unit 14 performs a rendering process on the volume data in order to generate various two-dimensional image data for displaying the volume data on the monitor 2.
  • the rendering processing performed by the image generation unit 14 includes processing for generating MPR image data from volume data by performing a cross-section reconstruction method (MPR: Multi Planer Reconstruction).
  • MPR Multi Planer Reconstruction
  • the rendering process performed by the image generation unit 14 includes a process of performing “Curved MPR” on volume data and a process of performing “Maximum Intensity Projection” on volume data.
  • the rendering processing performed by the image generation unit 14 includes volume rendering (VR) processing that generates two-dimensional image data reflecting three-dimensional information.
  • the image memory 16 is a memory that stores image data for display generated by the image generation unit 14.
  • the image memory 16 can also store data generated by the B-mode processing unit 12 and the Doppler processing unit 13.
  • the image data for display stored in the image memory 16 can be called by an operator after diagnosis, for example.
  • the B-mode data and Doppler data stored in the image memory 16 can also be called by an operator after diagnosis, for example, and become ultrasonic image data for display via the image generation unit 14. .
  • the image memory 16 can also store data output from the transmission / reception unit 11.
  • the image processing unit 15 is installed in the apparatus main body 10 in order to perform computer-aided diagnosis (CAD).
  • CAD computer-aided diagnosis
  • the image processing unit 15 acquires data stored in the image memory 16 and performs image processing. Then, the image processing unit 15 stores the image processing result in the image memory 16 or an internal storage unit 17 described later. The processing performed by the image processing unit 15 will be described in detail later.
  • the internal storage unit 17 stores various data such as a control program for performing ultrasonic transmission / reception, image processing and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), diagnostic protocol, and various body marks. To do.
  • the internal storage unit 17 is also used for storing image data stored in the image memory 16 as necessary.
  • the data stored in the internal storage unit 17 can be transferred to an external device via an interface (not shown).
  • the external device is, for example, various medical image diagnostic apparatuses, a PC (Personal Computer) used by a doctor who performs image diagnosis, a storage medium such as a CD or a DVD, a printer, or the like.
  • the control unit 18 controls the entire processing of the ultrasonic diagnostic apparatus. Specifically, the control unit 18 is based on various setting requests input from the operator via the input device 3 and various control programs and various data read from the internal storage unit 17. The processing of the processing unit 12, the Doppler processing unit 13, the image generation unit 14, and the image processing unit 15 is controlled. Further, the control unit 18 controls the monitor 2 to display the image data stored in the image memory 16 or the internal storage unit 17.
  • the ultrasonic diagnostic apparatus can improve the accuracy of quantitative analysis by the contrast echo method by the processing of the image processing unit 15 described in detail below.
  • a case where accuracy decreases in the quantitative analysis of the conventional contrast echo method will be described.
  • an analysis using TCA Time Curve Analysis
  • the TCA can confirm the characteristics of the tumor or the change with time of the treatment by analyzing the temporal change of the contrast agent in the analysis region such as the region of interest.
  • the TCA described above it is required to always capture the region of interest as the analysis region in order to maintain the quantitative accuracy.
  • the position of the region of interest in the ultrasound scanning region may fluctuate due to patient respiration, heart pulsation, operator movement, and the like.
  • a technique for dynamically tracking a region of interest using harmonic image data is known as a technology for dealing with such changes in the region of interest, but the harmonic image data undergoes significant changes before and after contrast imaging.
  • the harmonic image before reaching the contrast agent is almost black, it is difficult to specify the region of interest.
  • the ultrasonic diagnostic apparatus 100 since there is a certain limit in the accuracy of tracking the variation of the region of interest, there is a certain limit in the accuracy of quantitative analysis for the region of interest. Therefore, in the ultrasonic diagnostic apparatus 100 according to the first embodiment, it is possible to improve the accuracy of quantitative analysis by the contrast echo method by accurately detecting the region of interest by the processing of the image processing unit 15. .
  • the image processing unit 15 includes a candidate position extraction unit 151 and a position setting unit 152.
  • the candidate position extraction unit 151 extracts a first position by comparing fundamental wave components among a plurality of image data acquired by ultrasonic scanning of a subject to which a contrast agent is administered.
  • the candidate position extraction unit 151 extracts the second position by comparing harmonic components between a plurality of image data.
  • the candidate position extraction unit 151 sets the first position of the region of interest included in each of the time-series image data acquired by ultrasonic scanning of the subject to which the contrast agent is administered as a time-series image. Extraction is performed based on the similarity of fundamental wave components between data.
  • the candidate position extraction unit 151 extracts the second position of the region of interest included in each of the time-series image data based on the harmonic component similarity between the time-series image data.
  • the candidate position extraction unit 151 is different from the fundamental wave component in the region set at a predetermined position in the predetermined image data included in the plurality of image data and the predetermined image data included in the plurality of image data. Compares fundamental wave components in a plurality of regions set at a plurality of positions corresponding to a predetermined position in image data, and among the plurality of regions, a fundamental wave component in a region set at a predetermined position in predetermined image data The position corresponding to the region having the fundamental wave component most similar to is extracted as the first position.
  • the candidate position extraction unit 151 also includes harmonic components in a region set at a predetermined position in predetermined image data and harmonics in a plurality of regions set at a plurality of positions corresponding to a predetermined position in different image data. The component is compared, and the position corresponding to the region having the harmonic component most similar to the harmonic component in the region set at the predetermined position in the predetermined image data among the plurality of regions is extracted as the second position.
  • FIG. 2 is a diagram for explaining an example of processing targets of the candidate position extraction unit 151 according to the first embodiment.
  • the candidate position extraction unit 151 targets time-series data from frame 1 to frame n collected by ultrasonic scanning of a patient who has received a contrast medium.
  • the region of interest detection process is executed.
  • time-series frames are arranged in order from frame 1.
  • the candidate position extraction unit 151 displays the image of the frame 3 as shown in FIG. A harmonic image composed of harmonic components of data and a fundamental image composed of fundamental wave components are extracted.
  • the region of interest set in the frame 3 may be set through the input device 3 by the operator who observed the time series data, or a pattern for each image data included in the time series data. It may be a case where it is automatically extracted and set by processing such as matching.
  • the candidate position extraction unit 151 extracts the harmonic image and the fundamental image from each frame of the time series data, and extracts the position of the region of interest R1 in each image.
  • the candidate position extraction unit 151 is the same as the fundamental wave component in the region of interest set for the predetermined image data included in the time-series image data and the region of interest set in the time-series image data. Calculate the similarity to the fundamental component in the multiple candidate regions set to the same size as the region of interest for the region that covers the region of the location, and the position of the candidate region with the highest calculated similarity Is extracted as the first position.
  • FIG. 3A is a diagram for explaining an extraction example of a region of interest in a fundamental image by the candidate position extraction unit 151 according to the first embodiment.
  • FIG. 3A shows a case where the candidate position of the region of interest R1 in the fundamental image of frame 2 is extracted based on the region of interest R1 set in the fundamental image of frame 3.
  • the frame 2 is shown larger than the frame 3 for explanation, but the size is actually the same.
  • the candidate position extraction unit 151 sets the position (coordinates) of the center of the region of interest R1 and the size (for example, diameter) of the region when the region of interest R1 is set in the frame 3. Get information.
  • the candidate position extraction unit 151 is interested in the region covering the region of interest.
  • a plurality of sub-regions having the same size as the region R1 are set.
  • the candidate position extraction unit 151 sets subregions FSR1, FSR2, FSR3, and the like that include pixels included in the region of interest R1.
  • FSR1 to FSR3 are shown, but actually, a larger number of subregions are set.
  • the sub-region FSR is set, for example, by shifting the pixels included in the region of interest R1 one by one.
  • the size of the region covering the region of interest R1 can be arbitrarily set. For example, a change in the position of the target part for each breathing phase is acquired in advance, and the extent to which the region of interest R1 changes is estimated from the breathing phase in the frame for setting the position of the region of interest R1. Thus, the size of the area may be determined.
  • breathing is taken as an example, but it may be a case where a cardiac phase is used, or a case where the hardness of an examination site is considered.
  • the candidate position extraction unit 151 calculates the similarity between each set sub-region and the region of interest R1 in the frame 3. For example, as illustrated in FIG. 3A, the candidate position extraction unit 151 performs the similarity between the region of interest R1 and the subregion FSR1, the similarity between the region of interest R1 and the subregion FSR2, and the similarity between the region of interest R1 and the subregion FSR3. Degree etc. are calculated in order.
  • the similarity between regions may be, for example, a case where an average value of pixel values is used or a case where a histogram of pixel values is used. That is, any method may be used as long as it can calculate the similarity of images.
  • the candidate position extraction part 151 will extract the sub-region FSR which shows the highest similarity in the calculated similarity as a candidate position of the region of interest R1 in a fundal image, if the similarity between each area
  • the candidate position extraction unit 151 extracts the sub-region FSR2 as a candidate position of the region of interest R1 in the fundamental image.
  • the candidate position extraction unit 151 applies a harmonic component in the region of interest set for the predetermined image data and a region covering the region at the same position as the region of interest set in the time-series image data. Similarities with the harmonic components in a plurality of candidate areas set with the same size as the region of interest are calculated, and the position of the candidate area with the highest calculated similarity is extracted as the second position.
  • FIG. 3B is a diagram for explaining an extraction example of a region of interest in a harmonic image by the candidate position extraction unit 151 according to the first embodiment.
  • FIG. 3B shows a case where the candidate position of the region of interest R1 in the harmonic image of frame 2 is extracted based on the region of interest R1 set in the harmonic image of frame 3.
  • the frame 2 is shown larger than the frame 3 for the sake of explanation, the size is actually the same.
  • the candidate position extraction unit 151 sets the position (coordinates) of the center of the region of interest R1 and the size (for example, diameter) of the region when the region of interest R1 is set in the frame 3. Get information.
  • the candidate position extraction unit 151 covers the region of interest R1.
  • the candidate position extraction unit 151 sets subregions HSR1, HSR2, HSR3, and the like that include pixels included in the region of interest R1.
  • FIG. 3B only HSR 1 to 3 are shown, but actually, a larger number of sub-regions are set.
  • the sub-region HSR is set, for example, while shifting the pixels included in the region of interest R1 one by one.
  • the size of the region covering the region of interest R1 can be arbitrarily set as in the above case.
  • the candidate position extraction unit 151 calculates the similarity between each set sub-region and the region of interest R1 in the frame 3. For example, as illustrated in FIG. 3B, the candidate position extraction unit 151 includes a similarity between the region of interest R1 and the subregion HSR1, a similarity between the region of interest R1 and the subregion HSR2, and a similarity between the region of interest R1 and the subregion HSR3. Degree etc. are calculated in order.
  • the similarity between regions may be, for example, a case where an average value of pixel values is used or a case where a histogram of pixel values is used. That is, any method may be used as long as it can calculate the similarity of images.
  • the candidate position extraction unit 151 extracts a sub-region HSR indicating the highest similarity among the calculated similarities as a candidate position of the region of interest R1 in the harmonic image. For example, as shown in FIG. 3B, the candidate position extraction unit 151 extracts the sub-region HSR5 as a candidate position of the region of interest R1 in the harmonic image.
  • Various similarity calculation methods can be applied to the above-described similarity calculation in the fundamental image and the similarity calculation in the harmonic image, but the same method is applied.
  • the position setting unit 152 performs, for each of the time-series image data, based on the characteristics of the pixels in the area at the first position and the characteristics of the pixels in the area at the second position. , One of the first position and the second position is set as the position of the region of interest. Specifically, the position setting unit 152 sets a position having a high similarity as the position of the region of interest among the similarity of the fundamental component at the first position and the similarity of the harmonic component at the second position. To do.
  • FIG. 4A is a diagram for explaining an example of processing by the position setting unit 152 according to the first embodiment.
  • the position setting unit 152 is extracted from the harmonic image and the similarity of the sub-region FSR2 that is the candidate position of the region of interest R1 extracted from the fundamental image by the candidate position extraction unit 151.
  • the similarity of the sub-region HSR5 that is a candidate position of the region of interest R1 is compared, and the position of the sub-region FSR2 having a high similarity is set as the position of the region of interest R1 of the frame 2.
  • the position setting unit 152 is interested in the first position or the second position on the condition that the variance value of the pixel values in the region at the first position or the second position exceeds a predetermined threshold value.
  • Set as region position For example, when setting the position of the region of interest R1 in the frame 2 as the position of the subregion FSR2 of the fundamental image, the position setting unit 152 calculates a variance value of the pixel values of the pixels included in the subregion FSR2, Compare with a predetermined threshold.
  • the position setting unit 152 sets the position of the sub-region FSR2 as the position of the region of interest R1 of the frame 2 when the variance of the pixel values of the pixels included in the sub-region FSR2 exceeds a predetermined threshold value. Set. As a result, it is possible to set a region in which a region of interest is clearly depicted as a region of interest.
  • FIG. 4B is a diagram illustrating an example of the region of interest information stored by the position setting unit 152 according to the first embodiment.
  • the position setting unit 152 stores, in the internal storage unit 17, information on a region of interest in which a region of interest center, a region of interest size, and a flag are associated with each other.
  • the region-of-interest center means the coordinates of the center position of the set region of interest.
  • the region of interest size means the size of the region of interest.
  • the flag means a flag indicating whether or not to use information on a region of interest in a corresponding frame.
  • the candidate position extraction unit 151 acquires the information on the region of interest in frame 3 shown in FIG. 4B and executes the above-described processing.
  • Center: (6,7) (5,5) + (1,1), region of interest size: 2 cm, flag:-"
  • the position setting unit 152 can store the information of “region of interest center” as the coordinate information “(6, 7)” after the movement, or is set first. It is also possible to store the information of the coordinates “(5, 5)” of the region of interest R1 and the “+ (1, 1)” information of the offset. That is, the position setting unit 152 can store information indicating where the region of interest is in each frame, or how much each frame moves from the region of interest set first. Can be stored.
  • the candidate position extraction unit 151 extracts the first positions in the forward and reverse order in time series with reference to the image data in which the region of interest is set.
  • the candidate position extraction unit 151 extracts second positions respectively in the forward and reverse order of time series with reference to the image data in which the region of interest is set. For example, when the region of interest R1 is set for the frame 3, the candidate position extraction unit 151 displays a candidate position indicating a candidate for the position of the region of interest R1 in the frame 4 as a fundamental image, similarly to the processing of the frame 2 described above. And from each of the harmonic images.
  • the candidate position extraction unit 151 reads the information on the region of interest R1 in the frame 2 and 1, candidate positions indicating candidates for the position of the region of interest R ⁇ b> 1 are extracted from the fundamental image and the harmonic image.
  • the image processing unit 15 according to the first embodiment extracts the position of the region of interest in each of the fundamental image and the harmonic image for each frame of the time-series data, and compares them, thereby achieving more accurate. Perform high region of interest positioning. Thereby, for example, as shown in FIG. 5, the position of the region of interest R1 is set over all the frames of the time-series data.
  • FIG. 5 is a diagram illustrating an example of a region of interest set by the ultrasonic diagnostic apparatus 100 according to the first embodiment.
  • the position of the region of interest shown in FIG. 5 is set with higher accuracy because it is set using both the fundamental image and the harmonic image. As a result, it is possible to improve the accuracy of quantitative analysis using the contrast echo method by executing TCA using the region of interest set in each frame shown in FIG.
  • the position of the region of interest described above can be set with respect to the frame in which the region of interest is set as a reference, or the position of the region of interest can be set between two consecutive frames in time series. It is also possible to set the position of the region of interest.
  • the positions of the regions of interest in all the frames may be set based on the positions of the regions of interest in the frame 3 in which the positions of the regions of interest are initially set.
  • the positions of the regions of interest in the frame 3 may be set.
  • the position of the region of interest in the frame 2 may be set based on the above, and the position of the region of interest in the frame 1 may be set based on the set position of the region of interest in the frame 2.
  • FIG. 6 is a flowchart (1) illustrating a processing procedure performed by the ultrasonic diagnostic apparatus 100 according to the first embodiment.
  • the candidate position extraction unit 151 extracts candidate positions for each of the fundamental image and the harmonic image in a frame continuous to the frame in which the position of interest is set (step S102).
  • the position setting unit 152 sets a candidate position of either the fundamental image or the harmonic image as the position of the region of interest in the frame based on at least one of the similarity and the variance of the pixel values (step S103). Then, the candidate position extraction unit 151 determines whether there is a next frame (step S105).
  • the candidate position extraction unit 151 returns to Step S102 and continues the process. On the other hand, if it is determined that there is no next frame (No at Step S105), the candidate position extraction unit 151 ends the process.
  • FIG. 7 is a flowchart (2) illustrating a processing procedure performed by the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 7 shows a case where the comparison between the candidate position of the fundamental image and the candidate position of the harmonic image is executed based on the similarity.
  • processing is executed in the normal order and the reverse order in time series from the frame in which the region of interest is set in the time series data.
  • young step numbers are assigned in the past direction, but actually, the past direction (reverse order) and the future direction (normal order) are executed simultaneously.
  • step S202 the candidate position extraction unit 151 acquires the position, offset, and size of the region of interest in the current frame. Then, the candidate position extraction unit 151 updates the frame of the target frame (currently ⁇ 1) (step S203), and the similarity of each position within a predetermined range including the region of interest for each of the fundamental image and the harmonic image. Are respectively calculated (step S204). The position setting unit 152 then matches the position corresponding to the highest similarity among the calculated similarities as the position of the region of interest, and updates the matched position (position of the region of interest + offset) (step) S205).
  • the candidate position extraction unit 151 acquires the position, offset, and size of the region of interest in the current frame in step S202. Then, the candidate position extraction unit 151 updates the frame of the target frame (currently +1) (step S208), and calculates the similarity of each position within a predetermined range including the region of interest for each of the fundamental image and the harmonic image. Each is calculated (step S209). The position setting unit 152 then matches the position corresponding to the highest similarity among the calculated similarities as the position of the region of interest, and updates the matched position (position of the region of interest + offset) (step) S210).
  • FIG. 8 is a flowchart (3) illustrating a processing procedure performed by the ultrasonic diagnostic apparatus 100 according to the first embodiment.
  • the candidate position extraction unit 151 displays the current frame (Reference Frame), the region of interest.
  • Information of offset 0 is acquired. That is, the candidate position extraction unit 151 acquires the position, offset, and size of the region of interest in the current frame in step S302 (step S302). Then, the candidate position extraction unit 151 updates the frame of the target frame (currently +1) (step S303), and calculates the similarity of each position within a predetermined range including the region of interest for each of the fundamental image and the harmonic image. Each is calculated (step S304). Here, the position setting unit 152 determines whether or not the highest similarity among the calculated similarities is below a predetermined threshold (step S305).
  • the position setting unit 152 matches the position corresponding to the highest similarity as the position of the region of interest.
  • the matched position is updated (position of interest region + offset) (step S306).
  • step S305 If it is determined in step S305 that the highest similarity has fallen below a predetermined threshold (Yes in step S305), the position setting unit 152 performs control so that a warning is issued from the monitor 2 to the user. A flag indicating that the information of the region of interest is not used is set (step S309). That is, the position setting unit 152 sets a flag in the flag area of the frame that is the target of the data illustrated in FIG. 4B. Then, the candidate position extraction unit 151 executes the processing after returning to step S303. In the real-time processing described above, the determination of the predetermined range in the next frame can be estimated based on, for example, patient breathing or ECG information.
  • the candidate position extraction unit 151 includes the region of interest included in each of the time-series image data acquired by ultrasonically scanning the subject to which the contrast agent is administered.
  • the first position is extracted based on the similarity of fundamental wave components between time-series image data.
  • the candidate position extraction unit 151 extracts the second position of the region of interest included in each of the time series image data based on the harmonic component similarity between the time series image data.
  • the position setting unit 152 selects the first position or the pixel based on the characteristics of the pixels in the area at the first position and the characteristics of the pixels in the area at the second position. Either one of the second positions is set as the position of the region of interest.
  • the ultrasonic diagnostic apparatus 100 sets the position of the region of interest using information on the side in which the information is stably obtained in the fundamental image and the harmonic image of each frame in the time series data. This makes it possible to accurately set the position of the region of interest. As a result, the ultrasonic diagnostic apparatus 100 according to the first embodiment can improve the accuracy of quantitative analysis by using the region of interest positioned with high accuracy for the TCA.
  • the candidate position extraction unit 151 includes the fundamental wave component in the region of interest set for the predetermined image data included in the time-series image data, and the time-series image data. Calculates the similarity to the fundamental component in the multiple candidate regions set to the same size as the region of interest for the region covering the region at the same position as the region of interest set in The position of the candidate area with the highest degree is extracted as the first position. Further, the candidate position extraction unit 151 applies a harmonic component in the region of interest set for the predetermined image data and a region covering the region at the same position as the region of interest set in the time-series image data.
  • the ultrasonic diagnostic apparatus 100 calculates the similarity for each finely set region in consideration of the change in the position of the region of interest, thereby determining the region of interest with higher accuracy. Makes it possible to extract.
  • the position setting unit 152 selects a position having a high similarity between the similarity of the fundamental component at the first position and the similarity of the harmonic component at the second position. Set as the position of the region of interest. Therefore, the ultrasonic diagnostic apparatus 100 according to the first embodiment makes it possible to set a region of interest with higher accuracy.
  • the position setting unit 152 sets the first value on the condition that the variance value of the pixel values in the region at the first position or the second position exceeds a predetermined threshold value.
  • a position or a second position is set as the position of the region of interest. Therefore, the ultrasonic diagnostic apparatus 100 according to the first embodiment makes it possible to set, as a region of interest, a region in which a target portion is clearly depicted in the region. For example, in a harmonic image, when the entire region is in a completely dark state or in a state where the entire region is shining, even if the degree of similarity is high, it can be prevented from being set as a region of interest by the above-described conditions. .
  • the candidate position extraction unit 151 extracts the first positions in the forward and reverse order in time series with reference to the image data in which the region of interest is set. In addition, the candidate position extraction unit 151 extracts second positions respectively in the forward and reverse order of time series with reference to the image data in which the region of interest is set. Therefore, the ultrasonic diagnostic apparatus 100 according to the first embodiment can deal with a case where the region of interest is set at any position in the time series data. That is, it is possible to freely select a region of interest that is easy to see (easier to judge) from any frame in the time-series data.
  • the position setting unit 152 is provided on the condition that the similarity of the fundamental component at the first position or the similarity of the harmonic component at the second position exceeds a predetermined threshold.
  • the first position or the second position is set as the position of the region of interest. Therefore, the ultrasonic diagnostic apparatus 100 according to the first embodiment can detect irregular movement of the position, for example, can indicate an operation mistake of the ultrasonic probe.
  • the monitor 2 has the position setting unit 152 such that the similarity of the fundamental component at the first position and the similarity of the harmonic component at the second position do not exceed a predetermined threshold. If it is determined, a warning is sent to the operator. Therefore, the ultrasonic diagnostic apparatus 100 according to the first embodiment makes it possible to immediately cope with irregularities.
  • FIG. 9 is a diagram for explaining an example in which three-dimensional time-series data is used by the ultrasonic diagnostic apparatus 100 according to the second embodiment.
  • FIG. 9 shows the volume data collected at time t1 and the volume data collected at time t2.
  • the candidate position extraction unit 151 acquires information on the position and offset of the region of interest R10.
  • the coordinates and offset of the center of the region of interest R10 are (x, y, z) triaxial information.
  • the candidate position extraction unit 151 extracts candidate positions of the region of interest R10 in the fundamental data of the volume data at t2 and the harmonic data.
  • the candidate position extraction unit 151 sets a predetermined three-dimensional area in the fundamental data based on the position and offset information of the region of interest R10 at t1, the state of breathing, the cardiac phase, etc. The similarity between each of the plurality of regions and the region of interest R10 is calculated. The candidate position extraction unit 151 performs the same process on the harmonic data.
  • the position setting part 152 which concerns on 2nd Embodiment sets the area
  • the change in the position of the region of interest R10 indicated by t1 to t2 is caused by pulsation and is a movement in one heartbeat
  • an ultrasonic image is collected in three dimensions for the first one heartbeat.
  • the observer can observe the ultrasonic image without feeling any influence of the change in the position of the region of interest R10.
  • the embodiment is not limited to this.
  • the position of the region of interest may be set using only the fundamental image.
  • the transmission / reception unit 11 collects a plurality of pieces of image data by ultrasonically scanning the subject to which the contrast agent is administered.
  • the candidate position extraction unit 151 compares the fundamental component between the plurality of image data collected by the transmission / reception unit 11 to perform the position of the region of interest for performing a predetermined analysis in at least one of the plurality of image data. To extract.
  • the transmission / reception unit 11 collects time-series image data by ultrasonically scanning a subject to which a contrast medium is administered. Then, the candidate position extraction unit 151 extracts the position of the region of interest included in each of the time series image data collected by the transmission / reception unit 11 based on the similarity of the fundamental wave component between the time series image data. . Then, the position setting unit 152 sets the position of the region of interest extracted by the candidate position extraction unit 151 as the position of the region of interest in each time-series image data. That is, the candidate position extraction unit 151 is different from the fundamental wave component in the region set at the predetermined position in the predetermined image data included in the plurality of image data and the predetermined image data included in the plurality of image data.
  • an area covering the area of the same position as the area of interest set for the predetermined image data is set as another image data of the plurality of image data, and the predetermined image data
  • the region of interest in another image data is set based on the fundamental wave component or the harmonic component in the predetermined region.
  • the embodiment is not limited to this.
  • the region of interest may be extracted and set for the entire region of different image data.
  • the candidate position extraction unit 151 has the highest similarity in the fundamental image of the frame 2 with the region of interest R1 in the fundamental image of the frame 3. Extract high areas. For example, the candidate position extraction unit 151 acquires the size (for example, diameter) of the region of interest R1 set in the frame 3.
  • the candidate position extraction unit 151 extracts a region having the same size as the size acquired from the fundamental image of the frame 2 and calculates the similarity with the region of interest R1.
  • the candidate position extraction unit 151 extracts a region having the same size as the region of interest R1 while shifting the pixels one by one for the entire region of the fundamental image of frame 2, and calculates the similarity to the region of interest R1.
  • the candidate position extraction unit 151 calculates the similarity between all the regions extracted from the frame 2 and the region of interest R1, and selects the region with the highest similarity as the region of interest candidate in the fundamental image of the frame 2. Extract as position.
  • the candidate position extraction unit 151 extracts a region having the highest similarity to the region of interest R1 in the harmonic image of frame 3 in the harmonic image of frame 2. For example, the candidate position extraction unit 151 extracts a region having the same size as the region of interest R1 while shifting the pixels one by one for the entire region of the harmonic image of the frame 2, and the region of interest R1 in the harmonic image of the frame 3 The similarity is calculated. Then, the candidate position extraction unit 151 extracts the region having the highest similarity as the candidate position of the region of interest in the harmonic image of frame 2.
  • the position setting unit 152 sets a position having a high similarity as a region of interest in the frame 2 among the candidate position in the fundamental image extracted by the candidate position extraction unit 151 and the candidate position in the harmonic image.
  • the example mentioned above demonstrated the case where the candidate position of a region of interest was extracted in each of a fundamental image and a harmonic image, and a candidate position with high similarity was set as a region of interest.
  • the embodiment is not limited to this, and the candidate position extracted in either the fundamental image or the harmonic image may be set as a region of interest as it is.
  • the region of interest may be set to data having different collection times.
  • the region of interest of the current data may be set based on the region of interest set in the past.
  • the candidate position extraction unit 151 acquires information on the position (for example, center coordinates) and size (for example, diameter) of the region of interest set in the past. Then, based on the acquired information, the candidate position extraction unit 151 sets a plurality of sub-regions having the same size as the region of interest in a region that covers the same position as the region of interest set in the past.
  • the candidate position extraction unit 151 calculates the similarity between the set sub-regions and the region of interest set in the past, and extracts the sub-region with the highest similarity.
  • the fundal image and the harmonic image may be extracted, and the position with the higher degree of similarity may be set as the position of the region of interest.
  • the temporal change of the contrast agent may change greatly depending on the treatment. Therefore, the position of the sub-region with the highest similarity extracted from the fundamental image may be used as the position of the region of interest as it is.
  • the ultrasonic diagnostic apparatus 100 can set the region of interest in the predetermined frame included in the current data based on the region of interest set in the predetermined frame included in the past data. it can. Furthermore, when the ultrasound diagnostic apparatus 100 according to the present application sets a region of interest in a predetermined frame included in the current data, the region of interest of another frame included in the current data is further based on the set region of interest. Set. Note that any frame included in the past data may be used as the past frame for acquiring the information on the region of interest.
  • the embodiment is not limited to this, and it may be a case where the candidate region is extracted for the entire region of the current frame and the region of interest is set. That is, since a region of interest is set between image data having different collection times, candidate positions may be extracted for the entire region in consideration of a shift between data.
  • the ultrasound diagnostic apparatus 100 sets a region of interest in time-series data.
  • the image processing apparatus may set a region of interest in time-series data.
  • the image processing apparatus uses the time-series image to indicate the first position of the region of interest included in each of the time-series image data acquired by ultrasonically scanning the subject to which the contrast agent is administered. Extraction is performed based on the similarity of fundamental wave components between data.
  • the image processing apparatus extracts the second position of the region of interest included in each of the time-series image data based on the harmonic component similarity between the time-series image data.
  • the image processing apparatus performs the first position based on the feature of the pixel in the region at the first position and the feature of the pixel in the region at the second position.
  • either one of the second positions is set as the position of the region of interest.
  • the configuration of the ultrasonic diagnostic apparatus 100 according to the first embodiment described above is merely an example, and the integration and separation of each unit can be appropriately performed.
  • the candidate position extracting unit 151 and the position setting unit 152 are integrated, the candidate position extracting unit 151 is configured to extract a candidate position from a harmonic image and a first extracting unit that extracts a candidate position from a fundamental image. It can be separated into two extraction units.
  • the functions of the candidate position extraction unit 151 and the position setting unit 152 described in the first embodiment can also be realized by software.
  • the functions of the candidate position extraction unit 151 and the position setting unit 152 are executed on a computer by an image processing program that defines the processing procedure described as being performed by the candidate position extraction unit 151 and the position setting unit 152 in the above embodiment.
  • This image processing program is stored in, for example, a hard disk or a semiconductor memory device, and is read and executed by a processor such as a CPU or MPU.
  • the image processing program can be recorded on a computer-readable recording medium such as a CD-ROM (Compact Disc-Read Only Memory), MO (Magnetic Optical disk), DVD (Digital Versatile Disc), and distributed.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Hematology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Nonlinear Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

 実施形態の超音波診断装置(100)は、候補位置抽出部(151)と、位置設定部(152)とを備える。候補位置抽出部(151)は、造影剤が投与された被検体を超音波走査して収集された複数の画像データ間における基本波成分の比較によって第1の位置を抽出する。また、候補位置抽出部(151)は、複数の画像データ間におけるハーモニック成分の比較によって第2の位置を抽出する。位置設定部(152)は、第1の位置又は前記第2の位置を、前記複数の画像データのうち少なくとも1つの画像データにおける所定の解析を行う関心領域の位置に設定する。

Description

超音波診断装置及び画像処理装置
 本発明の実施形態は、超音波診断装置及び画像処理装置に関する。
 近年、静脈投与型の超音波造影剤が製品化され、「造影エコー法」が行なわれている。以下、超音波造影剤を省略して造影剤と記載する場合がある。造影エコー法は、例えば、心臓や肝臓等の検査において、静脈から造影剤を注入して血流信号を増強し、血流動態の評価を行うことを目的としている。造影剤の多くは、微小気泡(マイクロバブル)が反射源として機能する。例えば、近年、日本で発売されたソナゾイド(登録商標)と呼ばれる第二世代の超音波造影剤は、リン脂質によりフッ化炭素(perfluorobutane)ガスを内包した微小気泡である。造影エコー法では、微小気泡を破壊させない程度の中低音圧の送信超音波を用いることで、造影剤の還流の様子を安定して観察することができる。
 上記造影剤の投与後の診断部位(例えば、肝臓がん)を超音波走査すると、医師等の操作者は、血流により還流する造影剤の流入から流出までの信号強度の上昇と減少とを観察することができる。また、かかる信号強度の経時変化の違いから、腫瘤性病変の良性/悪性の鑑別診断、或いは、「びまん性」の疾患等の診断を行なう研究も行なわれている。
 造影剤の還流動態を示す信号強度の経時変化は、単なる形態情報とは異なり、通常、動画像をリアルタイムで、或いは、記録後に、読影される必要がある。従って、造影剤の還流動態の読影のための所要時間は、一般的に長くなる。そこで、通常は動画で観察される造影剤の流入時刻情報を、一枚の静止画像上にマッピングする手法が提案されている。かかる手法は、造影剤の信号のピーク時間の違いを、異なる色相で表現した静止画像を生成表示するものである。この静止画像を参照することで、読影者は、診断部位の断層面内の各所での流入時刻を容易に把握することができる。また、特定領域で造影剤が停滞する時間(流入開始から流出終了までの時間)の違いを、異なる色相で表現した静止画像を生成表示する手法も提案されている。
 ところで、腫瘍血管の走行は、正常な血管に比べて複雑であるため、行き場を失ったマイクロバブルが腫瘍に停滞したり、更に、停滞したマイクロバブルが逆流したりする現象が観察されている。このような腫瘍血管内でのマイクロバブルの挙動は、造影超音波撮影を行った腫瘍マウスで実際に観察されている。すなわち、生体イメージングが可能な造影超音波撮影でマイクロバブルの挙動を評価できれば、造影エコー法は、腫瘍血管の異常の評価にも応用できる可能性がある。
 また、近年、治験が行なわれている抗がん剤である血管新生阻害剤は、腫瘍を栄養する血管を破壊して、腫瘍血管の断片化や狭小化を起こすことが、病理組織学的な観察で確認されている。造影超音波撮影で血管新生阻害剤により断片化された血管内で造影超音波観察が停滞する様子を映像化したり定量化したりできれば、造影エコー法は、治療効果判定に応用することも期待できる。しかしながら、上述した従来技術においては、造影エコー法による定量解析の精度に一定の限界があった。
特開2007-330764号公報
 本発明が解決しようとする課題は、造影エコー法による定量解析の精度を向上させることができる超音波診断装置及び画像処理装置を提供することである。
 実施形態の超音波診断装置は、第1の抽出部と、第2の抽出部と、位置設定部とを備える。第1の抽出部は、造影剤が投与された被検体を超音波走査して収集された複数の画像データ間における基本波成分の比較によって第1の位置を抽出する。第2の抽出部は、前記複数の画像データ間におけるハーモニック成分の比較によって第2の位置を抽出する。位置設定部は、前記第1の位置又は前記第2の位置を、前記複数の画像データのうち少なくとも1つの画像データにおける所定の解析を行う関心領域の位置に設定する。
図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。 図2は、第1の実施形態に係る候補位置抽出部の処理対象の例を説明するための図である。 図3Aは、第1の実施形態に係る候補位置抽出部によるファンドメンタル画像における関心領域の抽出例を説明するための図である。 図3Bは、第1の実施形態に係る候補位置抽出部によるハーモニック画像における関心領域の抽出例を説明するための図である。 図4Aは、第1の実施形態に係る位置設定部による処理の一例を説明するための図である。 図4Bは、第1の実施形態に係る位置設定部によって格納される関心領域の情報の一例を示す図である。 図5は、第1の実施形態に係る超音波診断装置によって設定される関心領域の一例を示す図である。 図6は、第1の実施形態に係る超音波診断装置による処理の手順を示すフローチャート(1)である。 図7は、第1の実施形態に係る超音波診断装置による処理の手順を示すフローチャート(2)である。 図8は、第1の実施形態に係る超音波診断装置による処理の手順を示すフローチャート(3)である。 図9は、第2の実施形態に係る超音波診断装置による3次元の時系列データを用いる場合の一例を説明するための図である。
 以下、添付図面を参照して、超音波診断装置の実施形態を詳細に説明する。
(第1の実施形態)
 まず、第1の実施形態に係る超音波診断装置の構成について説明する。図1は、第1の実施形態に係る超音波診断装置100の構成例を示すブロック図である。図1に例示するように、第1の実施形態に係る超音波診断装置は、超音波プローブ1と、モニタ2と、入力装置3と、装置本体10とを有する。
 超音波プローブ1は、複数の圧電振動子を有し、これら複数の圧電振動子は、後述する装置本体10が有する送受信部11から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ1は、被検体Pからの反射波を受信して電気信号に変換する。また、超音波プローブ1は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。なお、超音波プローブ1は、装置本体10と着脱自在に接続される。
 超音波プローブ1から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ1が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。
 例えば、装置本体10は、2次元走査用の超音波プローブ1として、複数の圧電振動子が一列で配置された1Dアレイプローブと接続される。或いは、例えば、装置本体10は、3次元走査用の超音波プローブ1として、メカニカル4Dプローブや2Dアレイプローブと接続される。メカニカル4Dプローブは、1Dアレイプローブのように一列で配列された複数の圧電振動子を用いて2次元走査が可能であるとともに、複数の圧電振動子を所定の角度(揺動角度)で揺動させることで3次元走査が可能である。また、2Dアレイプローブは、マトリックス状に配置された複数の圧電振動子により3次元走査が可能であるとともに、超音波を集束して送信することで2次元走査が可能である。
 本実施形態は、超音波プローブ1により、被検体Pが2次元走査される場合であっても、3次元走査される場合であっても適用可能である。
 入力装置3は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等を有し、超音波診断装置の操作者からの各種設定要求を受け付け、装置本体10に対して受け付けた各種設定要求を転送する。例えば、入力装置3は、操作者から造影エコー法による定量解析を実行するための各種操作を受け付ける。
 モニタ2は、超音波診断装置の操作者が入力装置3を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体10において生成された超音波画像や、超音波画像における関心部位の位置等を表示したりする。
 装置本体10は、超音波プローブ1が受信した反射波信号に基づいて超音波画像データを生成する装置である。図1に示す装置本体10は、超音波プローブ1が受信した2次元の反射波データに基づいて2次元の超音波画像データを生成可能な装置である。また、図1に示す装置本体10は、超音波プローブ1が受信した3次元の反射波データに基づいて3次元の超音波画像データを生成可能な装置である。以下、3次元の超音波画像データを「ボリュームデータ」と記載する場合がある。
 装置本体10は、図1に示すように、送受信部11と、Bモード処理部12と、ドプラ処理部13と、画像生成部14と、画像処理部15と、画像メモリ16と、内部記憶部17と、制御部18とを有する。
 送受信部11は、パルス発生器、送信遅延部、パルサ等を有し、超音波プローブ1に駆動信号を供給する。パルス発生器は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延部は、超音波プローブ1から発生される超音波をビーム状に集束し、かつ送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生器が発生する各レートパルスに対し与える。また、パルサは、レートパルスに基づくタイミングで、超音波プローブ1に駆動信号(駆動パルス)を印加する。すなわち、送信遅延部は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波の送信方向を任意に調整する。
 なお、送受信部11は、後述する制御部18の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、又は、複数の電源ユニットを電気的に切り替える機構によって実現される。
 また、送受信部11は、プリアンプ、A/D(Analog/Digital)変換器、受信遅延部、加算器等を有し、超音波プローブ1が受信した反射波信号に対して各種処理を行って反射波データを生成する。プリアンプは、反射波信号をチャネルごとに増幅する。A/D変換器は、増幅された反射波信号をA/D変換する。受信遅延部は、受信指向性を決定するために必要な遅延時間を与える。加算器は、受信遅延部によって処理された反射波信号の加算処理を行なって反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。
 送受信部11は、被検体Pを2次元走査する場合、超音波プローブ1から2次元の超音波ビームを送信させる。そして、送受信部11は、超音波プローブ1が受信した2次元の反射波信号から2次元の反射波データを生成する。また、送受信部11は、被検体Pを3次元走査する場合、超音波プローブ1から3次元の超音波ビームを送信させる。そして、送受信部11は、超音波プローブ1が受信した3次元の反射波信号から3次元の反射波データを生成する。
 なお、送受信部11からの出力信号の形態は、RF(Radio Frequency)信号と呼ばれる位相情報が含まれる信号である場合や、包絡線検波処理後の振幅情報である場合等、種々の形態が選択可能である。
 Bモード処理部12は、送受信部11から反射波データを受信し、対数増幅、包絡線検波処理等を行なって、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。
 また、Bモード処理部12は、検波周波数を変化させることで、映像化する周波数帯域を変えることができる。このBモード処理部12の機能を用いることにより、造影エコー法、例えば、コントラストハーモニックイメージング(CHI:Contrast Harmonic Imaging)を実行可能である。すなわち、Bモード処理部12は、超音波造影剤が注入された被検体Pの反射波データから、微小気泡(マイクロバブル)を反射源とする反射波データ(高調波データ又は分周波データ)と、被検体P内の組織を反射源とする反射波データ(基本波データ)とを分離することができる。これにより、Bモード処理部12は、被検体Pの反射波データから高調波データ又は分周波データを抽出して、造影画像データを生成するためのBモードデータを生成することができる。また、Bモード処理部12は、被検体Pの反射波データから基本波データを抽出して、組織画像データを生成するためのBモードデータを生成することができる。
 ドプラ処理部13は、送受信部11から受信した反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。
 なお、本実施形態に係るBモード処理部12及びドプラ処理部13は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。すなわち、Bモード処理部12は、2次元の反射波データから2次元のBモードデータを生成し、3次元の反射波データから3次元のBモードデータを生成する。また、ドプラ処理部13は、2次元の反射波データから2次元のドプラデータを生成し、3次元の反射波データから3次元のドプラデータを生成する。
 画像生成部14は、Bモード処理部12及びドプラ処理部13が生成したデータから超音波画像データを生成する。すなわち、画像生成部14は、Bモード処理部12が生成した2次元のBモードデータから反射波の強度を輝度で表した2次元Bモード画像データを生成する。また、画像生成部14は、ドプラ処理部13が生成した2次元のドプラデータから移動体情報を表す2次元ドプラ画像データを生成する。2次元ドプラ画像データは、速度画像、分散画像、パワー画像、又は、これらを組み合わせた画像である。
 ここで、画像生成部14は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像生成部14は、超音波プローブ1による超音波の走査形態に応じて座標変換を行なうことで、表示用の超音波画像データを生成する。また、画像生成部14は、スキャンコンバート以外に種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行なう。また、画像生成部14は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。
 すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像生成部14が生成するデータは、スキャンコンバート処理後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。
 更に、画像生成部14は、Bモード処理部12が生成した3次元のBモードデータに対して座標変換を行なうことで、3次元Bモード画像データを生成する。また、画像生成部14は、ドプラ処理部13が生成した3次元のドプラデータに対して座標変換を行なうことで、3次元ドプラ画像データを生成する。すなわち、画像生成部14は、「3次元のBモード画像データや3次元ドプラ画像データ」を「3次元超音波画像データ(ボリュームデータ)」として生成する。
 更に、画像生成部14は、ボリュームデータをモニタ2にて表示するための各種の2次元画像データを生成するために、ボリュームデータに対してレンダリング処理を行なう。画像生成部14が行なうレンダリング処理としては、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像データを生成する処理がある。また、画像生成部14が行なうレンダリング処理としては、ボリュームデータに対して「Curved MPR」を行なう処理や、ボリュームデータに対して「Maximum Intensity Projection」を行なう処理がある。また、画像生成部14が行なうレンダリング処理としては、3次元の情報を反映した2次元画像データを生成するボリュームレンダリング(VR:Volume Rendering)処理がある。
 画像メモリ16は、画像生成部14が生成した表示用の画像データを記憶するメモリである。また、画像メモリ16は、Bモード処理部12やドプラ処理部13が生成したデータを記憶することも可能である。画像メモリ16が記憶する表示用の画像データは、例えば、診断の後に操作者が呼び出すことが可能である。また、画像メモリ16が記憶するBモードデータやドプラデータも、例えば、診断の後に操作者が呼び出すことが可能となっており、画像生成部14を経由して表示用の超音波画像データとなる。また、画像メモリ16は、送受信部11から出力されたデータを記憶することも可能である。
 画像処理部15は、コンピュータ支援診断(Computer-Aided Diagnosis:CAD)を行なうために、装置本体10に設置される。画像処理部15は、画像メモリ16に格納されたデータを取得して、画像処理を行なう。そして、画像処理部15は、画像処理結果を、画像メモリ16や後述する内部記憶部17に格納する。なお、画像処理部15が行なう処理については、後に詳述する。
 内部記憶部17は、超音波送受信、画像処理及び表示処理を行なうための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、内部記憶部17は、必要に応じて、画像メモリ16が記憶する画像データの保管等にも使用される。また、内部記憶部17が記憶するデータは、図示しないインターフェースを経由して、外部装置へ転送することができる。なお、外部装置は、例えば、各種医用画像診断装置、画像診断を行なう医師が使用するPC(Personal Computer)や、CDやDVD等の記憶媒体、プリンター等である。
 制御部18は、超音波診断装置の処理全体を制御する。具体的には、制御部18は、入力装置3を介して操作者から入力された各種設定要求や、内部記憶部17から読込んだ各種制御プログラム及び各種データに基づき、送受信部11、Bモード処理部12、ドプラ処理部13、画像生成部14及び画像処理部15の処理を制御する。また、制御部18は、画像メモリ16や内部記憶部17が記憶する画像データをモニタ2にて表示するように制御する。
 以上、本実施形態に係る超音波診断装置の全体構成について説明した。かかる構成のもと、第1の実施形態に係る超音波診断装置は、以下、詳細に説明する画像処理部15の処理により造影エコー法による定量解析の精度を向上させることを可能にする。ここで、従来の造影エコー法の定量解析において精度が低下する場合について説明する。例えば、造影エコー法による定量解析の手法としては、TCA(Time Curve Analysis)を用いた解析が知られている。TCAは、例えば、関心領域などの解析領域内の造影剤の時間変化を解析することで、腫瘍の特徴を確認したり、治療の経時変化を確認したりすることができる。
 ここで、上述したTCAでは、定量の精度を保つために、関心領域を解析領域として常に捉えていることが求められる。しかしながら、患者の呼吸や、心臓の拍動、操作者の動きなどによって、超音波走査領域内における関心領域の位置が変動してしまう場合がある。そのため、そのような関心領域の変動に対応する技術として、ハーモニック画像のデータを用いて関心領域を動的に追跡する技術が知られているが、ハーモニック画像のデータは造影前後の変化が激しいため、関心領域の追跡精度に一定の限界がある。また、造影剤到達前のハーモニック画像は、殆ど真っ黒の状態であるため、関心領域を指定することが困難である。
 このように、従来技術においては、関心領域の変動を追跡する精度に一定の限界があることから、関心領域を対象とする定量解析の精度においても一定の限界がある。そこで、第1の実施形態に係る超音波診断装置100においては、画像処理部15の処理により関心領域を精度よく検出することで、造影エコー法による定量解析の精度を向上させることを可能にする。
 図1に示すように、画像処理部15は、候補位置抽出部151と、位置設定部152とを有する。候補位置抽出部151は、造影剤が投与された被検体を超音波走査して収集された複数の画像データ間における基本波成分の比較によって第1の位置を抽出する。また、候補位置抽出部151は、複数の画像データ間におけるハーモニック成分の比較によって第2の位置を抽出する。具体的には、候補位置抽出部151は、造影剤が投与された被検体を超音波走査して収集された時系列の画像データそれぞれに含まれる関心領域の第1の位置を時系列の画像データ間の基本波成分の類似度に基づいてそれぞれ抽出する。また、候補位置抽出部151は、時系列の画像データそれぞれに含まれる関心領域の第2の位置を前記時系列の画像データ間のハーモニック成分の類似度に基づいてそれぞれ抽出する。
 例えば、候補位置抽出部151は、複数の画像データに含まれる所定の画像データにおける所定位置に設定された領域内の基本波成分と、複数の画像データに含まれる所定の画像データとは別の画像データにおける所定位置に対応する複数の位置に設定された複数の領域内の基本波成分とを比較し、複数の領域のうち所定の画像データにおける所定位置に設定された領域内の基本波成分に最も類似する基本波成分を有する領域に対応する位置を第1の位置として抽出する。また、候補位置抽出部151は、所定の画像データにおける所定位置に設定された領域内のハーモニック成分と、別の画像データにおける所定位置に対応する複数の位置に設定された複数の領域内のハーモニック成分とを比較し、複数の領域のうち所定の画像データにおける前記所定位置に設定された領域内のハーモニック成分に最も類似するハーモニック成分を有する領域に対応する位置を第2の位置として抽出する。
 図2は、第1の実施形態に係る候補位置抽出部151の処理対象の例を説明するための図である。例えば、候補位置抽出部151は、図2の(A)に示すように、造影剤を投与された患者を超音波走査することで収集されたフレーム1~フレームnまでの時系列データを対象として、関心領域の検出処理を実行する。ここで、図2においては、フレーム1から順に時系列のフレームが並んでいる。
 例えば、図2の(B)に示すように、フレーム3に対して関心領域R1が設定された場合に、候補位置抽出部151は、図2の(C)に示すように、フレーム3の画像データのハーモニック成分から構成されるハーモニック画像と、基本波成分から構成されるファンドメンタル画像とを抽出する。なお、フレーム3に設定された関心領域は、時系列データを観察した操作者によって入力装置3を介して設定される場合であってもよく、或いは、時系列データに含まれる各画像データに対するパターンマッチング等の処理により自動で抽出されて設定される場合であってもよい。
 そして、候補位置抽出部151は、時系列データの各フレームからハーモニック画像とファンドメンタル画像とをそれぞれ抽出して、各画像における関心領域R1の位置を抽出する。ここで、候補位置抽出部151は、時系列の画像データに含まれる所定の画像データに対して設定された関心領域内の基本波成分と、時系列の画像データにおいて設定された関心領域と同一位置の領域を網羅する領域に対して関心領域と同一の大きさで設定された複数の候補領域内の基本波成分との類似度をそれぞれ算出し、算出した類似度が最も高い候補領域の位置を第1の位置として抽出する。
 図3Aは、第1の実施形態に係る候補位置抽出部151によるファンドメンタル画像における関心領域の抽出例を説明するための図である。ここで、図3Aにおいては、フレーム3のファンドメンタル画像に設定された関心領域R1に基づいて、フレーム2のファンドメンタル画像における関心領域R1の候補位置を抽出する場合について示す。なお、図3Aにおいては、説明上フレーム2をフレーム3よりも大きく示しているが、実際には、サイズは同じである。例えば、候補位置抽出部151は、図3Aに示すように、フレーム3に関心領域R1が設定されると、関心領域R1の中心の位置(座標)と、領域のサイズ(例えば、直径など)の情報を取得する。
 そして、候補位置抽出部151は、フレーム2のファンドメンタル画像において、フレーム3のファンドメンタル画像における関心領域R1の位置と同一の位置に関心領域R1を設定した場合に、それを網羅する領域に関心領域R1と同じサイズの複数のサブ領域を設定する。例えば、候補位置抽出部151は、関心領域R1内に含まれる画素を含むサブ領域FSR1、FSR2、FSR3などを設定する。なお、図3Aにおいては、FSR1~3までしか示していないが、実際には、さらに多数のサブ領域が設定される。ここで、サブ領域FSRは、例えば、関心領域R1に含まれる画素を1つずつずらしながら設定される。
 また、関心領域R1を網羅する領域のサイズは、任意に設定することができる。例えば、対象となる部位の呼吸の時相ごとの位置の変化を予め取得しておき、関心領域R1の位置を設定するフレームでの呼吸の時相から関心領域R1がどの程度変化するかを推定して、領域のサイズを決定する場合であってもよい。上記した例では、呼吸を一例に挙げたが、心時相を用いる場合であってもよく、或いは、検査部位の硬さなどが考慮される場合であってもよい。
 そして、候補位置抽出部151は、設定した各サブ領域と、フレーム3における関心領域R1の類似度をそれぞれ算出する。例えば、候補位置抽出部151は、図3Aに示すように、関心領域R1とサブ領域FSR1との類似度、関心領域R1とサブ領域FSR2との類似度、関心領域R1とサブ領域FSR3との類似度などを順に算出する。ここで、領域間の類似度は、例えば、画素値の平均値を用いる場合であってもよく、或いは、画素値のヒストグラムを用いる場合であってもよい。すなわち、画像の類似度を算出することができる手法であれば、どのような手法を用いる場合であってもよい。
 そして、候補位置抽出部151は、各領域間の類似度を算出すると、算出した類似度の中で最も高い類似度を示すサブ領域FSRを、ファンドメンタル画像における関心領域R1の候補位置として抽出する。例えば、候補位置抽出部151は、図3Aに示すように、サブ領域FSR2をファンドメンタル画像における関心領域R1の候補位置として抽出する。
 また、候補位置抽出部151は、所定の画像データに対して設定された関心領域内のハーモニック成分と、時系列の画像データにおいて設定された関心領域と同一位置の領域を網羅する領域に対して関心領域と同一の大きさで設定された複数の候補領域内のハーモニック成分との類似度をそれぞれ算出し、算出した類似度が最も高い候補領域の位置を第2の位置として抽出する。
 図3Bは、第1の実施形態に係る候補位置抽出部151によるハーモニック画像における関心領域の抽出例を説明するための図である。ここで、図3Bにおいては、フレーム3のハーモニック画像に設定された関心領域R1に基づいて、フレーム2のハーモニック画像における関心領域R1の候補位置を抽出する場合について示す。なお、図3Bにおいては、説明上フレーム2をフレーム3よりも大きく示しているが、実際には、サイズは同じである。例えば、候補位置抽出部151は、図3Bに示すように、フレーム3に関心領域R1が設定されると、関心領域R1の中心の位置(座標)と、領域のサイズ(例えば、直径など)の情報を取得する。
 そして、候補位置抽出部151は、フレーム2のハーモニック画像において、フレーム3のハーモニック画像における関心領域R1の位置と同一の位置に関心領域R1を設定した場合に、それを網羅する領域に関心領域R1と同じサイズの複数のサブ領域を設定する。例えば、候補位置抽出部151は、関心領域R1内に含まれる画素を含むサブ領域HSR1、HSR2、HSR3などを設定する。なお、図3Bにおいては、HSR1~3までしか示していないが、実際には、さらに多数のサブ領域が設定される。ここで、サブ領域HSRは、例えば、関心領域R1に含まれる画素を1つずつずらしながら設定される。また、関心領域R1を網羅する領域のサイズは、上記した場合と同様に任意に設定することができる。
 そして、候補位置抽出部151は、設定した各サブ領域と、フレーム3における関心領域R1の類似度をそれぞれ算出する。例えば、候補位置抽出部151は、図3Bに示すように、関心領域R1とサブ領域HSR1との類似度、関心領域R1とサブ領域HSR2との類似度、関心領域R1とサブ領域HSR3との類似度などを順に算出する。ここで、領域間の類似度は、例えば、画素値の平均値を用いる場合であってもよく、或いは、画素値のヒストグラムを用い用いる場合であってもよい。すなわち、画像の類似度を算出することができる手法であれば、どのような手法を用いる場合であってもよい。
 そして、候補位置抽出部151は、各領域間の類似度を算出すると、算出した類似度の中で最も高い類似度を示すサブ領域HSRを、ハーモニック画像における関心領域R1の候補位置として抽出する。例えば、候補位置抽出部151は、図3Bに示すように、サブ領域HSR5をハーモニック画像における関心領域R1の候補位置として抽出する。なお、上述したファンドメンタル画像における類似度算出と、ハーモニック画像における類似度算出は、種々の類似度算出方法が適用できるが、適用される手法は同一の手法が適用される。
 図1に戻って、位置設定部152は、時系列の画像データそれぞれに対して、第1の位置における領域内の画素の特徴と、第2の位置における領域内の画素の特徴とに基づいて、第1の位置または前記第2の位置のどちらか一方を前記関心領域の位置として設定する。具体的には、位置設定部152は、第1の位置における基本波成分の類似度と、第2の位置におけるハーモニック成分の類似度とのうち、類似度が高い位置を関心領域の位置として設定する。
 図4Aは、第1の実施形態に係る位置設定部152による処理の一例を説明するための図である。例えば、位置設定部152は、図4Aに示すように、候補位置抽出部151によってファンドメンタル画像から抽出された関心領域R1の候補位置であるサブ領域FSR2の類似度と、ハーモニック画像から抽出された関心領域R1の候補位置であるサブ領域HSR5の類似度とを比較して、類似度の高いサブ領域FSR2の位置をフレーム2の関心領域R1の位置として設定する。
 ここで、位置設定部152は、第1の位置又は第2の位置における領域内の画素値の分散値が所定の閾値を上回ったことを条件に、第1の位置又は第2の位置を関心領域の位置として設定する。例えば、位置設定部152は、フレーム2における関心領域R1の位置をファンドメンタル画像のサブ領域FSR2の位置として設定する際に、サブ領域FSR2に含まれる画素の画素値の分散値を算出して、所定の閾値と比較する。そして、位置設定部152は、比較した結果、サブ領域FSR2に含まれる画素の画素値の分散値が所定の閾値を上回った場合に、サブ領域FSR2の位置をフレーム2の関心領域R1の位置として設定する。これにより、関心部位がはっきりと描出された領域を関心領域とすることが可能となる。
 そして、位置設定部152は、関心領域を設定すると、設定した関心領域の情報を、例えば、内部記憶部17に格納する。図4Bは、第1の実施形態に係る位置設定部152によって格納される関心領域の情報の一例を示す図である。図4Bに示すように、位置設定部152は、フレームごとに関心領域中心と、関心領域サイズと、フラグとを対応付けた関心領域の情報を内部記憶部17に格納する。ここで、関心領域中心とは、設定された関心領域の中心の位置の座標を意味する。また、関心領域サイズとは、関心領域のサイズを意味する。また、フラグとは、該当するフレームの関心領域の情報を利用するか否かを示すフラグを意味する。
 例えば、フレーム3に対して関心領域R1が設定されると、設定された関心領域R1の情報「フレーム:3、関心領域中心:(5,5)、関心領域サイズ:2cm、フラグ:-」が位置設定部152によって格納される。そののち、候補位置抽出部151は、図4Bに示すフレーム3の関心領域の情報を取得して、上述した処理を実行し、位置設定部152が、フレーム2の関心領域の情報として「関心領域中心:(6,7)=(5,5)+(1,1)、関心領域サイズ:2cm、フラグ:-」を格納する。
 ここで、位置設定部152は、図4Bに示すように、「関心領域中心」の情報を移動後の座標情報「(6,7)」として格納することもでき、或いは、最初に設定された関心領域R1の座標「(5,5)」の情報と、オフセットの「+(1,1)」情報とで格納することも可能である。すなわち、位置設定部152は、フレームそれぞれにおいて関心領域がどこにあるのかを示す情報を格納することもでき、或いは、最初に設定された関心領域を基準として、各フレームがそこからどれだけ動いているかを示す情報を格納することができる。
 そして、上述した処理が時系列データの全てのフレームにおいて実行される。すなわち、候補位置抽出部151は、関心領域が設定された画像データを基準として、時系列の正順及び逆順にそれぞれ第1の位置を抽出する。また、候補位置抽出部151は、関心領域が設定された画像データを基準として、時系列の正順及び逆順にそれぞれ第2の位置を抽出する。例えば、候補位置抽出部151は、フレーム3に対して関心領域R1が設定されると、上述したフレーム2の処理と同様に、フレーム4における関心領域R1の位置の候補を示す候補位置をファンダメンタル画像及びハーモニック画像それぞれから抽出する。
 また、候補位置抽出部151は、位置設定部152によってフレーム2における関心領域R1の位置が設定され、関心領域R1の情報が格納されると、フレーム2の関心領域R1の情報を読み出して、フレーム1における関心領域R1の位置の候補を示す候補位置をファンダメンタル画像及びハーモニック画像それぞれから抽出する。このように、第1の実施形態に係る画像処理部15は、時系列データの各フレームについて、ファンドメンタル画像及びハーモニック画像それぞれで関心領域の位置を抽出して、比較することで、より精度の高い関心領域の位置設定を実行する。それにより、例えば、図5に示すように、時系列データのすべてのフレームに渡って、関心領域R1の位置が設定されることとなる。なお、図5は、第1の実施形態に係る超音波診断装置100によって設定される関心領域の一例を示す図である。
 ここで、図5に示す関心領域の位置は、ファンドメンタル画像とハーモニック画像の両方を用いて設定したことからより精度の高い位置となっている。その結果、図5に示す各フレームに設定された関心領域を用いてTCAを実行することで、造影エコー法による定量解析の精度を向上させることが可能となる。
 なお、上述した関心領域の位置の設定は、関心領域が設定されたフレームを基準としてすべてのフレームの関心領域の位置を設定することもでき、或いは、時系列的に連続する2つのフレーム間によって関心領域の位置を設定することもできる。例えば、最初に関心領域の位置が設定されたフレーム3における関心領域の位置に基づいて、すべてのフレームの関心領域の位置を設定する場合であってもよく、或いは、フレーム3の関心領域の位置に基づいて、フレーム2における関心領域の位置が設定され、設定されたフレーム2における関心領域の位置に基づいて、フレーム1における関心領域の位置が設定される場合であってもよい。ここで、例えば、超音波プローブの操作ミスや、被検体が大きく動いてしまった場合を把握するためには、時系列的に連続する2つのフレーム間によって関心領域の位置を設定することが望ましい。すなわち、連続するフレーム間で、類似度が所定の閾値よりも低い場合に、超音波プローブの操作ミスや、被検体が大きく動いてしまった場合について推測することができる。
 次に、第1の実施形態に係る超音波診断装置1の処理について説明する。図6は、第1の実施形態に係る超音波診断装置100による処理の手順を示すフローチャート(1)である。第1の実施形態に係る超音波診断装置100においては、例えば、図6に示すように、関心領域の位置が設定され、位置補正がスタートされると(ステップS101肯定)、候補位置抽出部151は、関心位置が設定されたフレームに連続するフレームのファンドメンタル画像とハーモニック画像それぞれについて、候補位置を抽出する(ステップS102)。
 そして、位置設定部152は、類似度及び画素値の分散値のうち、少なくとも一方に基づいて、ファンドメンタル画像又はハーモニック画像のどちらかの候補位置を当該フレームの関心領域の位置として設定して(ステップS103)、設定した関心領域の位置及びオフセット情報を格納する(ステップS104)。そして、候補位置抽出部151は、次のフレームがあるか否かを判定する(ステップS105)。
 ここで、次のフレームがあると判定した場合には(ステップS105肯定)、候補位置抽出部151は、ステップS102に戻って、処理を継続する。一方、次のフレームがないと判定した場合には(ステップS105否定)、候補位置抽出部151は、処理を終了する。
 上述したように、第1の実施形態に係る超音波診断装置100は、各フレームのファンドメンタル画像とハーモニック画像とから関心領域の候補位置を抽出して、類似度などにより位置を設定する。この処理の詳細について、図7を用いて説明する。図7は、第1の実施形態に係る超音波診断装置による処理の手順を示すフローチャート(2)である。
 なお、図7においては、ファンドメンタル画像の候補位置とハーモニック画像の候補位置との比較を類似度によって実行する場合について示す。図7に示すように、第1の実施形態に係る超音波診断装置100においては、位置補正がスタートされると(ステップS201)、候補位置抽出部151は、現在フレーム(Reference Frame)、関心領域オフセット=0の情報を取得する。ここで、第1の実施形態に係る超音波診断装置100においては、時系列データにおいて関心領域が設定されたフレームから時系列で正順及び逆順で処理を実行する。図7においては、過去方向に若いステップ番号を振っているが、実際には、過去方向(逆順)と未来方向(正順)とが同時に実行される。
 以下、過去方向の処理から先に説明する。候補位置抽出部151は、ステップS202にて現在フレームの関心領域の位置、オフセット、サイズを取得する。そして、候補位置抽出部151は、目標フレーム(現在-1)のフレームを更新して(ステップS203)、ファンドメンタル画像及びハーモニック画像それぞれについて、関心領域を含む所定の範囲内の各位置の類似度をそれぞれ算出する(ステップS204)。そして、位置設定部152は、算出された類似度のうち、最も高い類似度に対応する位置を関心領域の位置としてマッチングして、マッチングした位置を更新(関心領域の位置+オフセット)する(ステップS205)。
 そして、候補位置抽出部151は、(現在=現在-1)とすることにより、次のフレームへ対象を移す(ステップS206)。そして、現在のフレームがスタートフレーム(start Frame)であるか否かを判定する(ステップS207)。ここで、スタートフレームであると判定した場合には(ステップS207肯定)、過去方向の処理を終了する。一方、スタートフレームではないと判定した場合には(ステップS207否定)、候補位置抽出部151は、ステップS202に戻って、次のフレームに対する処理を実行する。
 次に未来方向の処理について説明する。未来方向においても、候補位置抽出部151は、ステップS202にて現在フレームの関心領域の位置、オフセット、サイズを取得する。そして、候補位置抽出部151は、目標フレーム(現在+1)のフレームを更新して(ステップS208)、ファンドメンタル画像及びハーモニック画像それぞれについて、関心領域を含む所定の範囲内の各位置の類似度をそれぞれ算出する(ステップS209)。そして、位置設定部152は、算出された類似度のうち、最も高い類似度に対応する位置を関心領域の位置としてマッチングして、マッチングした位置を更新(関心領域の位置+オフセット)する(ステップS210)。
 そして、候補位置抽出部151は、(現在=現在+1)とすることにより、次のフレームへ対象を移す(ステップS211)。そして、現在のフレームがエンドフレーム(End Frame)であるか否かを判定する(ステップS212)。ここで、エンドフレームであると判定した場合には(ステップS212肯定)、未来方向の処理を終了する。一方、エンドフレームではないと判定した場合には(ステップS212否定)、候補位置抽出部151は、ステップS202に戻って、次のフレームに対する処理を実行する。
 ここまで説明した処理は、収集済みの時系列データを用いる場合について説明した。第1の実施形態に係る超音波診断装置100においては、リアルタイムに時系列データを収集している場合にも適用することができる。図8は、第1の実施形態に係る超音波診断装置100による処理の手順を示すフローチャート(3)である。
 図8に示すように、第1の実施形態に係る超音波診断装置100においては、位置補正がスタートされると(ステップS301)、候補位置抽出部151は、現在フレーム(Reference Frame)、関心領域オフセット=0の情報を取得する。すなわち、候補位置抽出部151は、ステップS302にて現在フレームの関心領域の位置、オフセット、サイズを取得する(ステップS302)。そして、候補位置抽出部151は、目標フレーム(現在+1)のフレームを更新して(ステップS303)、ファンドメンタル画像及びハーモニック画像それぞれについて、関心領域を含む所定の範囲内の各位置の類似度をそれぞれ算出する(ステップS304)。ここで、位置設定部152は、算出された類似度のうち、最も高い類似度が所定の閾値を下回ったか否かを判定する(ステップS305)。
 ここで、最も高い類似度が所定の閾値を下回ったと判定されなかった場合には(ステップS305否定)、位置設定部152は、最も高い類似度に対応する位置を関心領域の位置としてマッチングして、マッチングした位置を更新(関心領域の位置+オフセット)する(ステップS306)。
 そして、候補位置抽出部151は、(現在=現在+1)とすることにより、次のフレームへ対象を移す(ステップS307)。そして、現在のフレームがエンドフレーム(End Frame)であるか否かを判定する(ステップS308)。ここで、エンドフレームであると判定した場合には(ステップS308肯定)、未来方向の処理を終了する。一方、エンドフレームではないと判定した場合には(ステップS308否定)、候補位置抽出部151は、ステップS302に戻って、次のフレームに対する処理を実行する。
 ステップS305において、最も高い類似度が所定の閾値を下回ったと判定された場合には(ステップS305肯定)、位置設定部152は、モニタ2からユーザに対して警告を出すように制御し、当該フレームの関心領域の情報を使用しない旨のフラグを立てる(ステップS309)。すなわち、位置設定部152は、図4Bに示すデータの対象となるフレームのフラグ領域にフラグを立てる。そして、候補位置抽出部151が、ステップS303に戻っての処理を実行する。なお、上述したリアルタイムの処理において、次のフレームにおける所定の範囲の決定は、例えば、患者の呼吸やECGの情報をもとに推定することができる。
 上述したように、第1の実施形態によれば、候補位置抽出部151は、造影剤が投与された被検体を超音波走査して収集された時系列の画像データそれぞれに含まれる関心領域の第1の位置を時系列の画像データ間の基本波成分の類似度に基づいてそれぞれ抽出する。また、候補位置抽出部151は、時系列の画像データそれぞれに含まれる関心領域の第2の位置を時系列の画像データ間のハーモニック成分の類似度に基づいてそれぞれ抽出する。位置設定部152は、時系列の画像データそれぞれに対して、第1の位置における領域内の画素の特徴と、第2の位置における領域内の画素の特徴とに基づいて、第1の位置または第2の位置のどちらか一方を関心領域の位置として設定する。従って、第1の実施形態に係る超音波診断装置100は、時系列データにおいて各フレームのファンドメンタル画像とハーモニック画像とで安定して情報が得られる側の情報を用いて関心領域の位置を設定することができ、関心領域の位置を精度よく設定することを可能にする。その結果、第1の実施形態に係る超音波診断装置100は、高精度で位置決めされた関心領域をTCAに用いることで、定量解析の精度を向上させることを可能にする。
 また、第1の実施形態によれば、候補位置抽出部151は、時系列の画像データに含まれる所定の画像データに対して設定された関心領域内の基本波成分と、時系列の画像データにおいて設定された関心領域と同一位置の領域を網羅する領域に対して関心領域と同一の大きさで設定された複数の候補領域内の基本波成分との類似度をそれぞれ算出し、算出した類似度が最も高い候補領域の位置を第1の位置として抽出する。また、候補位置抽出部151は、所定の画像データに対して設定された関心領域内のハーモニック成分と、時系列の画像データにおいて設定された関心領域と同一位置の領域を網羅する領域に対して関心領域と同一の大きさで設定された複数の候補領域内のハーモニック成分との類似度をそれぞれ算出し、算出した類似度が最も高い候補領域の位置を第2の位置として抽出する。従って、第1の実施形態に係る超音波診断装置100は、関心領域の位置の変化を考慮した上で、細かく設定した領域ごとに類似度の算出を行うことで、より高精度に関心領域を抽出することを可能にする。
 また、第1の実施形態によれば、位置設定部152は、第1の位置における基本波成分の類似度と、第2の位置におけるハーモニック成分の類似度とのうち、類似度が高い位置を関心領域の位置として設定する。従って、第1の実施形態に係る超音波診断装置100は、より高精度の関心領域を設定することを可能にする。
 また、第1の実施形態によれば、位置設定部152は、第1の位置又は第2の位置における領域内の画素値の分散値が所定の閾値を上回ったことを条件に、第1の位置又は第2の位置を前記関心領域の位置として設定する。従って、第1の実施形態に係る超音波診断装置100は、対象となる部位が領域内で明瞭に描出された領域を関心領域に設定することを可能にする。例えば、ハーモニック画像において、領域全体が真っ暗な状態、或いは、領域全体が光っている状態の場合に、類似度が高くても、上記した条件によって関心領域として設定されることを抑止することができる。
 また、第1の実施形態によれば、候補位置抽出部151は、関心領域が設定された画像データを基準として、時系列の正順及び逆順にそれぞれ前記第1の位置を抽出する。また、候補位置抽出部151は、関心領域が設定された画像データを基準として、時系列の正順及び逆順にそれぞれ第2の位置を抽出する。従って、第1の実施形態に係る超音波診断装置100は、時系列データにおけるどの位置で関心領域を設定する場合にも対応することができる。すなわち、観察者が最も見やすい(判断しやすい)関心領域を時系列データ内のいずれのフレームからでも自由に選択することが可能である。
 また、第1の実施形態によれば、位置設定部152は、第1の位置における基本波成分の類似度又は第2の位置におけるハーモニック成分の類似度が所定の閾値を上回ったことを条件に第1の位置又は第2の位置を関心領域の位置として設定する。従って、第1の実施形態に係る超音波診断装置100は、イレギュラーな位置の移動を検出することができ、例えば、超音波プローブの操作ミスなどを指摘することができる。
 また、第1の実施形態によれば、モニタ2は、位置設定部152によって第1の位置における基本波成分の類似度及び第2の位置におけるハーモニック成分の類似度が所定の閾値を上回っていないと判定された場合に、操作者に対して警告を通知する。従って、第1の実施形態に係る超音波診断装置100は、イレギュラーなことが生じた場合に、即座に対応させることを可能にする。
(第2の実施形態)
 さて、これまで第1の実施形態について説明したが、上述した第1の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
 上述した第1の実施形態においては、2次元の時系列データを用いる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、3次元の時系列データを用いる場合であってもよい。図9は、第2の実施形態に係る超音波診断装置100による3次元の時系列データを用いる場合の一例を説明するための図である。なお、図9においては、t1の時点で収集されたボリュームデータと、t2の時点で収集されたボリュームデータとを示す。
 例えば、t1の時点でボリュームデータに関心領域R10が設定されると、第2の実施形態に係る候補位置抽出部151は、関心領域R10の位置とオフセットの情報を取得する。ここで、図9においては、3次元データであるため、関心領域R10の中心の座標及びオフセットは(x,y,z)の三軸の情報となる。そして、候補位置抽出部151は、t2のボリュームデータのファンドメンタルデータと、ハーモニックデータとにおける関心領域R10の候補位置をそれぞれ抽出する。
 すなわち、候補位置抽出部151は、t1の関心領域R10の位置及びオフセットの情報や、呼吸、心時相の状態などに基づいて、ファンドメンタルデータにおける所定の3次元領域を設定し、それらの範囲内の複数の領域それぞれと、関心領域R10との類似度を算出する。候補位置抽出部151は、ハーモニックデータにおいても同様の処理を実行する。
 そして、第2の実施形態に係る位置設定部152は、例えば、図9に示すように、ファンドメンタルデータ及びハーモニックデータにおける領域において、類似度の最も高い領域をt2の関心領域R10として設定する。例えば、t1~t2に示す関心領域R10の位置の変化が、拍動に起因しており、1心拍での動きである場合には、最初の1心拍分だけ3次元で超音波画像を収集し、t2の時点における関心領域R10の位置を取得しておく。それにより、例えば、2心拍目からは、2次元の超音波画像を収集するようにした場合でも、t2の時点の心時相において、取得した関心領域R10の位置の情報から、図9の右上の図に示すように、スキャン断面を関心領域側に変化させて収集することで、関心領域R10をはずさないように収集することできる。すなわち、図9の下側の図に示すように、観察者は、関心領域R10の位置の変化の影響を全く感じることなく、超音波画像を観察することができる。
 上述した第1の実施形態では、ファンドメンタル画像及びハーモニック画像からそれぞれ関心領域の候補位置を抽出して、類似度によって関心領域の位置をどちらかに設定する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、ファンドメンタル画像のみを用いて関心領域の位置を設定する場合であってもよい。かかる場合には、送受信部11は、造影剤が投与された被検体を超音波走査して複数の画像データを収集する。そして、候補位置抽出部151は、送受信部11によって収集された複数の画像データ間における基本波成分の比較によって、複数の画像データのうち少なくとも1つの画像データにおける所定の解析を行う関心領域の位置を抽出する。
 例えば、送受信部11は、造影剤が投与された被検体を超音波走査して時系列の画像データを収集する。そして、候補位置抽出部151は、送受信部11によって収集された時系列の画像データそれぞれに含まれる関心領域の位置を前記時系列の画像データ間の基本波成分の類似度に基づいてそれぞれ抽出する。そして、位置設定部152は、候補位置抽出部151によって抽出された関心領域の位置を各時系列の画像データにおける関心領域の位置として設定する。すなわち、候補位置抽出部151は、複数の画像データに含まれる所定の画像データにおける所定位置に設定された領域内の基本波成分と、複数の画像データに含まれる所定の画像データとは別の画像データにおける所定位置に対応する複数の位置に設定された複数の領域内の基本波成分とを比較し、複数の領域のうち所定の画像データにおける所定位置に設定された領域内の基本波成分に最も類似する基本波成分を有する領域に対応する位置を関心領域の位置として抽出する。これにより、ファンドメンタル画像及びハーモニック画像の両方を用いて比較する場合よりも処理を高速にすることができる。また、ファンドメンタル画像を用いていることから、従来ハーモニック画像では関心領域の指定が困難となる場合であっても、高精度で関心領域を設定することを可能にする。
 上述した第1の実施形態では、所定の画像データに対して設定された関心領域と同一位置の領域を網羅する領域を複数の画像データの別の画像データに設定して、所定の画像データの所定の領域における基本波成分又はハーモニック成分に基づいて、別の画像データにおける関心領域を設定する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、別の画像データの全領域を対象として関心領域を抽出して設定する場合であってもよい。
 一例について図3A及び図3Bを用いて説明する。例えば、フレーム3に関心領域R1が設定され、設定された関心領域R1に基づいて、フレーム2に関心領域を設定する場合について説明する。かかる場合には、図3Aのフレーム3に関心領域R1が設定されると、候補位置抽出部151は、フレーム2のファンドメンタル画像において、フレーム3のファンドメンタル画像における関心領域R1と類似度が最も高い領域を抽出する。例えば、候補位置抽出部151は、フレーム3に設定された関心領域R1のサイズ(例えば、直径など)を取得する。そして、候補位置抽出部151は、フレーム2のファンドメンタル画像から取得したサイズと同一のサイズの領域を抽出して関心領域R1との類似度を算出する。ここで、候補位置抽出部151は、フレーム2のファンドメンタル画像の全領域を対象として画素を1つずつずらしながら関心領域R1と同一サイズの領域を抽出して関心領域R1との類似度を算出する。このように、候補位置抽出部151は、フレーム2から抽出したすべての領域と、関心領域R1との類似度を算出し、類似度が最も高い領域をフレーム2のファンドメンタル画像における関心領域の候補位置として抽出する。
 同様に、候補位置抽出部151は、フレーム2のハーモニック画像において、フレーム3のハーモニック画像における関心領域R1と類似度が最も高い領域を抽出する。例えば、候補位置抽出部151は、フレーム2のハーモニック画像の全領域を対象として画素を1つずつずらしながら関心領域R1と同一サイズの領域を抽出して、フレーム3のハーモニック画像における関心領域R1との類似度を算出する。そして、候補位置抽出部151は、類似度が最も高い領域をフレーム2のハーモニック画像における関心領域の候補位置として抽出する。そして、位置設定部152は、候補位置抽出部151によって抽出されたファンドメンタル画像における候補位置及びハーモニック画像における候補位置のうち、類似度が高い位置をフレーム2の関心領域として設定する。なお、上述した例は、ファンドメンタル画像及びハーモニック画像のそれぞれで関心領域の候補位置を抽出して、類似度の高い候補位置を関心領域として設定する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、ファンドメンタル画像或いはハーモニック画像のどちらか一方において抽出した候補位置をそのまま関心領域として設定する場合であってもよい。
 また、上述した第1の実施形態では、同一の時系列データに対して関心領域を設定する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、収集時期が異なるデータに関心領域を設定する場合であってもよい。例えば、同一患者の治療後の経過観察を行う場合などに、過去に設定した関心領域に基づいて、現在のデータの関心領域を設定する場合であってもよい。かかる場合には、例えば、候補位置抽出部151は、過去に設定された関心領域の位置(例えば、中心の座標など)及びサイズ(例えば、直径など)の情報を取得する。そして、候補位置抽出部151は、取得した情報に基づいて、過去に設定された関心領域の位置と同一の位置を網羅する領域に関心領域と同じサイズの複数のサブ領域を設定する。
 そして、候補位置抽出部151は、設定した複数のサブ領域と、過去に設定された関心領域との類似度を算出して、類似度の最も高いサブ領域を抽出する。ここで、類似度の最も高いサブ領域の抽出についてファンドメンタル画像及びハーモニック画像でそれぞれ抽出し、類似度の高い方の位置を関心領域の位置とする場合でもよいが、治療後の経過観察を行う場合には、治療により造影剤の時間変化が大きく変わる場合があるため、ファンドメンタル画像で抽出した類似度の最も高いサブ領域の位置をそのまま関心領域の位置とする場合であってもよい。
 このように、本願に係る超音波診断装置100は、過去のデータに含まれる所定のフレームに設定された関心領域に基づいて、現時点のデータに含まれる所定のフレームにおける関心領域を設定することができる。さらに、本願に係る超音波診断装置100は、現時点のデータに含まれる所定のフレームに関心領域を設定すると、設定した関心領域に基づいて、さらに、現時点のデータに含まれるその他のフレームの関心領域を設定する。なお、関心領域の情報を取得するための過去のフレームは、過去のデータに含まれるいずれのフレームが用いられる場合であってもよい。
 また、上述した例では、過去のフレームにて設定された関心領域と同一の位置を網羅する領域に複数のサブ領域を設定して、類似度を比較する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、現時点のフレームの全領域を対象として候補位置を抽出して、関心領域を設定する場合であってもよい。すなわち、収集時期が異なる画像データ間で関心領域を設定することから、データ間のずれなどを考慮して、全領域を対象として候補位置を抽出するようにしてもよい。
 上述した第1の実施形態では、超音波診断装置100が時系列データにおける関心領域を設定する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、画像処理装置が時系列データにおける関心領域を設定する場合であってもよい。かかる場合には、例えば、画像処理装置は、造影剤が投与された被検体を超音波走査して収集された時系列の画像データそれぞれに含まれる関心領域の第1の位置を時系列の画像データ間の基本波成分の類似度に基づいてそれぞれ抽出する。また、画像処理装置は、時系列の画像データそれぞれに含まれる関心領域の第2の位置を時系列の画像データ間のハーモニック成分の類似度に基づいてそれぞれ抽出する。そして、画像処理装置は、時系列の画像データそれぞれに対して、第1の位置における領域内の画素の特徴と、第2の位置における領域内の画素の特徴とに基づいて、第1の位置または前記第2の位置のどちらか一方を前記関心領域の位置として設定する。
 また、上述した第1の実施形態に係る超音波診断装置100の構成はあくまでも一例であり、各部の統合及び分離は適宜行うことができる。例えば、候補位置抽出部151と位置設定部152とを統合したり、候補位置抽出部151を、ファンドメンタル画像から候補位置を抽出する第1の抽出部と、ハーモニック画像から候補位置を抽出する第2の抽出部とに分離したりすることが可能である。
 また、第1の実施形態において説明した候補位置抽出部151及び位置設定部152の機能は、ソフトウェアによって実現することもできる。例えば、候補位置抽出部151及び位置設定部152の機能は、上記の実施形態において候補位置抽出部151及び位置設定部152が行うものとして説明した処理の手順を規定した画像処理プログラムをコンピュータに実行させることで、実現される。この画像処理プログラムは、例えば、ハードディスクや半導体メモリ素子等に記憶され、CPUやMPU等のプロセッサによって読み出されて実行される。また、この画像処理プログラムは、CD-ROM(Compact Disc - Read Only Memory)やMO(Magnetic Optical disk)、DVD(Digital Versatile Disc)などのコンピュータ読取り可能な記録媒体に記録されて、配布され得る。
 以上、説明したとおり、本実施形態によれば、造影エコー法による定量解析の精度を向上させることが可能となる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (10)

  1.  造影剤が投与された被検体を超音波走査して収集された複数の画像データ間における基本波成分の比較によって第1の位置を抽出する第1の抽出部と、
     前記複数の画像データ間におけるハーモニック成分の比較によって第2の位置を抽出する第2の抽出部と、
     前記第1の位置又は前記第2の位置を、前記複数の画像データのうち少なくとも1つの画像データにおける所定の解析を行う関心領域の位置に設定する位置設定部と、
     を備える、超音波診断装置。
  2.  前記第1の抽出部は、前記複数の画像データに含まれる所定の画像データにおける所定位置に設定された領域内の基本波成分と、前記複数の画像データに含まれる前記所定の画像データとは別の画像データにおける前記所定位置に対応する複数の位置に設定された複数の領域内の基本波成分と、を比較し、前記複数の領域のうち前記所定の画像データにおける前記所定位置に設定された領域内の基本波成分に最も類似する基本波成分を有する領域に対応する位置を前記第1の位置として抽出し、
     前記第2の抽出部は、前記所定の画像データにおける前記所定位置に設定された領域内のハーモニック成分と、前記別の画像データにおける前記所定位置に対応する複数の位置に設定された複数の領域内のハーモニック成分と、を比較し、前記複数の領域のうち前記所定の画像データにおける前記所定位置に設定された領域内のハーモニック成分に最も類似するハーモニック成分を有する領域に対応する位置を前記第2の位置として抽出する、請求項1に記載の超音波診断装置。
  3.  前記位置設定部は、前記第1の位置における基本波成分の類似度と、前記第2の位置におけるハーモニック成分の類似度とのうち、類似度が高い位置を前記関心領域の位置として設定する、請求項1又は2に記載の超音波診断装置。
  4.  前記位置設定部は、前記第1の位置又は前記第2の位置における領域内の画素値の分散値が所定の閾値を上回ったことを条件に、前記第1の位置又は前記第2の位置を前記関心領域の位置として設定する、請求項1又は2に記載の超音波診断装置。
  5.  前記第1の抽出部は、前記関心領域が設定された画像データを基準として、時系列の正順及び逆順にそれぞれ前記第1の位置を抽出し、
     前記第2の抽出部は、前記関心領域が設定された画像データを基準として、前記時系列の正順及び逆順にそれぞれ前記第2の位置を抽出する、請求項1又は2に記載の超音波診断装置。
  6.  前記位置設定部は、前記第1の位置における基本波成分の類似度又は前記第2の位置におけるハーモニック成分の類似度が所定の閾値を上回ったことを条件に前記第1の位置又は前記第2の位置を前記関心領域の位置として設定する、請求項1又は2に記載の超音波診断装置。
  7.  前記位置設定部によって前記第1の位置における基本波成分の類似度及び前記第2の位置におけるハーモニック成分の類似度が前記所定の閾値を上回っていないと判定された場合に、操作者に対して警告を通知する通知部をさらに備える、請求項6に記載の超音波診断装置。
  8.  造影剤が投与された被検体を超音波走査して複数の画像データを収集する収集部と、
     前記収集部によって収集された複数の画像データ間における基本波成分の比較によって、前記複数の画像データのうち少なくとも1つの画像データにおける所定の解析を行う関心領域の位置を抽出する抽出部と、
     を備える、超音波診断装置。
  9.  前記抽出部は、前記複数の画像データに含まれる所定の画像データにおける所定位置に設定された領域内の基本波成分と、前記複数の画像データに含まれる前記所定の画像データとは別の画像データにおける前記所定位置に対応する複数の位置に設定された複数の領域内の基本波成分と、を比較し、前記複数の領域のうち前記所定の画像データにおける前記所定位置に設定された領域内の基本波成分に最も類似する基本波成分を有する領域に対応する位置を前記関心領域の位置として抽出する、請求項8に記載の超音波診断装置。
  10.  造影剤が投与された被検体を超音波走査して収集された複数の画像データ間における基本波成分の比較によって第1の位置を抽出する第1の抽出部と、
     前記複数の画像データ間におけるハーモニック成分の比較によって第2の位置を抽出する第2の抽出部と、
     前記第1の位置又は前記第2の位置を、前記複数の画像データのうち少なくとも1つの画像データにおける所定の解析を行う関心領域の位置に設定する位置設定部と、
     を備える、画像処理装置。
PCT/JP2014/056072 2013-03-11 2014-03-07 超音波診断装置及び画像処理装置 WO2014142037A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201480013750.0A CN105188555B (zh) 2013-03-11 2014-03-07 超声波诊断装置以及图像处理装置
US14/850,807 US11298109B2 (en) 2013-03-11 2015-09-10 Ultrasonic diagnostic apparatus and image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013048394A JP6139186B2 (ja) 2013-03-11 2013-03-11 超音波診断装置、画像処理装置及び画像処理プログラム
JP2013-048394 2013-03-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/850,807 Continuation US11298109B2 (en) 2013-03-11 2015-09-10 Ultrasonic diagnostic apparatus and image processing apparatus

Publications (1)

Publication Number Publication Date
WO2014142037A1 true WO2014142037A1 (ja) 2014-09-18

Family

ID=51536696

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/056072 WO2014142037A1 (ja) 2013-03-11 2014-03-07 超音波診断装置及び画像処理装置

Country Status (4)

Country Link
US (1) US11298109B2 (ja)
JP (1) JP6139186B2 (ja)
CN (1) CN105188555B (ja)
WO (1) WO2014142037A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6545969B2 (ja) * 2015-02-03 2019-07-17 株式会社日立製作所 超音波診断装置
US10376240B2 (en) * 2015-05-15 2019-08-13 Siemens Medical Solutions Usa, Inc. Contrast agent sensitive medical ultrasound imaging
WO2016203288A1 (en) * 2015-06-15 2016-12-22 B-K Medical Aps Display of imaging data in a moving viewport
WO2017035838A1 (zh) * 2015-09-06 2017-03-09 深圳迈瑞生物医疗电子股份有限公司 超声灰阶成像系统及方法
WO2019034231A1 (en) * 2017-08-14 2019-02-21 Optos Plc TRACKING RETINAL POSITION
WO2019189386A1 (ja) * 2018-03-30 2019-10-03 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
CN110772280B (zh) * 2018-07-31 2023-05-23 佳能医疗系统株式会社 超声波诊断装置和方法以及图像处理装置和方法
JP2020156730A (ja) * 2019-03-26 2020-10-01 富士フイルム株式会社 超音波観測装置及び超音波内視鏡システム
KR20220117074A (ko) * 2021-02-16 2022-08-23 삼성메디슨 주식회사 초음파 영상 제공 방법 및 그 러닝 알고리즘

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07178095A (ja) * 1993-12-22 1995-07-18 Toshiba Corp 超音波診断装置
JP2006334404A (ja) * 2005-05-31 2006-12-14 Siemens Ag 画像処理用の対話式ユーザアシスタントのためのデータ処理システムおよび方法ならびにコンピュータ読取可能な媒体
JP2007090075A (ja) * 2005-09-27 2007-04-12 Siemens Medical Solutions Usa Inc コントラスト剤を超音波によって特徴付ける方法およびコントラスト剤を超音波によって特徴付けるためにプログラムされたプロセッサによって実行可能な命令を表すデータが記憶されたコンピュータ読み出し可能記憶媒体
WO2012137431A1 (ja) * 2011-04-05 2012-10-11 パナソニック株式会社 超音波診断装置、及び、超音波診断画像の出力方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3023290B2 (ja) * 1995-04-14 2000-03-21 株式会社東芝 超音波診断装置
US5575286A (en) * 1995-03-31 1996-11-19 Siemens Medical Systems, Inc. Method and apparatus for generating large compound ultrasound image
JP3580627B2 (ja) * 1996-01-29 2004-10-27 株式会社東芝 超音波診断装置
JP3746115B2 (ja) * 1996-10-21 2006-02-15 株式会社東芝 超音波診断装置
US6193660B1 (en) * 1999-03-31 2001-02-27 Acuson Corporation Medical diagnostic ultrasound system and method for region of interest determination
US6368277B1 (en) * 2000-04-05 2002-04-09 Siemens Medical Solutions Usa, Inc. Dynamic measurement of parameters within a sequence of images
US6514206B2 (en) * 2001-03-09 2003-02-04 Koninklijke Philips Electronics, N.V. Simultaneous fundamental and harmonic ultrasonic imaging
US6612989B1 (en) * 2002-06-18 2003-09-02 Koninklijke Philips Electronics N.V. System and method for synchronized persistence with contrast agent imaging
US7914456B2 (en) * 2003-05-30 2011-03-29 Hitachi Medical Corporation Ultrasonic probe and ultrasonic elasticity imaging device
CN1913832A (zh) * 2004-01-26 2007-02-14 皇家飞利浦电子股份有限公司 用于显示心肌灌注的图像分割
US20080234580A1 (en) * 2004-02-05 2008-09-25 Koninklijke Philips Electronics, N.V. Ultrasonic Imaging of Perfusion and Blood Flow with Harmonic Contrast Agents
US7921717B2 (en) * 2005-01-03 2011-04-12 Siemens Medical Solutions Usa, Inc. Ultrasonic imaging system
JP2007007193A (ja) 2005-06-30 2007-01-18 Ge Medical Systems Global Technology Co Llc 超音波診断装置および超音波診断画像表示方法
US7695439B2 (en) * 2005-08-22 2010-04-13 Siemens Medical Solutions Usa, Inc. Automated identification of cardiac events with medical ultrasound
JP5209213B2 (ja) 2006-01-10 2013-06-12 株式会社東芝 超音波診断装置及び超音波画像生成プログラム
EP2072013A4 (en) * 2006-10-10 2014-12-03 Hitachi Medical Corp MEDICAL PICTURE DIAGNOSTIC DEVICE, MEDICAL IMAGING METHOD AND MEDICAL PICTURE MEASUREMENT PROGRAM
JP5376877B2 (ja) * 2008-09-17 2013-12-25 株式会社東芝 超音波診断装置および画像表示プログラム
US20110208061A1 (en) * 2008-11-11 2011-08-25 Koninklijke Philips Electronics N.V. Ultrasonic lesion identification using temporal parametric contrast images
US8396268B2 (en) * 2010-03-31 2013-03-12 Isis Innovation Limited System and method for image sequence processing
US8696579B2 (en) * 2010-06-04 2014-04-15 Siemens Medical Solutions Usa, Inc. Cardiac flow quantification with volumetric imaging data
JP2012125297A (ja) * 2010-12-13 2012-07-05 Toshiba Corp 超音波診断装置、画像処理装置及びプログラム。

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07178095A (ja) * 1993-12-22 1995-07-18 Toshiba Corp 超音波診断装置
JP2006334404A (ja) * 2005-05-31 2006-12-14 Siemens Ag 画像処理用の対話式ユーザアシスタントのためのデータ処理システムおよび方法ならびにコンピュータ読取可能な媒体
JP2007090075A (ja) * 2005-09-27 2007-04-12 Siemens Medical Solutions Usa Inc コントラスト剤を超音波によって特徴付ける方法およびコントラスト剤を超音波によって特徴付けるためにプログラムされたプロセッサによって実行可能な命令を表すデータが記憶されたコンピュータ読み出し可能記憶媒体
WO2012137431A1 (ja) * 2011-04-05 2012-10-11 パナソニック株式会社 超音波診断装置、及び、超音波診断画像の出力方法

Also Published As

Publication number Publication date
JP6139186B2 (ja) 2017-05-31
US20160066888A1 (en) 2016-03-10
CN105188555A (zh) 2015-12-23
CN105188555B (zh) 2018-06-22
US11298109B2 (en) 2022-04-12
JP2014171755A (ja) 2014-09-22

Similar Documents

Publication Publication Date Title
JP6139186B2 (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
US9833216B2 (en) Ultrasonic diagnosis apparatus and image processing method
US20190046153A1 (en) Ultrasonic diagnostic apparatus
US8696575B2 (en) Ultrasonic diagnostic apparatus and method of controlling the same
JP5536984B2 (ja) 超音波イメージング装置及び超音波速度最適化プログラム
JP5972569B2 (ja) 超音波診断装置、超音波画像処置装置、医用画像診断装置及び超音波画像処理プログラム
JP5002181B2 (ja) 超音波診断装置及び超音波診断装置制御方法
JP5897674B2 (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
JP7461530B2 (ja) 超音波診断装置及び穿刺支援プログラム
JP5165858B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP6352013B2 (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
US20150173721A1 (en) Ultrasound diagnostic apparatus, medical image processing apparatus and image processing method
JP2012030053A (ja) 超音波診断装置、画像処理装置および画像処理方法
JP2015231436A (ja) 超音波診断装置及び医用画像処理装置
JP7171228B2 (ja) 超音波診断装置及び医用情報処理プログラム
JP2013099386A (ja) 超音波診断装置および医用画像処理装置
JP6188560B2 (ja) 超音波診断装置及び判定プログラム
US20220133276A1 (en) Medical image processing device and computer program product
JP5738822B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2023108765A (ja) 超音波診断装置及び判定方法
JP5944761B2 (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
JP2008220662A (ja) 超音波診断装置及びその制御プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480013750.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14764882

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14764882

Country of ref document: EP

Kind code of ref document: A1